Kleine spezifische Modelle liefern nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung. Krot_Studio – shutterstock.com Dem Marktforschungsunternehmen Gartner zufolge sind kleine, auf bestimmte Aufgaben zugeschnittene KI-Modelle auf dem Vormarsch. Unternehmen werden diese, so die Prognose, bis 2027 mit einem mindestens dreifach höheren Nutzungsvolumen im Vergleich zu allgemeinen Sprachmodellen (Large Language Models, LLMs) einsetzen. Diese Entwicklung hat Gartner zufolge mehrere Gründe. So würden LLMs zwar eine breite Palette sprachlicher Fähigkeiten bieten. Auf der anderen Seite lasse ihre Genauigkeit nach, wenn es um Aufgaben geht, die spezifisches Fachwissen oder Kontext aus einem bestimmten Geschäftsbereich erfordern. Schnellere Antworten Sumit Agarwal, VP Analyst bei Gartner, erklärt dazu: „Die Vielfalt an Aufgaben in Geschäftsprozessen und der Wunsch nach höherer Präzision führen dazu, dass Unternehmen zunehmend auf spezialisierte Modelle setzen, die für bestimmte Funktionen oder auf Grundlage domänenspezifischer Daten trainiert wurden.“ Die SLMs liefern seiner Meinung nach nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung – was die Betriebs- und Wartungskosten erheblich senken dürfte. Die allgemeinen Sprachmodelle können Unternehmen laut Gartner mithilfe von Retrieval-Augmented-Generation (RAG) oder Feinjustierungstechniken (Fine-Tuning) an ihre Bedürfnisse anpassen und so spezialisierte Modelle entwickeln. Dabei werde die unternehmensinterne Datenbasis zum entscheidenden Wettbewerbsvorteil. Allerdings erfordert dies eine sorgfältige Datenaufbereitung, Qualitätskontrollen, Versionierung sowie ein ganzheitliches Datenmanagement. Nur so könne sichergestellt werden, dass die Daten in der erforderlichen Struktur für das Fine-Tuning vorliegen. KI-Modelle monetarisieren Ein Aufwand, der sich nach Ansicht von Agarwal in der Zukunft lohnen dürfte: „Da Unternehmen den Wert ihrer internen Daten und der daraus gewonnenen Erkenntnisse zunehmend wertschätzen, ist zu erwarten, dass sie beginnen werden, ihre Modelle zu monetarisieren – und sie nicht nur intern zu nutzen, sondern auch Kunden und sogar Wettbewerbern zugänglich zu machen.“ Für den Analysten wird dies einen Wandel im Umgang mit Wissen einläuten: Statt es wie bislang stark zu schützen, könnten Daten und Know-how künftig offener und kooperativ genutzt werden. Ferner erschließe die Kommerzialisierung der proprietären Modelle den Unternehmen nicht nur neue Einnahmequellen, sondern fördere zugleich ein stärker vernetztes Ökosystem. Kleine Modelle implementieren Unternehmen, die solche kleine aufgabenspezifische KI-Modelle implementieren möchten, gibt Gartner folgende Empfehlungen: Pilotprojekte mit kontextualisierten Modellen: Kleine, spezialisierte Modelle sollten gezielt in Bereichen eingesetzt werden, in denen Fachwissen entscheidend ist oder in denen allgemeine LLMs hinsichtlich Antwortqualität oder -geschwindigkeit nicht überzeugen konnten. Kombinierte Ansätze: Identifizieren Sie Anwendungsfälle, in denen ein einzelnes Modell nicht ausreicht. Setzen Sie stattdessen auf ein Zusammenspiel mehrerer Modelle und Prozessschritte. Datenqualität und Kompetenzen: Investieren Sie in die gezielte Aufbereitung von Daten – durch Sammlung, Kuratierung und Organisation – um die Grundlage für ein erfolgreiches Fine-Tuning zu schaffen. Gleichzeitig sollten Fachkräfte aus unterschiedlichen Bereichen wie KI- und Datenarchitektur, Data Science, Daten- und KI-Engineering, Risiko- und Compliance-Management, Einkauf sowie Fachabteilungen gezielt weitergebildet werden, um diese Initiativen effektiv voranzutreiben.
Gartner: Kleine KI-Modelle auf dem Vormarsch
Kleine spezifische Modelle liefern nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung. Krot_Studio – shutterstock.com Dem Marktforschungsunternehmen Gartner zufolge sind kleine, auf bestimmte Aufgaben zugeschnittene KI-Modelle auf dem Vormarsch. Unternehmen werden diese, so die Prognose, bis 2027 mit einem mindestens dreifach höheren Nutzungsvolumen im Vergleich zu allgemeinen Sprachmodellen (Large Language Models, LLMs) einsetzen. Diese Entwicklung hat Gartner zufolge mehrere Gründe. So würden LLMs zwar eine breite Palette sprachlicher Fähigkeiten bieten. Auf der anderen Seite lasse ihre Genauigkeit nach, wenn es um Aufgaben geht, die spezifisches Fachwissen oder Kontext aus einem bestimmten Geschäftsbereich erfordern. Schnellere Antworten Sumit Agarwal, VP Analyst bei Gartner, erklärt dazu: „Die Vielfalt an Aufgaben in Geschäftsprozessen und der Wunsch nach höherer Präzision führen dazu, dass Unternehmen zunehmend auf spezialisierte Modelle setzen, die für bestimmte Funktionen oder auf Grundlage domänenspezifischer Daten trainiert wurden.“ Die SLMs liefern seiner Meinung nach nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung – was die Betriebs- und Wartungskosten erheblich senken dürfte. Die allgemeinen Sprachmodelle können Unternehmen laut Gartner mithilfe von Retrieval-Augmented-Generation (RAG) oder Feinjustierungstechniken (Fine-Tuning) an ihre Bedürfnisse anpassen und so spezialisierte Modelle entwickeln. Dabei werde die unternehmensinterne Datenbasis zum entscheidenden Wettbewerbsvorteil. Allerdings erfordert dies eine sorgfältige Datenaufbereitung, Qualitätskontrollen, Versionierung sowie ein ganzheitliches Datenmanagement. Nur so könne sichergestellt werden, dass die Daten in der erforderlichen Struktur für das Fine-Tuning vorliegen. KI-Modelle monetarisieren Ein Aufwand, der sich nach Ansicht von Agarwal in der Zukunft lohnen dürfte: „Da Unternehmen den Wert ihrer internen Daten und der daraus gewonnenen Erkenntnisse zunehmend wertschätzen, ist zu erwarten, dass sie beginnen werden, ihre Modelle zu monetarisieren – und sie nicht nur intern zu nutzen, sondern auch Kunden und sogar Wettbewerbern zugänglich zu machen.“ Für den Analysten wird dies einen Wandel im Umgang mit Wissen einläuten: Statt es wie bislang stark zu schützen, könnten Daten und Know-how künftig offener und kooperativ genutzt werden. Ferner erschließe die Kommerzialisierung der proprietären Modelle den Unternehmen nicht nur neue Einnahmequellen, sondern fördere zugleich ein stärker vernetztes Ökosystem. Kleine Modelle implementieren Unternehmen, die solche kleine aufgabenspezifische KI-Modelle implementieren möchten, gibt Gartner folgende Empfehlungen: Pilotprojekte mit kontextualisierten Modellen: Kleine, spezialisierte Modelle sollten gezielt in Bereichen eingesetzt werden, in denen Fachwissen entscheidend ist oder in denen allgemeine LLMs hinsichtlich Antwortqualität oder -geschwindigkeit nicht überzeugen konnten. Kombinierte Ansätze: Identifizieren Sie Anwendungsfälle, in denen ein einzelnes Modell nicht ausreicht. Setzen Sie stattdessen auf ein Zusammenspiel mehrerer Modelle und Prozessschritte. Datenqualität und Kompetenzen: Investieren Sie in die gezielte Aufbereitung von Daten – durch Sammlung, Kuratierung und Organisation – um die Grundlage für ein erfolgreiches Fine-Tuning zu schaffen. Gleichzeitig sollten Fachkräfte aus unterschiedlichen Bereichen wie KI- und Datenarchitektur, Data Science, Daten- und KI-Engineering, Risiko- und Compliance-Management, Einkauf sowie Fachabteilungen gezielt weitergebildet werden, um diese Initiativen effektiv voranzutreiben.
Gartner: Kleine KI-Modelle auf dem Vormarsch Kleine spezifische Modelle liefern nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung. Krot_Studio – shutterstock.com Dem Marktforschungsunternehmen Gartner zufolge sind kleine, auf bestimmte Aufgaben zugeschnittene KI-Modelle auf dem Vormarsch. Unternehmen werden diese, so die Prognose, bis 2027 mit einem mindestens dreifach höheren Nutzungsvolumen im Vergleich zu allgemeinen Sprachmodellen (Large Language Models, LLMs) einsetzen. Diese Entwicklung hat Gartner zufolge mehrere Gründe. So würden LLMs zwar eine breite Palette sprachlicher Fähigkeiten bieten. Auf der anderen Seite lasse ihre Genauigkeit nach, wenn es um Aufgaben geht, die spezifisches Fachwissen oder Kontext aus einem bestimmten Geschäftsbereich erfordern. Schnellere Antworten Sumit Agarwal, VP Analyst bei Gartner, erklärt dazu: „Die Vielfalt an Aufgaben in Geschäftsprozessen und der Wunsch nach höherer Präzision führen dazu, dass Unternehmen zunehmend auf spezialisierte Modelle setzen, die für bestimmte Funktionen oder auf Grundlage domänenspezifischer Daten trainiert wurden.“ Die SLMs liefern seiner Meinung nach nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung – was die Betriebs- und Wartungskosten erheblich senken dürfte. Die allgemeinen Sprachmodelle können Unternehmen laut Gartner mithilfe von Retrieval-Augmented-Generation (RAG) oder Feinjustierungstechniken (Fine-Tuning) an ihre Bedürfnisse anpassen und so spezialisierte Modelle entwickeln. Dabei werde die unternehmensinterne Datenbasis zum entscheidenden Wettbewerbsvorteil. Allerdings erfordert dies eine sorgfältige Datenaufbereitung, Qualitätskontrollen, Versionierung sowie ein ganzheitliches Datenmanagement. Nur so könne sichergestellt werden, dass die Daten in der erforderlichen Struktur für das Fine-Tuning vorliegen. KI-Modelle monetarisieren Ein Aufwand, der sich nach Ansicht von Agarwal in der Zukunft lohnen dürfte: „Da Unternehmen den Wert ihrer internen Daten und der daraus gewonnenen Erkenntnisse zunehmend wertschätzen, ist zu erwarten, dass sie beginnen werden, ihre Modelle zu monetarisieren – und sie nicht nur intern zu nutzen, sondern auch Kunden und sogar Wettbewerbern zugänglich zu machen.“ Für den Analysten wird dies einen Wandel im Umgang mit Wissen einläuten: Statt es wie bislang stark zu schützen, könnten Daten und Know-how künftig offener und kooperativ genutzt werden. Ferner erschließe die Kommerzialisierung der proprietären Modelle den Unternehmen nicht nur neue Einnahmequellen, sondern fördere zugleich ein stärker vernetztes Ökosystem. Kleine Modelle implementieren Unternehmen, die solche kleine aufgabenspezifische KI-Modelle implementieren möchten, gibt Gartner folgende Empfehlungen: Pilotprojekte mit kontextualisierten Modellen: Kleine, spezialisierte Modelle sollten gezielt in Bereichen eingesetzt werden, in denen Fachwissen entscheidend ist oder in denen allgemeine LLMs hinsichtlich Antwortqualität oder -geschwindigkeit nicht überzeugen konnten. Kombinierte Ansätze: Identifizieren Sie Anwendungsfälle, in denen ein einzelnes Modell nicht ausreicht. Setzen Sie stattdessen auf ein Zusammenspiel mehrerer Modelle und Prozessschritte. Datenqualität und Kompetenzen: Investieren Sie in die gezielte Aufbereitung von Daten – durch Sammlung, Kuratierung und Organisation – um die Grundlage für ein erfolgreiches Fine-Tuning zu schaffen. Gleichzeitig sollten Fachkräfte aus unterschiedlichen Bereichen wie KI- und Datenarchitektur, Data Science, Daten- und KI-Engineering, Risiko- und Compliance-Management, Einkauf sowie Fachabteilungen gezielt weitergebildet werden, um diese Initiativen effektiv voranzutreiben.