Computerhaus Quickborn

Vorsicht vor „agentenähnlicher“ KI​

width="2500" height="1406" sizes="(max-width: 2500px) 100vw, 2500px">Nicht genug damit, dass die aktuellen Tools noch keine ‚echten KI-Agenten‘ sind – es lauern auch zahlreiche Gefahren bei der Einführung.fewerton – shutterstock.com In den vergangenen Monaten gab es eine explosionsartige Zunahme neuer „agentenähnlicher“ KI-Tools, die Arbeitsabläufe in Produktivitätsanwendungen automatisieren können. Analysten empfehlen Unternehmen jedoch, die Risiken einer Einführung im Vorfeld sorgfältig abzuwägen.  Etikettenschwindel bei KI-Agenten  „Unternehmensleiter müssen eine Strategie entwickeln, wie sie Agentic AI im eigentlichen Sinne bewerten und zugleich eine Governance für diese Lösungen festlegen“, erklärt JP Gownder, Vice President und Principal Analyst im Future of Work-Team von Forrester.  Gownder betont, dass diese Tools noch keine ‚echten KI-Agenten‘ seien, sondern vielmehr ‚agentenähnliche‘ Tools, wie Forrester sie bezeichnet. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber nicht die ‘digitalen Mitarbeiter’, von denen die Anbieter sprechen – zumindest noch nicht“, so Gownder.  KI-Agenten, die Mitarbeiter bei ihrer Arbeit unterstützen sollen, indem sie bestimmte Aufgaben (fast) automatisch erledigen, liegen aktuell im Trend. Google und Microsoft haben KI-Plugins für ihre Produktivitätssuiten entwickelt, während Drittanbieter eigene anbieten.  Auf seiner Cloud-Next-Konferenz stellte Google kürzlich neue KI-Tools für seine Workspace-Suite vor, mit denen sich die Arbeit in verschiedenen Produktivitätsanwendungen automatisieren lässt. So kann Workspace Flows eine Reihe von Aufgaben automatisieren, die bei der Überprüfung von Dokumenten, Anfragen im Kunden-Support oder Produktanalysen anfallen. Die neue „Help me analyze“-Funktion in Google Sheets wiederum kann Informationen aus Tabellen auslesen und sofort Analysen und Einblicke liefern.   Auch die Roadmap von Microsoft 365 listet zahlreiche künftige Copilot-Funktionen auf, darunter Tools, um Word-Dokumente, Lernassistenten und HR-Tools automatisiert zu erstellen.  Kürzlich stellte auch Anthropic eine Integration seines Claude-KI-Modells für Gmail, Google Kalender und Google Docs vor. Damit sollen Nutzer laut Unternehmensangaben per E-Mail „einen tieferen Einblick in den Arbeitskontext“ erhalten – etwa, indem sie E-Mails durchsuchen, Dokumente überprüfen und Kalendereinträge scannen.  „Ob bei Projektmanagement, Reiseplanung oder privaten Aufgaben – Claude versteht nun den vollständigen Kontext und kann besser unterstützen. Aktivieren Sie dazu die Google Workspace-Beta in den Einstellungen“, teilte Anthropic mit.  Auch Adobe arbeitet an einem Adobe Express AI Agent für Microsoft 365, der via Copilot multimediale Inhalte und Präsentationen erstellen kann.  Vorsicht beim Ausrollen dieser KI-Plugins  Analysten dämpfen jedoch die Begeisterung an dem Produktfeuerwerk der Anbieter. Sie warnen, dass ein sicheres Deployment dieser spezifischen KI-Plugins in Produktivitätsanwendungen Jahre an Feinabstimmung und Implementierung erfordert. Die Unternehmen müssten zunächst verstehen, was die Tools leisten, welche potenziellen Sicherheitsprobleme existierten, um dann entsprechende Rahmenbedingungen zu definieren.  Die technische Einführung von KI-Systemen und -Agenten bedeutet aus ihrer Sicht nicht, dass Unternehmen damit automatisch den richtigen Weg einschlagen – möglicherweise bewegen sie sich sogar zu schnell.  „Wir stehen noch ganz am Anfang der Entwicklung hin zu agentenbasierter KI, aber Anbieter verwenden gerne den Begriff ‘Agent‘, obwohl diese noch längst nicht die Autonomie und Handlungsfähigkeit besitzen, die sie eines Tages haben werden“, erklärt Gownder. Microsoft Copilot-Agenten eigneten sich etwa, um gezielt auf bestimmte Datenquelle – wie etwa SharePoint – zuzugreifen, so der Forrester-Analyst. „Das ist hilfreich, wenn es um ein RAG-Modell für die Datenverarbeitung geht. Aber das sind keine komplexen Agenten.“  Laut Jack Gold, Principal Analyst bei J. Gold Associates, könnten Agenten kaskadierend arbeiten, indem ein Agent einen anderen aufruft, um eine spezielle Aufgabe zu übernehmen — ein Prozess also, der mehrere Agenten einbezieht, bevor dem Nutzer ein Ergebnis präsentiert wird.  Wie bei jeder neuen Technologie müssten Unternehmen jedoch lernen, wie sie diese KI-Agenten am besten einsetzen, meint Gold. Dazu gehöre auch, die richtigen Fragen in der richtigen Reihenfolge zu stellen, damit der Agent produktiv arbeiten kann. „Wichtig ist außerdem, dass die Fragen präzise gestellt werden – Agenten neigen dazu, ‚abzudriften‘, wenn man ihnen keine konkreten Vorgaben macht“, so der Analyst.  Das notwendige „User Training“ werde oft ein Trial-and-Error-Prozess sein, der mal schnell, mal langwierig ausfalle, abhängig von Rolle und Komplexität. „Die größte Herausforderung wird sein: Kann man den Ergebnissen der Agenten vertrauen?“, konstatiert Gold.  Der Analyst weist darauf hin, dass – wie bei allen Systemen auf Enterprise-Niveau – auch der CISO einbezogen werden müsse, um potenzielle Schwachstellen zu identifizieren. Und auch HR- und Legal-Teams sollten bei Rollouts, die Unternehmensdaten betreffen, mitwirken.  „Durch KI verstärkt sich diese Problematik allerdings, weil diese Systeme in der Lage sind, aus bestehenden Informationen neue Erkenntnisse abzuleiten. Das wirft andere Anforderungen auf“, so Gold.  Warnung vor Endlosschleifen Ein besonders hohes Risiko ist laut Jason Wong, Vice President und Analyst im App-Design- und Entwicklungsteam bei Gartner, eine drohende „Agenten-Anarchie“. Darunter versteht man das Risiko, dass Tausende schlecht orchestrierte Agenten kollidieren und Endlosschleifen automatisierter Interaktionen verursachen. „Ohne gründliche Planung und Überwachung stellt Agenten-Anarchie eine kurzfristige und ernsthafte Bedrohung für die Stabilität von Unternehmensanwendungen dar“, so Wong.  Aber auch Mitarbeitende, die Zugriff auf GenAI-Tool-Builder wie Copilot Studio Agent Builder oder Google AI Studio haben, könnten in Kombination mit anderen Agenten aus Anwendungen heraus Probleme verursachen.  Laut Wong dauert es im Schnitt mindestens drei Monate, um tief verankertes Nutzerverhalten bei GenAI-Tools zu verändern. „Systemadministratoren müssen sich weiterentwickeln und von reinen Betriebsverwaltern zu Enablern für den Aufbau und das Management von Agenten werden“, resümiert der Garter-Experte.  

Vorsicht vor „agentenähnlicher“ KI​ width="2500" height="1406" sizes="(max-width: 2500px) 100vw, 2500px">Nicht genug damit, dass die aktuellen Tools noch keine ‚echten KI-Agenten‘ sind – es lauern auch zahlreiche Gefahren bei der Einführung.fewerton – shutterstock.com In den vergangenen Monaten gab es eine explosionsartige Zunahme neuer „agentenähnlicher“ KI-Tools, die Arbeitsabläufe in Produktivitätsanwendungen automatisieren können. Analysten empfehlen Unternehmen jedoch, die Risiken einer Einführung im Vorfeld sorgfältig abzuwägen.  Etikettenschwindel bei KI-Agenten  „Unternehmensleiter müssen eine Strategie entwickeln, wie sie Agentic AI im eigentlichen Sinne bewerten und zugleich eine Governance für diese Lösungen festlegen“, erklärt JP Gownder, Vice President und Principal Analyst im Future of Work-Team von Forrester.  Gownder betont, dass diese Tools noch keine ‚echten KI-Agenten‘ seien, sondern vielmehr ‚agentenähnliche‘ Tools, wie Forrester sie bezeichnet. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber nicht die ‘digitalen Mitarbeiter’, von denen die Anbieter sprechen – zumindest noch nicht“, so Gownder.  KI-Agenten, die Mitarbeiter bei ihrer Arbeit unterstützen sollen, indem sie bestimmte Aufgaben (fast) automatisch erledigen, liegen aktuell im Trend. Google und Microsoft haben KI-Plugins für ihre Produktivitätssuiten entwickelt, während Drittanbieter eigene anbieten.  Auf seiner Cloud-Next-Konferenz stellte Google kürzlich neue KI-Tools für seine Workspace-Suite vor, mit denen sich die Arbeit in verschiedenen Produktivitätsanwendungen automatisieren lässt. So kann Workspace Flows eine Reihe von Aufgaben automatisieren, die bei der Überprüfung von Dokumenten, Anfragen im Kunden-Support oder Produktanalysen anfallen. Die neue „Help me analyze“-Funktion in Google Sheets wiederum kann Informationen aus Tabellen auslesen und sofort Analysen und Einblicke liefern.   Auch die Roadmap von Microsoft 365 listet zahlreiche künftige Copilot-Funktionen auf, darunter Tools, um Word-Dokumente, Lernassistenten und HR-Tools automatisiert zu erstellen.  Kürzlich stellte auch Anthropic eine Integration seines Claude-KI-Modells für Gmail, Google Kalender und Google Docs vor. Damit sollen Nutzer laut Unternehmensangaben per E-Mail „einen tieferen Einblick in den Arbeitskontext“ erhalten – etwa, indem sie E-Mails durchsuchen, Dokumente überprüfen und Kalendereinträge scannen.  „Ob bei Projektmanagement, Reiseplanung oder privaten Aufgaben – Claude versteht nun den vollständigen Kontext und kann besser unterstützen. Aktivieren Sie dazu die Google Workspace-Beta in den Einstellungen“, teilte Anthropic mit.  Auch Adobe arbeitet an einem Adobe Express AI Agent für Microsoft 365, der via Copilot multimediale Inhalte und Präsentationen erstellen kann.  Vorsicht beim Ausrollen dieser KI-Plugins  Analysten dämpfen jedoch die Begeisterung an dem Produktfeuerwerk der Anbieter. Sie warnen, dass ein sicheres Deployment dieser spezifischen KI-Plugins in Produktivitätsanwendungen Jahre an Feinabstimmung und Implementierung erfordert. Die Unternehmen müssten zunächst verstehen, was die Tools leisten, welche potenziellen Sicherheitsprobleme existierten, um dann entsprechende Rahmenbedingungen zu definieren.  Die technische Einführung von KI-Systemen und -Agenten bedeutet aus ihrer Sicht nicht, dass Unternehmen damit automatisch den richtigen Weg einschlagen – möglicherweise bewegen sie sich sogar zu schnell.  „Wir stehen noch ganz am Anfang der Entwicklung hin zu agentenbasierter KI, aber Anbieter verwenden gerne den Begriff ‘Agent‘, obwohl diese noch längst nicht die Autonomie und Handlungsfähigkeit besitzen, die sie eines Tages haben werden“, erklärt Gownder. Microsoft Copilot-Agenten eigneten sich etwa, um gezielt auf bestimmte Datenquelle – wie etwa SharePoint – zuzugreifen, so der Forrester-Analyst. „Das ist hilfreich, wenn es um ein RAG-Modell für die Datenverarbeitung geht. Aber das sind keine komplexen Agenten.“  Laut Jack Gold, Principal Analyst bei J. Gold Associates, könnten Agenten kaskadierend arbeiten, indem ein Agent einen anderen aufruft, um eine spezielle Aufgabe zu übernehmen — ein Prozess also, der mehrere Agenten einbezieht, bevor dem Nutzer ein Ergebnis präsentiert wird.  Wie bei jeder neuen Technologie müssten Unternehmen jedoch lernen, wie sie diese KI-Agenten am besten einsetzen, meint Gold. Dazu gehöre auch, die richtigen Fragen in der richtigen Reihenfolge zu stellen, damit der Agent produktiv arbeiten kann. „Wichtig ist außerdem, dass die Fragen präzise gestellt werden – Agenten neigen dazu, ‚abzudriften‘, wenn man ihnen keine konkreten Vorgaben macht“, so der Analyst.  Das notwendige „User Training“ werde oft ein Trial-and-Error-Prozess sein, der mal schnell, mal langwierig ausfalle, abhängig von Rolle und Komplexität. „Die größte Herausforderung wird sein: Kann man den Ergebnissen der Agenten vertrauen?“, konstatiert Gold.  Der Analyst weist darauf hin, dass – wie bei allen Systemen auf Enterprise-Niveau – auch der CISO einbezogen werden müsse, um potenzielle Schwachstellen zu identifizieren. Und auch HR- und Legal-Teams sollten bei Rollouts, die Unternehmensdaten betreffen, mitwirken.  „Durch KI verstärkt sich diese Problematik allerdings, weil diese Systeme in der Lage sind, aus bestehenden Informationen neue Erkenntnisse abzuleiten. Das wirft andere Anforderungen auf“, so Gold.  Warnung vor Endlosschleifen Ein besonders hohes Risiko ist laut Jason Wong, Vice President und Analyst im App-Design- und Entwicklungsteam bei Gartner, eine drohende „Agenten-Anarchie“. Darunter versteht man das Risiko, dass Tausende schlecht orchestrierte Agenten kollidieren und Endlosschleifen automatisierter Interaktionen verursachen. „Ohne gründliche Planung und Überwachung stellt Agenten-Anarchie eine kurzfristige und ernsthafte Bedrohung für die Stabilität von Unternehmensanwendungen dar“, so Wong.  Aber auch Mitarbeitende, die Zugriff auf GenAI-Tool-Builder wie Copilot Studio Agent Builder oder Google AI Studio haben, könnten in Kombination mit anderen Agenten aus Anwendungen heraus Probleme verursachen.  Laut Wong dauert es im Schnitt mindestens drei Monate, um tief verankertes Nutzerverhalten bei GenAI-Tools zu verändern. „Systemadministratoren müssen sich weiterentwickeln und von reinen Betriebsverwaltern zu Enablern für den Aufbau und das Management von Agenten werden“, resümiert der Garter-Experte. 

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Nicht genug damit, dass die aktuellen Tools noch keine ‚echten KI-Agenten‘ sind – es lauern auch zahlreiche Gefahren bei der Einführung.fewerton – shutterstock.com In den vergangenen Monaten gab es eine explosionsartige Zunahme neuer „agentenähnlicher“ KI-Tools, die Arbeitsabläufe in Produktivitätsanwendungen automatisieren können. Analysten empfehlen Unternehmen jedoch, die Risiken einer Einführung im Vorfeld sorgfältig abzuwägen.  Etikettenschwindel bei KI-Agenten  „Unternehmensleiter müssen eine Strategie entwickeln, wie sie Agentic AI im eigentlichen Sinne bewerten und zugleich eine Governance für diese Lösungen festlegen“, erklärt JP Gownder, Vice President und Principal Analyst im Future of Work-Team von Forrester.  Gownder betont, dass diese Tools noch keine ‚echten KI-Agenten‘ seien, sondern vielmehr ‚agentenähnliche‘ Tools, wie Forrester sie bezeichnet. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber nicht die ‘digitalen Mitarbeiter’, von denen die Anbieter sprechen – zumindest noch nicht“, so Gownder.  KI-Agenten, die Mitarbeiter bei ihrer Arbeit unterstützen sollen, indem sie bestimmte Aufgaben (fast) automatisch erledigen, liegen aktuell im Trend. Google und Microsoft haben KI-Plugins für ihre Produktivitätssuiten entwickelt, während Drittanbieter eigene anbieten.  Auf seiner Cloud-Next-Konferenz stellte Google kürzlich neue KI-Tools für seine Workspace-Suite vor, mit denen sich die Arbeit in verschiedenen Produktivitätsanwendungen automatisieren lässt. So kann Workspace Flows eine Reihe von Aufgaben automatisieren, die bei der Überprüfung von Dokumenten, Anfragen im Kunden-Support oder Produktanalysen anfallen. Die neue „Help me analyze“-Funktion in Google Sheets wiederum kann Informationen aus Tabellen auslesen und sofort Analysen und Einblicke liefern.   Auch die Roadmap von Microsoft 365 listet zahlreiche künftige Copilot-Funktionen auf, darunter Tools, um Word-Dokumente, Lernassistenten und HR-Tools automatisiert zu erstellen.  Kürzlich stellte auch Anthropic eine Integration seines Claude-KI-Modells für Gmail, Google Kalender und Google Docs vor. Damit sollen Nutzer laut Unternehmensangaben per E-Mail „einen tieferen Einblick in den Arbeitskontext“ erhalten – etwa, indem sie E-Mails durchsuchen, Dokumente überprüfen und Kalendereinträge scannen.  „Ob bei Projektmanagement, Reiseplanung oder privaten Aufgaben – Claude versteht nun den vollständigen Kontext und kann besser unterstützen. Aktivieren Sie dazu die Google Workspace-Beta in den Einstellungen“, teilte Anthropic mit.  Auch Adobe arbeitet an einem Adobe Express AI Agent für Microsoft 365, der via Copilot multimediale Inhalte und Präsentationen erstellen kann.  Vorsicht beim Ausrollen dieser KI-Plugins  Analysten dämpfen jedoch die Begeisterung an dem Produktfeuerwerk der Anbieter. Sie warnen, dass ein sicheres Deployment dieser spezifischen KI-Plugins in Produktivitätsanwendungen Jahre an Feinabstimmung und Implementierung erfordert. Die Unternehmen müssten zunächst verstehen, was die Tools leisten, welche potenziellen Sicherheitsprobleme existierten, um dann entsprechende Rahmenbedingungen zu definieren.  Die technische Einführung von KI-Systemen und -Agenten bedeutet aus ihrer Sicht nicht, dass Unternehmen damit automatisch den richtigen Weg einschlagen – möglicherweise bewegen sie sich sogar zu schnell.  „Wir stehen noch ganz am Anfang der Entwicklung hin zu agentenbasierter KI, aber Anbieter verwenden gerne den Begriff ‘Agent‘, obwohl diese noch längst nicht die Autonomie und Handlungsfähigkeit besitzen, die sie eines Tages haben werden“, erklärt Gownder. Microsoft Copilot-Agenten eigneten sich etwa, um gezielt auf bestimmte Datenquelle – wie etwa SharePoint – zuzugreifen, so der Forrester-Analyst. „Das ist hilfreich, wenn es um ein RAG-Modell für die Datenverarbeitung geht. Aber das sind keine komplexen Agenten.“  Laut Jack Gold, Principal Analyst bei J. Gold Associates, könnten Agenten kaskadierend arbeiten, indem ein Agent einen anderen aufruft, um eine spezielle Aufgabe zu übernehmen — ein Prozess also, der mehrere Agenten einbezieht, bevor dem Nutzer ein Ergebnis präsentiert wird.  Wie bei jeder neuen Technologie müssten Unternehmen jedoch lernen, wie sie diese KI-Agenten am besten einsetzen, meint Gold. Dazu gehöre auch, die richtigen Fragen in der richtigen Reihenfolge zu stellen, damit der Agent produktiv arbeiten kann. „Wichtig ist außerdem, dass die Fragen präzise gestellt werden – Agenten neigen dazu, ‚abzudriften‘, wenn man ihnen keine konkreten Vorgaben macht“, so der Analyst.  Das notwendige „User Training“ werde oft ein Trial-and-Error-Prozess sein, der mal schnell, mal langwierig ausfalle, abhängig von Rolle und Komplexität. „Die größte Herausforderung wird sein: Kann man den Ergebnissen der Agenten vertrauen?“, konstatiert Gold.  Der Analyst weist darauf hin, dass – wie bei allen Systemen auf Enterprise-Niveau – auch der CISO einbezogen werden müsse, um potenzielle Schwachstellen zu identifizieren. Und auch HR- und Legal-Teams sollten bei Rollouts, die Unternehmensdaten betreffen, mitwirken.  „Durch KI verstärkt sich diese Problematik allerdings, weil diese Systeme in der Lage sind, aus bestehenden Informationen neue Erkenntnisse abzuleiten. Das wirft andere Anforderungen auf“, so Gold.  Warnung vor Endlosschleifen Ein besonders hohes Risiko ist laut Jason Wong, Vice President und Analyst im App-Design- und Entwicklungsteam bei Gartner, eine drohende „Agenten-Anarchie“. Darunter versteht man das Risiko, dass Tausende schlecht orchestrierte Agenten kollidieren und Endlosschleifen automatisierter Interaktionen verursachen. „Ohne gründliche Planung und Überwachung stellt Agenten-Anarchie eine kurzfristige und ernsthafte Bedrohung für die Stabilität von Unternehmensanwendungen dar“, so Wong.  Aber auch Mitarbeitende, die Zugriff auf GenAI-Tool-Builder wie Copilot Studio Agent Builder oder Google AI Studio haben, könnten in Kombination mit anderen Agenten aus Anwendungen heraus Probleme verursachen.  Laut Wong dauert es im Schnitt mindestens drei Monate, um tief verankertes Nutzerverhalten bei GenAI-Tools zu verändern. „Systemadministratoren müssen sich weiterentwickeln und von reinen Betriebsverwaltern zu Enablern für den Aufbau und das Management von Agenten werden“, resümiert der Garter-Experte.  

Nach oben scrollen
×