Unternehmensleiter sagen, das Rezept für KI-Agenten bestehe darin, sie an bestehende Prozesse anzupassen – nicht umgekehrt

Möchten Sie intelligentere Einblicke in Ihren Posteingang erhalten? Melden Sie sich für unseren wöchentlichen Newsletter an, um nur das zu erhalten, was für Führungskräfte in den Bereichen KI, Daten und Sicherheit in Unternehmen wichtig ist. Jetzt abonnieren
Es besteht kein Zweifel, dass KI-Agenten – also solche, die autonom und asynchron im Hintergrund in Unternehmensabläufen arbeiten können – derzeit das Thema des Tages in Unternehmen sind.
Doch es gibt zunehmende Bedenken, dass es sich dabei nur um Gerede handelt, meist um Hype ohne viel Substanz dahinter.
Gartner etwa stellt fest, dass sich die Unternehmen auf dem „ Gipfel der überzogenen Erwartungen “ befinden, also in einer Phase kurz vor dem Einsetzen der Ernüchterung, weil die Anbieter ihre Versprechen nicht mit greifbaren, realen Anwendungsfällen untermauert haben.
Das heißt jedoch nicht, dass Unternehmen nicht mit KI-Agenten experimentieren und frühzeitig einen Return on Investment (ROI) erzielen. Die globalen Unternehmen Block und GlaxoSmithKline (GSK) erforschen ihrerseits Machbarkeitsnachweise in den Bereichen Finanzdienstleistungen und Arzneimittelforschung.
Die Skalierung von KI stößt an ihre Grenzen
Leistungsbeschränkungen, steigende Token-Kosten und Verzögerungen bei der Inferenz verändern die Unternehmens-KI. Nehmen Sie an unserem exklusiven Salon teil und erfahren Sie, wie Top-Teams:
- Energie in einen strategischen Vorteil verwandeln
- Effiziente Inferenz für echte Durchsatzsteigerungen
- Erzielen Sie mit nachhaltigen KI-Systemen einen wettbewerbsfähigen ROI
Sichern Sie sich Ihren Platz, um die Nase vorn zu haben : https://bit.ly/4mwGngO
„Multi-Agenten sind definitiv das Nächste, aber wir überlegen gerade, wie das auf eine Weise aussehen kann, die dem Menschen entgegenkommt und bequem ist“, sagte Brad Axen, Blocks technischer Leiter für KI- und Datenplattformen, Matt Marshall, CEO und Chefredakteur von VentureBeat, diesen Monat bei einer kürzlich von SAP gesponserten AI Impact-Veranstaltung.
Block, die 10.000 Mitarbeiter umfassende Muttergesellschaft von Square, Cash App und Afterpay, sieht sich selbst im Entdeckungsmodus, nachdem sie im Januar ein interoperables KI-Agenten-Framework mit dem Codenamen Goose eingeführt hat.
Goose wurde ursprünglich für Softwareentwicklungsaufgaben eingeführt und wird heute von 4.000 Ingenieuren genutzt, wobei sich die Nutzung monatlich verdoppelt, erklärte Axen. Die Plattform schreibt etwa 90 Prozent des Codes und spart Ingenieuren durch die Automatisierung der Codegenerierung, des Debuggens und der Informationsfilterung schätzungsweise zehn Arbeitsstunden pro Woche.
Neben dem Schreiben von Code fungiert Goose als eine Art „digitaler Teamkollege“, der Slack- und E-Mail-Streams komprimiert, unternehmensweite Tools integriert und neue Agenten erstellt, wenn Aufgaben einen höheren Durchsatz und einen erweiterten Umfang erfordern.
Axen betonte, dass Block sich darauf konzentriert, eine Schnittstelle zu schaffen, die sich anfühlt, als würde man mit einem einzelnen Kollegen arbeiten, nicht mit einem Schwarm von Bots. „Wir möchten, dass Sie das Gefühl haben, mit einer Person zusammenzuarbeiten, die jedoch an vielen Stellen und auf unterschiedliche Weise in Ihrem Namen handelt“, erklärte er.
Goose arbeitet in Echtzeit in der Entwicklungsumgebung, sucht, navigiert und schreibt Code basierend auf der Ausgabe eines Large Language Model (LLM), liest und schreibt gleichzeitig autonom Dateien, führt Code und Tests aus, verfeinert Ausgaben und installiert Abhängigkeiten.
Grundsätzlich kann jeder ein System auf seinem bevorzugten LLM erstellen und betreiben, wobei Goose als Anwendungsschicht konzipiert werden kann. Es verfügt über eine integrierte Desktop-Anwendung und eine Kommandozeilenschnittstelle, Entwickler können aber auch benutzerdefinierte Benutzeroberflächen erstellen. Die Plattform basiert auf dem Model Context Protocol (MCP) von Anthropic, einem zunehmend beliebten Open-Source-Standardsatz von APIs und Endpunkten, der Agenten mit Datenspeichern, Tools und Entwicklungsumgebungen verbindet.
Goose wurde unter der Open-Source-Apache-Lizenz 2.0 (ASL2) veröffentlicht. Das bedeutet, dass jeder es frei nutzen, modifizieren und verbreiten kann, auch für kommerzielle Zwecke. Benutzer können ohne technische Kenntnisse auf Databricks-Datenbanken zugreifen und SQL-Aufrufe oder -Abfragen durchführen.
„Wir möchten wirklich einen Prozess entwickeln, der es den Menschen ermöglicht, einen Nutzen aus dem System zu ziehen, ohne ein Experte sein zu müssen“, erklärte Axen.
Beim Programmieren beispielsweise können Nutzer ihre Wünsche in natürlicher Sprache äußern, und das Framework übersetzt diese in Tausende von Codezeilen, die Entwickler dann lesen und durchgehen können. Block sieht auch Wert in Komprimierungsaufgaben, wie zum Beispiel Goose, das Slack, E-Mail und andere Kanäle liest und Informationen für Nutzer zusammenfasst. Darüber hinaus können Agenten im Vertrieb oder Marketing relevante Informationen über einen potenziellen Kunden sammeln und in eine Datenbank übertragen.
KI-Agenten werden nicht ausreichend genutzt, menschliche Fachkenntnisse sind jedoch weiterhin erforderlichDer größte Engpass sei der Prozess, so Axen. Man könne den Leuten nicht einfach ein Tool geben und ihnen sagen, sie sollen es für sich nutzen. Die Agenten müssten die Prozesse widerspiegeln, mit denen die Mitarbeiter bereits beschäftigt seien. Menschliche Benutzer kümmern sich nicht um das technische Rückgrat, sondern um die Arbeit, die sie erledigen wollen.
Entwickler müssen daher darauf achten, was ihre Mitarbeiter tun möchten, und die Werkzeuge so gestalten, dass sie „so wortwörtlich wie möglich darauf reagieren“, so Axen. So können sie dann immer größere Probleme angehen und miteinander verknüpfen.
„Ich glaube, wir nutzen ihre Möglichkeiten viel zu wenig“, sagte Axen über die Agenten. „Es liegt an den Menschen und den Prozessen, weil wir mit der Technologie nicht Schritt halten können. Es klafft eine riesige Lücke zwischen der Technologie und den Möglichkeiten.“
Und wenn die Branche diese Brücke schlägt, wird es dann noch Raum für menschliche Fachkompetenz geben? Natürlich, sagt Axen. Insbesondere im Finanzdienstleistungsbereich beispielsweise muss Code zuverlässig, konform und sicher sein, um Unternehmen und Nutzer zu schützen. Daher muss er von Menschen geprüft werden.
„Wir sehen nach wie vor eine entscheidende Rolle für menschliche Experten in allen Bereichen unseres Unternehmens“, sagte er. „Das ändert nicht unbedingt die Bedeutung von Fachwissen für den Einzelnen. Es gibt einem nur ein neues Werkzeug, um es auszudrücken.“
Die menschliche Benutzeroberfläche ist laut Axen eines der schwierigsten Elemente von KI-Agenten. Das Ziel besteht darin, die Benutzeroberflächen einfach zu gestalten, während die KI im Hintergrund proaktiv Maßnahmen ergreift.
Es wäre hilfreich, so Axen, wenn mehr Branchenakteure MCP-ähnliche Standards einführen würden. „Ich fände es toll, wenn Google einfach ein öffentliches MCP für Gmail einführen würde“, sagte er. „Das würde mir das Leben viel einfacher machen.“
Auf die Frage nach Blocks Engagement für Open Source meinte er: „Wir hatten schon immer ein Open-Source-Rückgrat“, und fügte hinzu, dass das Unternehmen im letzten Jahr seine Investitionen in offene Technologien „erneuert“ habe.
„In einem Bereich, der sich so schnell entwickelt, hoffen wir, dass wir eine Open-Source-Governance einrichten können, damit Sie dieses Tool haben, das mit Ihnen Schritt hält, auch wenn neue Modelle und neue Produkte auf den Markt kommen.“
GSK ist ein führender Pharmaentwickler mit Schwerpunkt auf Impfstoffen, Infektionskrankheiten und Krebsforschung. Nun beginnt das Unternehmen, Multi-Agent-Architekturen einzusetzen, um die Arzneimittelforschung zu beschleunigen.
Kim Branson, Senior Vice President und globaler Leiter für KI und ML bei GSK, sagte, Agenten würden das Produkt des Unternehmens allmählich verändern und seien „absolut zentral für unser Geschäft“.
Die Wissenschaftler von GSK kombinieren domänenspezifische LLMs mit Ontologien (Fachkonzepte und Kategorien, die Eigenschaften und Beziehungen zwischen ihnen angeben), Toolchains und strengen Testrahmen, erklärte Branson.
Dies hilft ihnen, riesige wissenschaftliche Datensätze abzufragen, Experimente zu planen (auch wenn keine fundierten Erkenntnisse vorliegen) und Beweise aus der Genomik (DNA-Forschung), der Proteomik (Proteinforschung) und klinischen Daten zusammenzutragen. Agenten können Hypothesen aufdecken, Datenverbindungen validieren und Forschungszyklen verkürzen.
Branson stellte fest, dass die wissenschaftlichen Entdeckungen große Fortschritte gemacht haben. Die Sequenzierungszeiten haben sich verkürzt, und die Proteomikforschung ist deutlich schneller. Gleichzeitig werden Entdeckungen jedoch immer schwieriger, da immer mehr Daten gesammelt werden, insbesondere durch Geräte und Wearables. Branson drückte es so aus: „Wir verfügen über mehr kontinuierliche Pulsdaten von Menschen als je zuvor.“
Für Menschen sei es nahezu unmöglich, all diese Daten zu analysieren, daher bestehe das Ziel von GSK darin, mithilfe von KI die Iterationszeiten zu verkürzen, merkte er an.
Gleichzeitig kann KI in der Pharmaindustrie jedoch eine Herausforderung sein, da ohne die Durchführung großer klinischer Experimente oft keine fundierten Erkenntnisse gewonnen werden können. Es geht eher um Hypothesen und darum, dass Wissenschaftler Beweise untersuchen, um mögliche Lösungen zu finden.
„Wenn man Agenten hinzufügt, stellt man fest, dass die meisten nicht einmal eine einheitliche Vorgehensweise untereinander haben“, bemerkte Branson. „Diese Abweichung ist nicht schlimm, wirft aber manchmal neue Fragen auf.“
Er witzelte: „Wir können nicht immer mit der absoluten Wahrheit arbeiten – sonst wäre meine Arbeit viel einfacher.“
Es gehe darum, die richtigen Ziele zu finden oder zu wissen, wie man einen möglichen Biomarker oder Beweis für verschiedene Hypothesen entwickelt, erklärte er. Zum Beispiel: Ist dies der beste Ansatz für Menschen mit Eierstockkrebs in dieser speziellen Erkrankung?
Um der KI dieses Denken beizubringen, müssen Ontologien verwendet und Fragen gestellt werden wie: „Wenn das wahr ist, was bedeutet X?“ Domänenspezifische Agenten können dann relevante Beweise aus großen internen Datensätzen zusammentragen.
GSK hat von Grund auf epigenetische Sprachmodelle entwickelt, die auf Cerebras basieren und für Inferenz und Training verwendet werden, erklärte Branson. „Wir entwickeln sehr spezifische Modelle für unsere Anwendungen, für die sonst niemand welche hat“, sagte er.
Die Geschwindigkeit der Inferenz sei wichtig, so Branson, sei es für den Austausch mit einem Modell oder für autonome, tiefgehende Forschung. GSK setze je nach Ziel unterschiedliche Tools ein. Große Kontextfenster seien jedoch nicht immer die Lösung, und Filterung sei entscheidend. „Man kann nicht einfach Kontext-Stuffing betreiben“, sagte Branson. „Man kann nicht einfach alle Daten in dieses System werfen und darauf vertrauen, dass das LM die Lösung findet.“
GSK testet seine Agentensysteme ausgiebig und legt dabei Wert auf Determinismus und Zuverlässigkeit. Zur Überprüfung der Ergebnisse werden häufig mehrere Agenten parallel ausgeführt.
Branson erinnerte sich, dass sein Team zu Beginn der Entwicklung einen SQL-Agenten hatte, den sie „10.000 Mal“ ausführten und der plötzlich unerklärlicherweise Details „fälschte“.
„Wir haben es nie wieder erlebt, aber es ist einmal passiert und wir haben nicht einmal verstanden, warum es bei diesem speziellen LLM passiert ist“, sagte er.
Aus diesem Grund führt sein Team häufig mehrere Kopien und Modelle parallel aus und achtet dabei auf die Einhaltung von Tool-Aufrufen und Einschränkungen. Beispielsweise führen zwei LLMs genau dieselbe Sequenz aus und die Wissenschaftler von GSK führen eine Gegenprüfung durch.
Sein Team konzentriert sich auf aktive Lernschleifen und erstellt eigene interne Benchmarks, da populäre, öffentlich verfügbare Benchmarks oft „ziemlich akademisch sind und nicht widerspiegeln, was wir tun“.
Sie werden beispielsweise mehrere biologische Fragen formulieren, den ihrer Meinung nach besten Standard bewerten, dann einen LLM darauf anwenden und sehen, wie dieser abschneidet.
„Wir suchen vor allem nach problematischen Dingen, bei denen etwas nicht funktioniert hat oder dumme Dinge passiert sind, denn dann lernen wir etwas Neues“, sagte Branson. „Wir versuchen, die Menschen dort, wo es darauf ankommt, ihr Expertenurteil einsetzen zu lassen.“
Wenn Sie Ihren Chef beeindrucken möchten, sind Sie bei VB Daily genau richtig. Wir geben Ihnen Insiderinformationen darüber, was Unternehmen mit generativer KI machen – von regulatorischen Veränderungen bis hin zu praktischen Implementierungen. So können Sie Ihre Erkenntnisse teilen und so den ROI maximieren.
Lesen Sie unsere Datenschutzrichtlinie
Vielen Dank für Ihr Abonnement. Weitere VB-Newsletter finden Sie hier .
Ein Fehler ist aufgetreten.

venturebeat