„Was für eine Zeit, um am Leben zu sein!“ ruft Károly Zsolnai-Fehér in vielen seiner Videos auf dem Videokanal Two Minute Papers aus.
In der Tat ist es eine bemerkenswerte Zeit, um am Leben zu sein! Für mich waren die jüngsten Entwicklungen in der KI eine ständige Quelle der Inspiration und Herausforderung. Insbesondere ereignete sich eine Reise in die Vergangenheit, als das Forschungsgebiet der „Multiagentensysteme“, angetrieben von LLMs, wieder auftauchte und schnell in die Entwicklung überging. Meine Begeisterung rührt daher, dass ich meine Doktorarbeit über Multiagentensysteme geschrieben habe.
Was sind Multiagentensysteme?
Intelligente Agenten stellen einen wichtigen Bereich innerhalb der künstlichen Intelligenz dar. Einige argumentieren, dass KI im Grunde das Studium und die Entwicklung intelligenter Agenten ist. Ein intelligenter Agent kann jede Software, Hardware oder eine Kombination davon sein, die in einer Umgebung positioniert ist. Er nimmt seine Umgebung über Sensoren wahr und wirkt über Aktoren auf sie ein. Die Intelligenz eines Agenten, ein Thema, das häufig Diskussionen auslöst, wird in der Regel anhand einer Leistungskennzahl gemessen, die der Agent maximieren möchte.
Diese Definition ist bewusst weit gefasst und umfasst alles, von Robotern, die Rasen mähen, bis hin zu Software-Daemons, die Datenbanken nach relevanten Texten durchsuchen, um das Spektrum der Anwendungsfälle von Agenten zu veranschaulichen.
Darüber hinaus gibt es Agenten in verschiedenen Formen. Einige sind rein reaktiv und reagieren auf Reize mit geeigneten Maßnahmen. Andere sind zielorientiert und in der Lage, komplexe Pläne zu formulieren, aufrechtzuerhalten und auszuführen.
Die aufregendste Entwicklung ist jedoch bei Multiagentensystemen (MAS) zu verzeichnen. Ein MAS besteht aus einer vielfältigen Gruppe von Agenten mit unterschiedlichen Zielen, Verhaltensweisen und Fähigkeiten. Diese Agenten arbeiten zusammen, um ein gemeinsames Ziel auf für beide Seiten vorteilhafte Weise zu erreichen. Durch die Einbindung eines menschlichen Agenten wird dies zum Höhepunkt der Mensch-Maschine-Interaktion, bei der Menschen oder Gruppen von Menschen ihre Produktivität und Kreativität mithilfe künstlicher Intelligenz steigern.
Wie ticken LLM-gestützte Agenten?
Das jahrzehntelange Gebiet der Multiagentensysteme stützte sich traditionell auf symbolische KI, um das „Gehirn“ von Agenten zu konstruieren. Dieser Ansatz, bei dem Operationen auf symbolischer Ebene für optimales Verhalten im Vordergrund standen, erforderte oft eine logische Programmierung, um Theoreme zu beweisen und logisch zu argumentieren.
Die Landschaft hat sich mit dem Aufkommen von LLM-gestützten Agenten verändert und ist voller vielversprechender Dinge. Heute dienen Large Language Models als Argumentationsmotor für einzelne Agenten. Zum Beispiel ist die Verwendung von ChatGPT über seine API für mentale Aufgaben eine gängige Anwendung. Ich empfehle jedoch, lokale Open-Source-Sprachmodelle zu erkunden, die glücklicherweise jetzt in verschiedenen Spezialisierungen verfügbar sind.
Komponenten von LLM-gestützten Agenten
Bei LLM-gestützten Agenten ist das LLM von zentraler Bedeutung, aber nicht die Gesamtheit. Die Funktionalität ist in der Regel in drei Komponenten unterteilt: Arbeitsspeicher, Planung und Nutzung der Tools.
Speicher ist die einfachste Komponente. LLMs besitzen ein Arbeitsgedächtnis oder einen Kontext, wie zum Beispiel den Chatverlauf von ChatGPT. Dieser Kontext ist in seiner Größe begrenzt und erfordert eine selektive Speicherspeicherung.
Ein robustes Langzeitgedächtnis wird durch Vektordatenbanken erreicht. Stellen Sie sich eine traditionelle Datenbanktabelle vor, in der Texte (Erinnerungen) zusammen mit ihren Einbettungen gespeichert werden — ein Vektor, der die Koordinaten des Textes im latenten Raum darstellt. Diese geometrische Eigenschaft, bei der sich semantisch ähnliche Texte in der Nähe befinden, ermöglicht das effiziente Abrufen relevanter Informationen, die in aktuelle Eingabeaufforderungen eingefügt werden können.
Bei der Planung geht es darum, eine Route vom aktuellen Zustand des Agenten zu einem gewünschten Zielzustand zu entwickeln und große Aufgaben in überschaubare Unterziele zu unterteilen. LLMs haben ihre Fähigkeiten als Planer unter Beweis gestellt, indem sie Pläne erstellen und verfeinern, bis sie eine Qualitätsschwelle für die Ausführung erreicht haben.
Schließlich verbessert der Einsatz von Tools die LLM-Funktionen, indem externe APIs oder Tools wie Taschenrechner integriert werden, um die inhärenten Funktionen des LLM zu ergänzen.
Beispiele
Ein herausragendes Beispiel ist die Generative Agents Simulation, ein virtuelles soziologisches Experiment mit 25 Charakteren, die jeweils von einem LLM-gesteuerten Agenten mit einzigartigen Eigenschaften gesteuert werden. Ziel der Simulation ist es, in einer Sandbox-Umgebung eine Valentinstagsparty zu organisieren — ein Ziel, das durch dynamische Interaktion und Zusammenarbeit erreicht wird.
GPT Engineer ist eine weitere beeindruckende Anwendung, bei der ein Team von Agenten an Softwareentwicklungsaufgaben zusammenarbeitet. Dieses Setup reduziert den Zeit- und Kostenaufwand für Aufgaben, die ansonsten bei manueller Ausführung viel länger dauern würden, obwohl die vollständige Automatisierung der LLM-Agent-basierten Softwareentwicklung mit Herausforderungen verbunden ist.
Schließlich stellt der Scientific Discovery Agent in Chemistry LLM-Wirkstoffe vor, die mit von Experten entwickelten Werkzeugen für die organische Synthese, Wirkstoffforschung und Materialdesign ausgestattet sind, was das Innovationspotenzial der wissenschaftlichen Forschung unterstreicht.
Fazit
Das Konzept, Multiagentensysteme zur autonomen Problemlösung oder zur Förderung der menschlichen Kreativität zu nutzen, ist zwar nicht neu, aber die Integration von LLMs als Argumentationsmotoren ist revolutionär. Dieser Ansatz vereinfacht den Entwurfsprozess, macht ihn zugänglicher und einfacher zu debuggen, allerdings mit einer erhöhten Mehrdeutigkeit bei der Implementierung. Die vielversprechenden ersten Anwendungen deuten jedoch darauf hin, dass LLM-gestützte Multiagentensysteme die künstliche Intelligenz erheblich beeinflussen könnten.
Ressourcen
- LLM Powered Autonomous Agents, Blogartikel, https://lilianweng.github.io/posts/2023-06-23-agent/
- Generative Agenten: Interaktive Simulakra menschlichen Verhaltens, https://arxiv.org/abs/2304.03442
- GPT-Ingenieur: https://github.com/gpt-engineer-org/gpt-engineer
- Neue autonome wissenschaftliche Forschungsfähigkeiten großer Sprachmodelle https://arxiv.org/abs/2304.05332
Dieser Artikel ist ein Gastartikel, geschrieben von Dr. Tristan Behrens. Tristan erforscht die kreativen Aspekte von KI und berät Unternehmen, wie sie LLM und NLP nutzen können. Alle Meinungen sind seine eigenen.
Über Scalytics
Apache Wayang: Das führende Java-basierte Federated Learning-Framework
Scalytics nutzt Apache Wayang als Basis, und wir sind stolz darauf, dieses Projekt zu fördern. Sie können das öffentliches GitHub-Repository hier einsehen. Wenn Ihnen unsere Software gefällt, zeigen Sie Ihre Wertschätzung und Unterstützung – ein Stern ⭐ würde uns viel bedeuten!
Wenn Sie professionelle Unterstützung von unserem Team von branchenführenden Experten benötigen, können Sie sich jederzeit an uns über Slack oder E-Mail wenden.