Was ist ein KI-Agent, was Agentic AI?

Serie: KI-Agenten – Beitrag 1

Ein KI‑Agent plant Teilschritte, ruft eigenständig Werkzeuge und Datenquellen auf, beobachtet die Ergebnisse und passt seinen Plan so lange an, bis die Aufgabe erledigt ist. Dabei kann er sich merken, was funktioniert hat, Routinen daraus ableiten und dieses Wissen in zukünftigen Einsätzen wiederverwenden – vom Sortieren der eigenen Dokumente bis zur orchestrierten Zusammenarbeit ganzer Agenten‑Schwärme.…


Transparenz

Text und Bild(er) mit KI-Unterstützung erarbeitet.


Der Ausgangspunkt: Was ein Sprachmodell ist – und wo es endet

Wer mit ChatGPT, Claude oder einem ähnlichen System gearbeitet hat, kennt das Grundprinzip. Man gibt eine Frage oder einen Auftrag ein – das System generiert eine Antwort. Dann wartet es. Die Initiative liegt immer beim Menschen.

Hinter diesen Systemen stehen Große Sprachmodelle – im Englischen Large Language Models, kurz LLM. Sie sind auf enormen Textmengen trainiert worden und beherrschen Sprache in bemerkenswerter Tiefe: Sie verstehen Nuancen, führen Gedanken fort, fassen zusammen, übersetzen, formulieren um. Yehudai et al. (2025) fassen klassische Chat-LLMs als statische Modelle auf, die primär Einzelinteraktionen von Text zu Text abbilden – im Unterschied zu agentischen Architekturen mit eigenem Gedächtnis und Tool-Nutzung. ¹

Das bedeutet konkret:

  • Kein sitzungsübergreifendes Gedächtnis im Modell selbst: Standard‑Chat‑LLMs sind als zustandslose Modelle konzipiert; optionale Verlaufs‑ oder Profilfunktionen liegen in der Plattform, nicht im Modellkern.
  • Kein eigenständiges Handeln: Das Modell erzeugt Text, was damit geschieht, entscheidet der Mensch.
  • Kein eingebauter selbstgesteuerter Iterationsprozess: Iterative Schleifen entstehen nur durch wiederholte Nutzereingaben oder externe Orchestrierung, nicht als eigenständiger Regelkreis im Modell. ²
  • Kein Zugriff auf externe Daten, soweit sie nicht aktiv vom Menschen zur Verfügung gestellt werden, etwa durch das Hochladen von Dokumenten, durch Retrieval-Augmented Generation (RAG) oder durch gezielt eingebundene Werkzeuge. Aber auch dann bleibt das Modell reaktiv: Es antwortet auf die Eingabe, die Werkzeugnutzung ist ad hoc und durch den Menschen konfiguriert, kein eigenständig gesteuerter Prozess. ²·³

Die nächste Entwicklungsstufe: Was einen KI-Agenten konstituiert

Ein KI-Agent baut auf einem Sprachmodell als Denk- und Sprachzentrum auf – erweitert es jedoch um Strukturen, die eigenständiges Handeln ermöglichen. Sapkota et al. (2025) charakterisieren KI-Agenten als autonome Softwareeinheiten, die auf zielgerichtete Aufgabenausführung ausgelegt sind: Sie nehmen Eingaben auf, schlussfolgern aus dem Kontext und initiieren Aktionen zur Zielerreichung – oft als Stellvertreter für menschliche Nutzer oder für Teilsysteme. ⁴

Der entscheidende strukturelle Unterschied zum Sprachmodell: Ein KI-Agent steuert sich selbst durch einen iterativen Kreislauf, bis eine Aufgabe abgeschlossen ist. Er wartet nicht auf die nächste menschliche Eingabe.


Die drei konstitutiven Fähigkeiten

1. Der Denk-Handlungs-Kreislauf (ReAct)

Das Kernprinzip moderner KI-Agenten ist kein linearer Ablauf, sondern ein iterativer Regelkreis – in der Forschung als Muster ReAct (Reasoning and Acting) beschrieben (ursprünglich von Yao et al., 2023, später in Übersichtsarbeiten wie Luo et al., 2025 aufgegriffen ²·⁵:

Ziel analysieren → Teilschritte planen → Werkzeug aufrufen → Ergebnis beobachten → Plan anpassen → nächsten Schritt ausführen

Durch diesen Kreislauf kann der Agent auf Fehler oder unerwartete Ergebnisse reagieren – nicht weil Fehlerkorrektur automatisch eingebaut ist, sondern weil das Beobachten und Anpassen Teil der Architektur ist. Beim Sprachmodell ist diese Schleife nicht vorgesehen; dort ist Kurskorrektur nur durch erneutes menschliches Eingreifen möglich. ¹·⁵


2. Werkzeuge: Agenten handeln in realen Systemen

Agenten können selbstständig entscheiden, wann welches Werkzeug aufgerufen wird oder auf welche Daten zurückgegriffen wird. Sie integrieren die Ergebnisse unmittelbar in den nächsten Schritt und schreiben in Systeme zurück, lösen Prozesse aus, verändern Zustände. ²·⁴

Sapkota et al. beschreiben den Mechanismus: Der Agent erkennt, welches Informationsbedürfnis sein internes Wissen nicht abdecken kann, formuliert einen strukturierten Funktionsaufruf (API-Anfrage), empfängt das Ergebnis und integriert es in seinen Planungskontext. ⁴

BereichWas der Agent eigenständig tun können oder könntenWerkzeugtyp
Medizin / KlinikKönnen Patientendaten abrufen, Befunde mit Fachliteratur verknüpfen, Arztbriefe vorbereitenKlinische FHIR-APIs, Literaturdatenbanken ⁴
WissenschaftPublikationen durchsuchen, Studienresultate extrahieren, Literaturübersichten erstellenPubMed-API, Semantic Scholar, arXiv ⁶
Industrie / ProduktionSensordaten überwachen, Anomalien erkenne, Wartungsaufträge auslösen ,IoT-Plattformen, ERP-Systeme ⁴
FinanzanalyseMarktdaten aggregieren, Muster erkennen, Risikoberichte generierenBörsendaten-APIs, Risikomodelle ⁴
Büro & AlltagKalender lesen, Entwürfe verfassen, Termine buchenMicrosoft Graph, Kalender-APIs

Der Unterschied zum RAG-gestützten Sprachmodell: Das Modell antwortet mit abgerufenen Informationen. Der Agent handelt auf Basis abgerufener Informationen, er schreibt zurück, löst Folgeprozesse aus, trifft vorbereitete Entscheidungen. ²


3. Gedächtnis: Was beim Agenten anders ist

Sprachmodelle besitzen ein Kontextfenster – sie erinnern sich an alles innerhalb der laufenden Sitzung. Ist die Sitzung beendet, soll alles gelöscht sein. Das Modell ist zustandslos (stateless): keine Persistenz, kein Lernen aus vergangenen Gesprächen. ¹

KI-Agenten können mit persistentem Gedächtnis ausgestattet werden. Yehudai et al. unterscheiden zwei Grundtypen ¹:

  • Kurzzeitgedächtnis: Für Echtzeitreaktionen innerhalb einer Aufgabe – funktional ähnlich dem Kontextfenster eines LLM, aber in die Aktionsschleife integriert
  • Langzeitgedächtnis: Sitzungsübergreifend gespeicherte Erfahrungen, Faktenwissen und erlernte Abläufe – ermöglicht dem Agenten, aus vergangenen Aufgaben zu lernen und Strategien zu verfeinern

Luo et al. differenzieren weiter in

  • episodisches (vergangene Aufgaben),
  • semantisches (Faktenwissen) und
  • prozedurales Gedächtnis (erlernte Handlungsabläufe). ²

Sie  schlagen diese Einteilung als konzeptionelles Rahmenmodell vor; in der Praxis sind Implementierungen noch heterogen.

Kritischer Hinweis – Gedächtnis-Bias  (im Folgenden als Arbeitsbegriff verwendet): Bei Agenten entscheidet ein Auswahlmechanismus, was ins Langzeitgedächtnis aufgenommen, gewichtet und beim nächsten Aufruf priorisiert wird. Das erzeugt eine strukturelle Selektivität: Der Agent erinnert sich nicht an alles gleich – er erinnert sich an das, was sein Speichersystem für relevant klassifiziert hat. Wer das nicht weiß, vertraut einem System, das systematisch filtert. ²

📘 Wörterbuch-Excerpt 3: Persistentes Gedächtnis / Gedächtnis-Bias

Persistentes Gedächtnis – Sitzungsübergreifende Speicherarchitektur von KI-Agenten. Unterscheidet sich grundlegend vom Kontextfenster eines Sprachmodells (das bei Sitzungsende gelöscht wird). Gedächtnis-Bias (agenten-spezifisch): Ein Auswahlmechanismus bestimmt, welche Inhalte ins Langzeitgedächtnis aufgenommen werden – das Agenten-Gedächtnis ist daher strukturell selektiv, kein vollständiges Archiv. Quelle: Luo et al.; Yehudai et al.. Beide: Preprint.2026-03-23-Inoreader-Agenten.docx+1


Ein KI-Agent, viele Agenten (Multi-Agenten/Agenten-Schwärme): Der Sprung zu Agentic AI

Sapkota et al. schlagen eine Unterscheidung zwischen KI-Agent und Agentic AI vor; andere Arbeiten nutzen ‚agentic AI‘ teils anders oder synonym zu ‚AI agents‘. Nach Sapkota et al.: ⁴:

Ein KI-Agent ist ein einzelnes, in sich geschlossenes System, das eigenständig eine Aufgabe abarbeitet. Er ist spezialisiert, aufgabenspezifisch, führt seinen Regelkreis allein aus.

Agentic AI (Multi-Agenten/Agenten-Schwärme) bezeichnet ein übergeordnetes Architekturprinzip: Mehrere spezialisierte Agenten arbeiten koordiniert zusammen, um komplexe Ziele zu erreichen, die ein einzelner Agent nicht bewältigen könnte. Ein Planungsagent zerlegt das Gesamtziel. Ein Rechercheagent beschafft Informationen. Ein Ausführungsagent setzt Schritte um. Ein Qualitätsprüfagent bewertet Ergebnisse.

Das verbindende Element ist die Orchestrierung – eine Steuerungsebene, die Aufgaben verteilt, Ergebnisse zusammenführt und die Kommunikation zwischen den Agenten koordiniert. Sapkota et al. illustrieren den Unterschied mit einem treffenden Alltagsbild: Ein einzelner KI-Agent ist wie ein intelligenter Thermostat – er erledigt eine klar begrenzte Aufgabe eigenständig, er regelt zum Beispiel einen Heizkörper so, dass immer die festgelegte Raumtemperatur erreicht wird. Agentic AI ist das gesamte Smart-Home-System: Thermostat, Beleuchtungssteuerung, Sicherheitsanlage und Energiemanagement arbeiten über eine Orchestrierungsschicht zusammen, um übergeordnete Ziele zu erreichen, zum Beispiel, dass beim Nachhause-Kommen im Dunkeln das Licht an ist, die Temperatur in den unterschiedlichen Räumen, etc.. ⁴

📘 Wörterbuch-Excerpt 4: Agentic AI / Orchestrierung

Agentic AI – Architekturprinzip, bei dem mehrere spezialisierte KI-Agenten über eine Orchestrierungsschicht koordiniert zusammenwirken. Im Unterschied zum einzelnen KI-Agenten entsteht die Leistung aus dem Zusammenspiel spezialisierter Teilagenten mit verteilten Rollen. Orchestrierung: Die Steuerungsebene, die Aufgaben verteilt, Ergebnisse zusammenführt und Kommunikation zwischen Agenten koordiniert. Quelle: Sapkota et al.. Preprint.[ppl-ai-file-upload.s3.amazonaws]​


Das Model Context Protocol (MCP): Der Anschluss an die digitale Welt

Damit Agenten überhaupt auf externe Werkzeuge und Daten zugreifen können, brauchen sie einen einheitlichen technischen Verbindungsstandard. Das ist MCP (Model Context Protocol) – entwickelt von Anthropic und wurde inzwischen von großen Anbietern wie Google und Microsoft in ersten Produkten bzw. Integrationen aufgegriffen.⁷

Wenn ein Agent im privaten Kontext eingesetzt würde, wäre MCP das Protokoll, über das ein Agent etwa auf die persönliche Cloud zugreift. Statt dass für jede Datenquelle eine individuelle Anbindung entwickelt werden muss, kommuniziert der Agent über MCP mit allen kompatiblen Diensten: Cloud-Speicher, E-Mail-Postfach, Kalender, Unternehmensdatenbank, Behördenportal. Der Standard funktioniert wie eine universelle Steckdose – wer den richtigen Stecker hat, kann angeschlossen werden.

📘 Wörterbuch-Excerpt 5: MCP (Model Context Protocol)

MCP (Model Context Protocol) – Offener Schnittstellenstandard zur Anbindung von KI-Agenten an externe Werkzeuge, Datenquellen und Dienste: Cloud-Speicher, E-Mail, Kalender, Datenbanken, APIs. Ermöglicht einem Agenten, über ein einheitliches Protokoll mit allen kompatiblen Diensten zu kommunizieren – statt für jede Verbindung eine Sonderlösung zu benötigen. MCP als offener Schnittstellenstandard wurde initial von Anthropic entwickelt und seit 2025 von weiteren Anbietern experimentell übernommen; die Verbreitung ist noch im Aufbau. Quelle: Anthropic-Dokumentation (technische Referenz).


Kontrolle als Designprinzip: Human in the Loop

Autonomie bedeutet nicht Unkontrollierbarkeit. Gut konzipierte Agentensysteme operieren innerhalb definierter Guardrails – Handlungsgrenzen, innerhalb derer der Agent selbstständig entscheiden darf. Abou Ali & Dornaika (2025) identifizieren Governance als paradigmakritisches Thema der neuen Agentengeneration: Die klassischen Kontrollmodelle für Softwaresysteme reichen nicht aus – es braucht neue Ansätze, die Autonomie und menschliche Aufsicht strukturell verknüpfen. ³

Das Prinzip „Human in the Loop” wird dabei von Abou Ali & Dornaika (2025)  als Qualitätsmerkmal gesehen: Ein Agent, der bei irreversiblen oder rechtlich oder ökonomisch relevanten Entscheidungen pausiert und Rückfrage hält, ist besser konzipiert als einer, der durchläuft.

📘 Wörterbuch-Excerpt 6: Human in the Loop / Guardrails

Human in the Loop – Gestaltungsprinzip, bei dem ein Mensch an definierten Entscheidungspunkten in den Aktionskreislauf eines KI-Agenten eingreift, prüft oder entscheidet. Guardrails: Technische und inhaltliche Leitplanken, die den Handlungsspielraum eines Agenten begrenzen. Beide Konzepte sind zentrale Qualitätskriterien verantwortungsvoller Agenten-Architektur und direkte Umsetzung des Prinzips: „Das System schlägt vor – Sie entscheiden.” Quelle: Abou Ali & Dornaika. Preprint.[ppl-ai-file-upload.s3.amazonaws]​


Grenzen & Offene Fragen

Das Forschungsfeld LLM-basierter Agenten ist jung: Der Großteil der verfügbaren Literatur liegt als Preprint vor. Als zentraler Referenzartikel wird in vielen Übersichtsarbeiten Xi et al. (2025, Science China Information Sciences) herangezogen – ein peer-reviewter Journalartikel. Alle weiteren hier zitierten Arbeiten sind transparent als Preprint gekennzeichnet. Persistentes Gedächtnis und Gedächtnis-Bias sind empirisch noch wenig untersucht; die hier beschriebenen Mechanismen basieren auf Architekturanalysen, nicht auf Langzeitstudien. Die Terminologie ist im Fluss: Begriffe wie „Agentic AI”, „AI Agent” und „autonomes System” werden auch in der Fachliteratur nicht einheitlich verwendet.


Quellenverzeichnis (Endnoten)

**** Yehudai, A., Eden, L., Li, A., Uziel, G., Zhao, Y., Bar-Haim, R., Cohan, A. & Shmueli-Scheuer, M. (2025). Survey on Evaluation of LLM-based Agents. IBM Research & Yale University. arXiv:2503.16416. ⚠️ Preprint, noch nicht peer-reviewed.[1]

**** Luo, J. et al. (2025). Large Language Model Agent: A Survey on Methodology, Applications and Challenges. arXiv:2503.21460. ⚠️ Preprint, noch nicht peer-reviewed.[3]

**** Abou Ali, H. & Dornaika, F. (2025). Agentic AI: A Comprehensive Survey of Architectures, Applications and Challenges. arXiv:2510.25445. ⚠️ Preprint, noch nicht peer-reviewed.[5]

**** Sapkota, R., Roumeliotis, K.I. & Karkee, M. (2025). AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges. arXiv:2505.10468. ⚠️ Preprint, noch nicht peer-reviewed.[2]

**** Xi, Z. et al. (2025). The Rise and Potential of Large Language Model Based Agents. Science China Information Sciences. Peer-reviewed. Ca. 2.000 Zitierungen. Link zum Preprint, arXiv:2309.07864 [6]

**** (2025). A Survey of LLM-based Scientific Agents. arXiv:2503.24047. ⚠️ Preprint, noch nicht peer-reviewed.[7]

**** Anthropic (2024). Model Context Protocol – Official Documentation. anthropic.com. Technische Referenz des Anbieters; nur für faktische Funktionsbeschreibung verwendet, nicht für Leistungsaussagen.[4]

Schreibe einen Kommentar