Archiv Wörterbuch

Halluzination

Halluzination – In Anlehnung an Arunkumar et al. (2025) verwenden wir ‚Halluzination‘ als Begriff für  die Ausgabe plausibler, aber faktisch falscher Informationen. Bei reinen Sprachmodellen bleibt der Schaden auf den Text beschränkt. Bei KI-Agenten, die auf Basis solcher Ausgaben handeln…

Guardrails

Technische und inhaltliche Leitplanken, die den Handlungsspielraum eines Agenten begrenzen. Beide Konzepte sind zentrale Qualitätskriterien verantwortungsvoller Agenten-Architektur und direkte Umsetzung des Prinzips: „Das System schlägt vor – Sie entscheiden.”

MCP (Model Context Protocol)

MCP (Model Context Protocol) – Offener Schnittstellenstandard zur Anbindung von KI-Agenten an externe Werkzeuge, Datenquellen und Dienste: Cloud-Speicher, E-Mail, Kalender, Datenbanken, APIs. Ermöglicht einem Agenten, über ein einheitliches Protokoll mit allen kompatiblen Diensten zu kommunizieren – statt für jede Verbindung…

Agentic AI / Orchestrierung

Agentic AI – Architekturprinzip, bei dem mehrere spezialisierte KI-Agenten über eine Orchestrierungsschicht koordiniert zusammenwirken. Im Unterschied zum einzelnen KI-Agenten entsteht die Leistung aus dem Zusammenspiel spezialisierter Teilagenten mit verteilten Rollen. Orchestrierung: Die Steuerungsebene, die Aufgaben verteilt, Ergebnisse zusammenführt und Kommunikation…

Persistentes Gedächtnis / Gedächtnis-Bias

Persistentes Gedächtnis – Sitzungsübergreifende Speicherarchitektur von KI-Agenten. Unterscheidet sich grundlegend vom Kontextfenster eines Sprachmodells (das bei Sitzungsende gelöscht wird). Gedächtnis-Bias (agenten-spezifisch): Ein Auswahlmechanismus bestimmt, welche Inhalte ins Langzeitgedächtnis aufgenommen werden – das Agenten-Gedächtnis ist daher strukturell selektiv, kein vollständiges Archiv.

ReAct / Agent Loop

ReAct (Reasoning and Acting) – Architekturprinzip für KI-Agenten: Denken und Handeln sind in einem iterativen Regelkreis verschränkt. Der Agent plant, handelt, beobachtet das Ergebnis seiner Handlung und passt den Plan an – eigenständig, ohne auf neue menschliche Eingaben zu warten.

LLM / Großes Sprachmodell

LLM (Large Language Model) / Großes Sprachmodell – Auf sehr großen Textmengen trainiertes KI-Modell, das Sprache versteht und erzeugt. Kernfähigkeiten: Textzusammenfassung, Übersetzung, Formulierung, Beantwortung von Fragen. Strukturelle Grenze: Reagiert auf Eingaben, handelt nicht eigenständig, besitzt kein sitzungsübergreifendes Gedächtnis. Beispiele: GPT-4…

Prebunking

Begriff: Prebunking Definition:Prebunking (englisch: pre = vorher, to debunk = entlarven) ist eine präventive Strategie gegen Desinformation. Menschen werden gezielt mit typischen Manipulationstechniken vertraut gemacht — bevor sie ihnen begegnen. Das Ziel: Wer die Mechanismen der Täuschung kennt, erkennt sie…

Debunking

Definition:Debunking (englisch: to debunk = entlarven, widerlegen) bezeichnet das gezielte Aufdecken und Korrigieren von Falschinformationen, die bereits in Umlauf gebracht wurden — gestützt auf belegbare Fakten und nachvollziehbare Quellen. Erklärung:Im digitalen Alltag verbreiten sich Fehlinformationen rasant — über soziale Netzwerke,…

Chain-of-Thoughts (Gedankenkette)

Definition:Chain-of-Thoughts – kurz CoT – bezeichnet eine Technik, bei der ein KI-Sprachmodell aufgefordert wird, seinen Lösungsweg Schritt für Schritt offenzulegen, anstatt sofort eine fertige Antwort zu liefern. Das Ergebnis wird dadurch nachvollziehbarer, überprüfbarer und in der Regel auch zuverlässiger. Erklärung:Große…