Halluzination – In Anlehnung an Arunkumar et al. (2025) verwenden wir ‚Halluzination‘ als Begriff für die Ausgabe plausibler, aber faktisch falscher Informationen. Bei reinen Sprachmodellen bleibt der Schaden auf den Text beschränkt. Bei KI-Agenten, die auf Basis solcher Ausgaben handeln – also Prozesse auslösen, Dokumente erstellen, Bestellungen absetzen – können Halluzinationen konkrete, schwer rückgängig zu machende Folgen haben.
