Halluzination oder Manipulation? LLMs im Kontext von Fake News

Der Vortrag führt zunächst in die Diskussion rund um den gesellschaftlichen Impact von Generativer KI und Deepfakes ein und Dass große Sprachmodelle (LLMs) nicht immer die Wahrheit ausgeben, ist mittlerweile allgemein bekannt. Sogenannte „Halluzinationen“ entstehen, wenn das Modell falsche oder erfundene Informationen liefert. Allerdings können Falschinformationen auch gewollt generiert werden. Durch sogenanntes „LLM Grooming“ führen Nutzer das Modell durch gezielte Manipulation dazu, irreführende oder verbotene Inhalte auszugeben. Neben unbeabsichtigten und vom Nutzer nicht gewollten Fehlern können LLMs also auch für die Generierung und Verbreitung von Fake News eingesetzt werden. Dieser Vortrag beleuchtet zunächst die Ursachen von Halluzinationen, stellt Mechanismen und Herausforderungen des LLM Groomings dar, und diskutiert anschließend wie Forscher und Entwickler versuchen, die Generierung von Desinformation durch Sprachmodelle einzudämmen
Prof. Dr. Jannik Strötgen ist seit 2023 Professor an der Hochschule Karlsruhe. Zuvor forschte er am Bosch Center for Artificial Intelligence und am Max-Planck-Institut für Informatik. Seine Forschungsschwerpunkte sind Natural Language Processing, Artificial Intelligence und Information Retrieval. Er veröffentlichte bislang über 80 wissenschaftliche Publikationen und lehrt an der Hochschule Karlsruhe unter anderem zu Natural Language Processing und Explainable AI.