LLMM – Large Language
Media Manipulator

Demonstrator: Sensibilisierung für die Informationsmanipulation durch Sprachmodelle

LLMM – Large Language Media Manipulator

Der LLMM-Demonstrator hat zwei Hauptziele: erstens, die Technologie von Sprachmodellen verständlich zu erklären und zweitens, das Bewusstsein dafür zu schärfen, wie einfach es ist, Informationen zu manipulieren. Zur Demonstration werden aktuelle Nachrichtenartikel ausgewählt und dann mit Hilfe von Sprachmodellen automatisiert bearbeitet, um verschiedene Aspekte der Manipulation aufzuzeigen. Ein Beispiel ist die Veränderung des Stils eines Artikels. Dies zeigt, wie unterschiedliche sprachliche Nuancen und Stile die Wahrnehmung eines Themas beeinflussen können. Ein weiteres Beispiel ist die Veränderung der politischen Sichtweise eines Artikels: Ein neutraler Artikel kann so umgeschrieben werden, dass er den Standpunkt einer bestimmten politischen Gruppierung oder Partei widerspiegelt. Dies verdeutlicht, wie leicht Informationen manipuliert werden können, um eine bestimmte Agenda zu unterstützen. Mit diesen Demonstrationen möchten wir dazu anregen, kritisch über die konsumierten Informationen nachzudenken und die verwendeten Quellen zu überprüfen. Wir wollen zudem über die Fähigkeit von Sprachmodelltechnologie zur Manipulation aufklären und ein Bewusstsein dafür schaffen, wie leicht die menschliche Wahrnehmung beeinflusst werden kann.

Wie zahlt das Exponat auf das Thema Nachhaltigkeit ein?

Der Demonstrator trägt zur Nachhaltigkeit der Demokratie bei, indem er das Verständnis für Informationsmanipulation fördert, kritisches Denken unterstützt und fundierte Entscheidungen in einer demokratischen Gesellschaft fördert, wodurch die Integrität und Resilienz demokratischer Prozesse gestärkt werden.

Sie möchten mehr zum Forschungsprojekt erfahren?

personal-photo-jonas-fegert
Ihre Ansprechperson

Dr. Jonas Fegert

FZI-Projekte zum Thema Nachhaltigkeit