BambergMedizinPassauRussland

Bayerische Forscher enthüllen: KI als Waffe der russischen Propaganda!

Die Universität Passau wird Teil eines neuen Forschungsschwerpunkts zum Thema Vertrauen in Künstliche Intelligenz. Ein Projekt untersucht, wie Sprachmodelle in autoritären Systemen beeinflusst werden.

Am 20. Januar 2025 werden neue Maßnahmen zur Förderung von Vertrauen in Künstliche Intelligenz (KI) vorgestellt, die im Rahmen eines Forschungsschwerpunkts des Bayerischen Forschungsinstituts für Digitale Transformation (bidt) initiiert wurden. In einem kompetitiven Auswahlverfahren wurden zehn herausragende Projekte ausgewählt, die sich mit der Thematik Vertrauen und KI beschäftigen. Insgesamt wurden neben zwei weiteren bayerischen Konsortialprojekten insgesamt zwei Projekte gefördert, das erste ist an der Universität Passau angesiedelt.

Das zentrale Projekt mit dem Titel „Autoritäre KI: Wie große Sprachmodelle (LLMs) an Russlands Propaganda angepasst werden“ wird von einem Team unter der Leitung von Prof. Dr. Florian Toepfl und Prof. Dr. Florian Lemmerich von der Universität Passau sowie Prof. Dr. Andreas Jungherr von der Universität Bamberg geleitet. Ziel des Projekts ist es, die Entwicklung von LLMs unter den Bedingungen strenger Aufsicht und Zensur in Russland zu untersuchen und die Auswirkungen autoritärer Daten auf demokratische, LLM-gestützte Systeme zu analysieren.

Forschungsfokus und Relevanz

Das Projekt hebt sich durch seine Aktualität und Relevanz hervor, da es den Einfluss autoritärer Regime auf die Entwicklung und Funktionsweise moderner KI-Modelle thematisiert. Schon jetzt gibt es Bedenken, dass solche Modelle, die unter strengen Zensurbestimmungen erstellt werden, potenziell gefährliche Auswirkungen auf die demokratische Meinungsbildung und den Informationsfluss haben könnten. Laut den Projektleitern spielt auch die Art und Weise eine Rolle, wie diese Modelle trainiert werden und welche Daten ihnen zugrunde liegen.

Zusätzlich zur Erforschung von LLMs gibt es einen wachsenden Bedarf nach Sicherheits- und Transparenzregelungen im Bereich KI. Künstliche Intelligenz wird als Schlüsseltechnologie erkannt, die großes Potenzial nicht nur in der Forschung, sondern auch in praxisnahen Anwendungen wie der Krebsfrüherkennung in der Medizin und der Rekrutierung von Fachkräften birgt. Eine zentrale Herausforderung bleibt die Notwendigkeit, klare Regeln für den Umgang mit KI-Systemen zu etablieren, um Vertrauen aufzubauen und die Akzeptanz zu erhöhen.

Normungsprojekte und ihre Bedeutung

Ein bedeutendes internationales Normungsprojekt, das ISO/IEC AWI 42102, zielt darauf ab, eine einheitliche Klassifizierung von KI-Systemen zu entwickeln. Unter deutscher Leitung ist es das erste seiner Art und beruht auf einer umfassenden Normungsroadmap. Die von der Normungsroadmap formulierten strategischen Handlungsempfehlungen sollen bis zur Veröffentlichung der Norm in etwa 2,5 Jahren umgesetzt werden.

Uneinigkeit über die Definition von KI-Systemen besteht sogar in Expertenkreisen, weshalb eine einheitliche Klassifizierung notwendig ist, um Vertrauen in diese Systeme zu schaffen. Gemäß der AI=MC2-Taxonomie werden KI-Systeme nach drei Dimensionen klassifiziert: Methoden, Fähigkeiten und Kritikalität. Dies soll helfen, die Sicherheit und Transparenz zu erhöhen und eine einfachere Einsicht in die Informationen über KI-Systeme zu ermöglichen, ähnlich wie bei Nährwertangaben auf Lebensmitteln.

Die Ergebnisse dieser Projekte und der daraus resultierenden Normung könnten weitreichende Implikationen für die Entwicklung und den Einsatz von KI haben. Die Klassifizierung richtet sich an Hersteller, Unternehmen und den öffentlichen Dienst, um konkrete Vorgaben für eine sichere Anwendung von KI-Systemen zu entwickeln. Diese Initiativen können entscheidend dazu beitragen, das Vertrauen der Öffentlichkeit in künstliche Intelligenz nachhaltig zu stärken.

Für weitere Informationen zu dem Projekt „Autoritäre KI“ und den Fördermaßnahmen im Bereich Vertrauen und KI sind zusätzliche Details auf den Websites von Bayerischen Forschungsinstituts für Digitale Transformation (bidt) und der Normungsroadmap KI (DIN) verfügbar.

Referenz 1
www.digital.uni-passau.de
Referenz 2
www.bidt.digital
Referenz 3
www.din.de
Quellen gesamt
Web: 20Social: 8Foren: 31