Zum Inhalt springen

Deutsche befürchten Wahlmanipulation und Desinformation durch Künstliche Intelligenz

Prof. Dr. Barenkamp: „Müssen Spagat zwischen Innovation und Verantwortung meistern”

TÜV-Studie: Mehrheit nutzt KI-Anwendungen, ist aber skeptisch

Die anstehende Bundestagswahl am 23. Februar dieses Jahres wird als die bisher am stärksten von Künstlicher Intelligenz (KI) geprägte Wahl in die deutsche Geschichte eingehen – und die erste seit dem Beginn der generativen KI-Welle. Wie aus einer aktuellen Umfrage des ZDF hervorgeht, geben sich CDU, SPD, Grüne, FDP, Linke und AfD hierbei eigene Regeln für die Nutzung von KI-Tools vor. Denn diesbezüglich gibt es noch keine verbindlichen Vorgaben, was erlaubt ist und was nicht. Weitgehend einig sind sich die Parteien demnach auch in ihrer Besorgnis in Bezug auf Missbrauch, Desinformationen und Manipulation durch den Einzug der neuen Technologie.

Das geht auch vielen Wählerinnen und Wählern so. Laut einer aktuellen Studie des TÜV-Verbands misstraut fast die Hälfte der Bundesbürgerinnen und -bürger grundsätzlich KI-generierten Ergebnissen. Zudem belegen die Ergebnisse der dritten TÜV ChatGPT-Studie, dass in der Bevölkerung die Auswirkungen von KI auf Demokratie und Mediensystem besonders kritisch gesehen werden. Demnach befürchten 87 Prozent der Befragten, dass mithilfe von KI gefälschte Bilder und Videos (Deepfakes) Wählerinnen und Wähler manipulieren können. 83 Prozent sind der Meinung, dass die KI-Technologie die Verbreitung von „Fake News“ massiv beschleunigt. Und 79 Prozent glauben, dass KI-generierte Bilder und Videos von Parteien Wahlergebnisse beeinflussen können.

„Im US-Wahlkampf waren Deepfakes ein verbreitetes Mittel, um Wähler zu manipulieren“, stellt der Geschäftsführer des TÜV-Verbands, Joachim Bühle, hierzu fest. Der Umfrage zufolge kann mit 81 Prozent der Großteil der Befragten durch den Einsatz von KI kaum verifizieren, ob Fotos und Videos echt oder gefälscht sind. 77 Prozent geben ferner an, den Wahrheitsgehalt eines KI-generierten Textes nicht erkennen zu können. Und 45 Prozent sehen in der KI-Technologie eine Gefahr für die Demokratie.

KI-Leitlinien gegen Wahlmanipulation

Um die Risiken von Wahlmanipulation zu verringern, hält Bühler klare Leitlinien für den Einsatz von KI im Wahlkampf und freiwillige Selbstverpflichtungen der politischen Parteien zum verantwortungsvollen Umgang mit KI für unabdingbar. Auch die Betreiber von Social-Media-Plattformen müssen nach seiner Ansicht „konkrete Maßnahmen ergreifen, um demokratische Prozesse zu schützen.“

Darüber hinaus postuliert der TÜV-Verband, dass der Referentenentwurf für die deutschen Umsetzungsbestimmungen des EU AI Acts (EU Artificial Intelligence Act – EU-Gesetz zur Künstlichen Intelligenz) trotz Regierungskrise zügig fertiggestellt werden müsse. Dies schaffe nicht nur Planungs- und Rechtssicherheit für Unternehmen und Prüforganisationen, sondern auch ein höheres Schutzniveau für die Bürger, argumentiert Bühler.

87 Prozent befürchten, dass mithilfe von KI gefälschte Bilder und Videos (Deepfakes) das Wahlvolk manipulieren können. Auch hier dominiert die Sorge vor Fake News, Desinformation und der Beeinflussung von Wählerinnen und Wähler. Die Parteien sollten sich daher im Wahlkampf auf Regeln für den Einsatz von KI verständigen und KI-generierte Wahlwerbung kennzeichnen, meint der TÜV-Verband.

Schließlich haben Anwendungen generativer KI längst Einzug in unseren Alltag gehalten. Wie die TÜV-Studie weiter ausweist, hat mit 53 Prozent bereits mehr als jeder zweite Bundesbürger generative KI genutzt. In der repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.001 Personen ab 16 Jahren gaben im Oktober 2023 37 Prozent der Teilnehmer an, KI schon zu nutzen. Zum Vergleich: Im April 2023, ein halbes Jahr nach Einführung von ChatGPT, waren es erst 23 Prozent. Das bedeutet nach Einschätzung von TÜV-Geschäftsführer Bühler, dass „KI-Dienste sich zu unverzichtbaren digitalen Alltagshelfern entwickeln, ähnlich wie Suchmaschinen, E-Mails oder Navigationsdienste, sowohl im privaten als auch im beruflichen Bereich“.

Prof. Barenkamp: Klare politische Leitplanken und Zertifizierungen notwendig

Damit liegt er auf einer Linie mit dem deutschen KI-Experten Prof. Dr. Barenkamp, Gründer der auf KI-Entwicklungen spezialisierten Osnabrücker LMIS AG. „Generative KI-Technologien wie ChatGPT, Google Gemini oder MidJourney werden längst in zahlreichen Lebensbereichen eingesetzt. Um sie verantwortungsvoll zu nutzen, brauchen wir einerseits klare politische Leitplanken und Zertifizierungen, um Deepfakes, Desinformation und Manipulation im Zaum zu halten“, erklärt er.

Andererseits hält es der Wirtschaftsinformatiker auch für entscheidend, dass Nutzer KI als Werkzeug verstehen, bei dem metakognitive Fähigkeiten wie das Formulieren zielführender Fragen (Prompting) und das kritische Hinterfragen der Ergebnisse im Mittelpunkt stehen. Dazu verweist Professor Barenkamp auf eine Studie von Microsoft Research, die den hohen Stellenwert von Selbstreflexion und strategischem Selbstmanagement betont: etwa durch lautes Denken, bewusste Analyse jedes KI-Outputs und den Wechsel zwischen Denk-, Reflexions- und Erkundungsmodus. „Wenn wir einerseits die rechtlichen Rahmenbedingungen schaffen, damit KI-Systeme sicher und transparent eingesetzt werden, und andererseits die Menschen schulen, diese Systeme korrekt zu bedienen, können wir das enorme Potenzial der KI nutzen, ohne unsere demokratischen Grundwerte zu gefährden“, ist der Experte überzeugt. „Als KI-Professor und KI-Unternehmer sehe ich es als unsere Aufgabe an, genau diesen Spagat zwischen Innovation und Verantwortung zu meistern,“ postuliert er.

Transparenz- und Kennzeichnungspflichten

Um die Gesellschaft vor möglichen Risiken von KI-Systemen zu schützen, plädiert in der TÜV-Umfrage eine sehr deutliche Mehrheit für hoheitliche Vorgaben. So fordern 90 Prozent der Befragten Transparenz- und Kennzeichnungspflichten für KI-generierte Inhalte. Eine verpflichtende Sicherheitsprüfung von KI-Systemen durch unabhängige Prüforganisationen halten demnach 83 Prozent für wichtig, damit Produkte und Anwendungen mit KI sicher und ethisch vertretbar sind. Und 80 Prozent sehen die Notwendigkeit einer Regulierung von Künstlicher Intelligenz, um die Entwicklung und den Einsatz von KI verantwortungsvoll zu steuern. Jetzt gelte es, zügig einen einheitlichen Leitmarkt für KI-Prüfungen und -Zertifizierungen zu entwickeln, damit vertrauenswürdige KI ‚Made in Europe‘ zu einem Alleinstellungsmerkmal wird, verlangt TÜV-Geschäftsführer Bühler.

Mit diesem Ziel hat die EU im August 2024 die europäische KI-Verordnung (EU AI Act) verabschiedet. Sie teilt KI-Anwendungen in vier Risikoklassen mit jeweils unterschiedlichen Anforderungen ein, die in den kommenden Monaten schrittweise erfüllt werden müssen. Die Anforderungen an Transparenz, Risikomanagement und Kennzeichnung von KI-generierten Inhalten treten allerdings erst im August 2026 in Kraft, wie nicht nur der TÜV-Verband bedauert.

Illustration: Accogliente Design / shutterstock.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert