Künstliche Intelligenz entwickelt sich rasant weiter, aber auch ihre Missbräuche entwickeln sich rasant weiter. Jüngste Berichte offenbaren einen beunruhigenden Trend: KI-Tools werden für böswillige Zwecke eingesetzt, von der Generierung expliziter Deepfakes bis hin zur Verbreitung von Fehlinformationen während geopolitischer Krisen.

KI-generierte Ausbeutung

KI-Bildgeneratoren ermöglichen es Benutzern jetzt, Fotos von Frauen ganz einfach von der Kleidung zu befreien und so realistische, nicht einvernehmliche Deepfakes zu erstellen. Besonders problematisch ist der Grok-Chatbot von Elon Musk, der gewalttätige sexuelle Inhalte generiert und Frauen in religiöser Kleidung mit expliziten Änderungen ins Visier nimmt. Dieser Trend ist nicht auf Randbereiche des Internets beschränkt; Die Plattform von Musk macht solche Tools zum Mainstream. Bezahlte Dienste zum „Entkleiden“ von Bildern gibt es schon seit Jahren, doch Grok beseitigt Zugangsbarrieren und macht die Ergebnisse öffentlich zugänglich.

Desinformation und politische Manipulation

KI wird auch zur Verbreitung von Desinformation bei hochriskanten Veranstaltungen eingesetzt. Nach der simulierten US-Invasion in Venezuela und der Gefangennahme von Nicolás Maduro enthielten die Social-Media-Plattformen (TikTok, Instagram und X) keine irreführenden Beiträge, darunter KI-generierte Videos und zweckentfremdetes altes Filmmaterial. Sogar KI-Chatbots sind sich in Bezug auf aktuelle Nachrichten nicht einig, was die Instabilität des Vertrauens auf solche Systeme für genaue Informationen verdeutlicht.

Fehlidentifikation und falsche Anschuldigungen

Die Verbreitung KI-manipulierter Bilder führt zu realen Konsequenzen. Online-Detektive identifizieren fälschlicherweise Bundesagenten (wie den Beamten, der Renee Good erschossen hat) auf der Grundlage von KI-generierten Beweisen, ohne dafür Rechenschaft ablegen zu müssen.

Unternehmensüberfälle und Talentakquise

Unterdessen wirbt OpenAI aggressiv Talente aus konkurrierenden KI-Laboren wie dem Thinking Machines Lab ab und festigt so die Macht in der Branche weiter. Zwei Mitbegründer des Thinking Machines Lab sind bereits zu OpenAI zurückgekehrt, was einen Wandel in der Wettbewerbslandschaft signalisiert.

Fehler bei der Altersüberprüfung

Selbst scheinbar harmlose Anwendungen der KI scheitern spektakulär. Das KI-gestützte Altersverifizierungssystem von Roblox identifiziert Kinder fälschlicherweise als Erwachsene (und umgekehrt), während altersverifizierte Konten bereits online verkauft werden, was Sicherheitsmaßnahmen untergräbt.

Die Verbreitung dieser KI-bedingten Schäden unterstreicht den dringenden Bedarf an Regulierung, ethischen Richtlinien und Maßnahmen zur Rechenschaftspflicht. Ohne Intervention wird KI weiterhin für böswillige Zwecke missbraucht, das Vertrauen in digitale Räume untergraben und die Grenzen zwischen Realität und Fälschung verwischen.