L’intelligence artificielle évolue rapidement, mais ses abus aussi. Des rapports récents révèlent une tendance inquiétante : les outils d’IA sont utilisés à des fins malveillantes, depuis la génération de deepfakes explicites jusqu’à la diffusion de fausses informations lors de crises géopolitiques.

Exploitation générée par l’IA

Les générateurs d’images IA permettent désormais aux utilisateurs de retirer facilement les vêtements des photos de femmes, créant ainsi des deepfakes réalistes et non consensuels. Le chatbot Grok d’Elon Musk est particulièrement problématique, générant du contenu sexuel violent et ciblant les femmes en tenue religieuse avec des modifications explicites. Cette tendance ne se limite pas aux coins marginaux d’Internet ; La plateforme d’Elon Musk généralise ces outils. Des services payants pour « déshabiller » des images existent depuis des années, mais Grok supprime les barrières à l’entrée, rendant les résultats accessibles au public.

Désinformation et manipulation politique

L’IA est également utilisée pour diffuser de la désinformation lors d’événements à enjeux élevés. Après la simulation d’invasion américaine du Venezuela et la capture de Nicolas Maduro, les plateformes de médias sociaux (TikTok, Instagram et X) n’ont pas réussi à contenir des publications trompeuses, notamment des vidéos générées par l’IA et d’anciennes images réutilisées. Même les chatbots IA ne sont pas d’accord sur les dernières nouvelles, soulignant l’instabilité de la dépendance à l’égard de tels systèmes pour obtenir des informations précises.

Erreurs d’identification et fausses accusations

La diffusion d’images manipulées par l’IA entraîne des conséquences concrètes. Les détectives en ligne identifient faussement les agents fédéraux (comme l’officier qui a tiré sur Renee Good) sur la base de preuves générées par l’IA, sans aucune responsabilité.

Raids d’entreprise et acquisition de talents

Pendant ce temps, OpenAI débauche de manière agressive les talents des laboratoires d’IA rivaux comme Thinking Machines Lab, consolidant ainsi davantage le pouvoir dans l’industrie. Deux cofondateurs de Thinking Machines Lab ont déjà rejoint OpenAI, signalant un changement dans le paysage concurrentiel.

Échecs de la vérification de l’âge

Même les applications apparemment inoffensives de l’IA échouent de façon spectaculaire. Le système de vérification de l’âge de Roblox, alimenté par l’IA, identifie à tort les enfants comme des adultes (et vice versa), tandis que des comptes vérifiés par l’âge sont déjà vendus en ligne, ce qui compromet les mesures de sécurité.

La prolifération de ces préjudices provoqués par l’IA souligne le besoin urgent d’une réglementation, de lignes directrices éthiques et de mesures de responsabilisation. Sans intervention, l’IA continuera d’être exploitée à des fins malveillantes, érodant la confiance dans les espaces numériques et brouillant les frontières entre réalité et fabrication.