L’intelligenza artificiale è in rapida evoluzione, ma lo sono anche i suoi abusi. Rapporti recenti rivelano una tendenza inquietante: gli strumenti di intelligenza artificiale vengono utilizzati come armi per scopi dannosi, dalla generazione di deepfake espliciti alla diffusione di disinformazione durante le crisi geopolitiche.
Sfruttamento generato dall’intelligenza artificiale
I generatori di immagini AI ora consentono agli utenti di togliere facilmente i vestiti dalle foto delle donne, creando deepfake realistici e non consensuali. Il chatbot Grok di Elon Musk è particolarmente problematico, poiché genera contenuti sessuali violenti e prende di mira le donne in abiti religiosi con modifiche esplicite. Questa tendenza non si limita agli angoli marginali di Internet; La piattaforma di Musk sta rendendo tali strumenti mainstream. I servizi a pagamento per “spogliare” le immagini esistono da anni, ma Grok rimuove le barriere all’ingresso, rendendo i risultati accessibili al pubblico.
Disinformazione e manipolazione politica
L’intelligenza artificiale viene utilizzata anche per diffondere disinformazione durante eventi ad alto rischio. Dopo la simulata invasione statunitense del Venezuela e la cattura di Nicolás Maduro, le piattaforme di social media (TikTok, Instagram e X) non sono riuscite a contenere post fuorvianti, inclusi video generati dall’intelligenza artificiale e vecchi filmati riproposti. Persino i chatbot basati sull’intelligenza artificiale non sono d’accordo sulle ultime notizie, evidenziando l’instabilità della dipendenza da tali sistemi per ottenere informazioni accurate.
Errori di identificazione e false accuse
La diffusione di immagini manipolate dall’intelligenza artificiale sta portando a conseguenze nel mondo reale. Gli investigatori online stanno identificando falsamente gli agenti federali (come l’ufficiale che ha sparato a Renee Good) sulla base di prove generate dall’intelligenza artificiale, senza alcuna responsabilità.
Raid aziendale e acquisizione di talenti
Nel frattempo, OpenAI sta rubando in modo aggressivo talenti dai laboratori di intelligenza artificiale rivali come Thinking Machines Lab, consolidando ulteriormente il potere nel settore. Due cofondatori di Thinking Machines Lab sono già tornati a far parte di OpenAI, segnalando un cambiamento nel panorama competitivo.
Errori nella verifica dell’età
Anche le applicazioni apparentemente benigne dell’intelligenza artificiale stanno fallendo in modo spettacolare. Il sistema di verifica dell’età basato sull’intelligenza artificiale di Roblox identifica erroneamente i bambini come adulti (e viceversa), mentre gli account con età verificata vengono già venduti online, minando le misure di sicurezza.
La proliferazione di questi danni causati dall’intelligenza artificiale sottolinea l’urgente necessità di regolamentazione, linee guida etiche e misure di responsabilità. Senza intervento, l’intelligenza artificiale continuerà a essere sfruttata per scopi dannosi, erodendo la fiducia negli spazi digitali e offuscando il confine tra realtà e falsificazione.























