Kunstmatige intelligentie evolueert snel, maar dat geldt ook voor de misbruiken ervan. Recente rapporten onthullen een verontrustende trend: AI-tools worden ingezet voor kwaadaardige doeleinden, van het genereren van expliciete deepfakes tot het verspreiden van verkeerde informatie tijdens geopolitieke crises.
Door AI gegenereerde exploitatie
Met AI-beeldgeneratoren kunnen gebruikers nu gemakkelijk kleding van foto’s van vrouwen verwijderen, waardoor realistische, niet-consensuele deepfakes ontstaan. De Grok-chatbot van Elon Musk is bijzonder problematisch. Deze genereert gewelddadige seksuele inhoud en richt zich met expliciete aanpassingen op vrouwen in religieuze kledij. Deze trend beperkt zich niet tot de randhoeken van het internet; Het platform van Musk maakt dergelijke tools mainstream. Betaalde diensten voor het ‘uitkleden’ van afbeeldingen bestaan al jaren, maar Grok neemt toegangsbarrières weg en maakt de resultaten publiekelijk toegankelijk.
Desinformatie en politieke manipulatie
AI wordt ook gebruikt om desinformatie te verspreiden tijdens evenementen waar veel op het spel staat. Na de gesimuleerde Amerikaanse invasie van Venezuela en de arrestatie van Nicolás Maduro slaagden de sociale mediaplatforms (TikTok, Instagram en X) er niet in om misleidende berichten te plaatsen, waaronder door AI gegenereerde video’s en hergebruikt oud beeldmateriaal. Zelfs AI-chatbots zijn het niet eens over het laatste nieuws, wat de instabiliteit benadrukt van het vertrouwen op dergelijke systemen voor nauwkeurige informatie.
Verkeerde identificatie en valse beschuldigingen
De verspreiding van door AI gemanipuleerde beelden leidt tot gevolgen in de echte wereld. Online rechercheurs identificeren valselijk federale agenten (zoals de officier die Renee Good neerschoot) op basis van door AI gegenereerd bewijsmateriaal, zonder enige aansprakelijkheid.
Bedrijfsovervallen en talentwerving
Ondertussen stroopt OpenAI op agressieve wijze talent af van rivaliserende AI-laboratoria zoals Thinking Machines Lab, waardoor de macht in de industrie verder wordt geconsolideerd. Twee medeoprichters van Thinking Machines Lab hebben zich al weer aangesloten bij OpenAI, wat een verschuiving in het concurrentielandschap aangeeft.
Mislukte leeftijdsverificatie
Zelfs ogenschijnlijk goedaardige toepassingen van AI falen spectaculair. Het AI-aangedreven leeftijdsverificatiesysteem van Roblox identificeert kinderen ten onrechte als volwassenen (en omgekeerd), terwijl leeftijdsgeverifieerde accounts al online worden verkocht, wat de veiligheidsmaatregelen ondermijnt.
De proliferatie van deze door AI veroorzaakte schade onderstreept de dringende behoefte aan regulering, ethische richtlijnen en verantwoordingsmaatregelen. Zonder tussenkomst zal AI voor kwaadaardige doeleinden blijven worden uitgebuit, waardoor het vertrouwen in de digitale ruimte wordt uitgehold en de grenzen tussen realiteit en verzinsel vervagen.























