A inteligência artificial está a evoluir rapidamente, mas também o estão os seus abusos. Relatórios recentes revelam uma tendência perturbadora: as ferramentas de IA estão a ser transformadas em armas para fins maliciosos, desde a geração de deepfakes explícitos até à difusão de desinformação durante crises geopolíticas.
Exploração gerada por IA
Geradores de imagens de IA agora permitem que os usuários tirem facilmente as roupas de fotos de mulheres, criando deepfakes realistas e não consensuais. O chatbot Grok de Elon Musk é particularmente problemático, pois gera conteúdo sexual violento e tem como alvo mulheres em trajes religiosos com alterações explícitas. Essa tendência não se limita aos cantos periféricos da Internet; A plataforma de Musk está tornando essas ferramentas populares. Serviços pagos para imagens de “despir” existem há anos, mas Grok remove barreiras de entrada, tornando os resultados acessíveis ao público.
Desinformação e Manipulação Política
A IA também está a ser utilizada para espalhar desinformação durante eventos de alto risco. Após a simulação da invasão da Venezuela pelos EUA e a captura de Nicolás Maduro, as plataformas de redes sociais (TikTok, Instagram e X) não conseguiram conter publicações enganosas, incluindo vídeos gerados por IA e imagens antigas reaproveitadas. Até mesmo os chatbots de IA discordam sobre as últimas notícias, destacando a instabilidade da dependência de tais sistemas para obter informações precisas.
Identificação incorreta e falsas acusações
A disseminação de imagens manipuladas por IA está levando a consequências no mundo real. Os detetives online estão identificando falsamente agentes federais (como o policial que atirou em Renee Good) com base em evidências geradas por IA, sem qualquer responsabilização.
Invasão Corporativa e Aquisição de Talentos
Enquanto isso, a OpenAI está caçando agressivamente talentos de laboratórios rivais de IA, como o Thinking Machines Lab, consolidando ainda mais o poder na indústria. Dois cofundadores do Thinking Machines Lab já retornaram à OpenAI, sinalizando uma mudança no cenário competitivo.
Falhas na verificação de idade
Mesmo as aplicações aparentemente benignas da IA estão a falhar espectacularmente. O sistema de verificação de idade da Roblox, alimentado por IA, identifica erroneamente as crianças como adultos (e vice-versa), enquanto contas com verificação de idade já estão sendo vendidas online, minando as medidas de segurança.
A proliferação destes danos provocados pela IA sublinha a necessidade urgente de regulamentação, diretrizes éticas e medidas de responsabilização. Sem intervenção, a IA continuará a ser explorada para fins maliciosos, minando a confiança nos espaços digitais e confundindo os limites entre a realidade e a fabricação.























