Os elegantes e aparentemente inócuos óculos inteligentes Ray-Ban Meta estão rapidamente se tornando uma ferramenta para gravação pública irrestrita, levantando sérias preocupações éticas e de privacidade. O que começou como uma novidade tecnológica está agora a ser transformado em arma por influenciadores, assediadores e até, potencialmente, agências de vigilância. Os óculos, capazes de gravar vídeo da perspectiva do usuário, provocaram uma reação negativa à medida que os usuários documentavam interações – às vezes sem consentimento – e carregavam imagens em plataformas de mídia social.

O problema com gravações não solicitadas

A questão central não é a tecnologia em si, mas a sua aplicação. Pessoas como Joy Hui Lin, pesquisadora em Paris, estão vivenciando em primeira mão como esses óculos podem criar uma sensação de violação. Ela foi abordada por alunos que mais tarde revelaram que a estavam gravando sem perguntar, cenário que se tornava cada vez mais comum. O design discreto dos óculos torna-os mais difíceis de detectar do que os óculos inteligentes anteriores, como o Google Glass, facilitando a gravação clandestina.

A situação é agravada pelos criadores de conteúdo que exploram ativamente os óculos para comportamento explorador ou predatório. Influenciadores com milhões de seguidores filmam interações com estranhos, muitas vezes mulheres, com pouca consideração pelo consentimento. Isso rendeu aos óculos o apelido depreciativo de “óculos pervertidos”.

Função e práticas de dados da Meta

O problema vai além dos maus atores individuais. A Meta carrega automaticamente as imagens dos óculos para seus servidores, onde são revisadas por trabalhadores contratados, incluindo conteúdo potencialmente confidencial ou privado. As investigações revelaram casos de nudez, atos sexuais e outros materiais comprometedores gravados sem o conhecimento dos sujeitos. Essa prática já desencadeou uma ação judicial de defesa do consumidor.

Além disso, a Meta planeja expandir as capacidades de IA dos óculos, coletando vídeos de usuários para treinamento adicional. Apesar dessas preocupações, a Meta afirma que os usuários são responsáveis ​​por cumprir as leis e usar os óculos “de maneira segura e respeitosa”, uma declaração que muitos consideram vazia, dado o potencial inerente de abuso do dispositivo.

O mercado furtivo e contramedidas

As preocupações com a privacidade levaram a um crescente mercado negro de modificações que desativam a luz indicadora de gravação. As pessoas estão oferecendo versões dos óculos em “modo furtivo” por dinheiro, permitindo que os usuários gravem completamente sem serem detectados. Isto sublinha a dificuldade de regular a tecnologia de forma eficaz.

No entanto, alguns estão reagindo. Yves Jeanrenaud, um programador, desenvolveu o aplicativo “Nearby Glasses”, que procura sinais Bluetooth de óculos inteligentes Meta e Snap, alertando usuários próximos sobre potencial vigilância. A aplicação já foi descarregada mais de 59 mil vezes, mas o próprio Jeanrenaud acredita que a luta pela privacidade já está perdida, citando uma cultura onde a exploração e o entretenimento estão intimamente ligados.

O panorama geral

A ascensão dos óculos inteligentes destaca uma tendência perturbadora: a normalização de gravações constantes e muitas vezes agressivas em espaços públicos. Os smartphones já tornaram isso possível, mas os óculos inteligentes tornam tudo mais simples e secreto. Os governos estão começando a tomar conhecimento, com os senadores dos EUA exigindo que a Meta detalhe suas práticas de dados biométricos e políticas de consentimento.

Em última análise, a questão não diz respeito apenas aos óculos em si, mas à falta mais ampla de regulamentação em torno da tecnologia de vigilância. Sem leis mais fortes que protejam a privacidade pessoal, estes dispositivos provavelmente continuarão a ser explorados para assédio, perseguição e, potencialmente, para fins ainda mais sinistros. A era da gravação oculta e onipresente chegou e está levantando questões incômodas sobre consentimento, exploração e o futuro do espaço público.