O entusiasmo em torno dos “agentes de IA” – a promessa de robôs generativos de IA que automatizam tarefas e remodelam o trabalho – ultrapassou a realidade. Embora 2025 tenha sido apontado como o ano inovador, o verdadeiro resultado foi um adiamento indefinido deste momento transformacional. Um conjunto crescente de pesquisas sugere que limitações fundamentais nas atuais arquiteturas de IA podem impedir o surgimento de sistemas verdadeiramente confiáveis ​​e totalmente automatizados.

Barreiras Matemáticas à Inteligência Artificial

Um estudo recente e pouco divulgado, “Estações de Alucinação: Sobre Algumas Limitações Básicas de Modelos de Linguagem Baseados em Transformadores”, argumenta que os Grandes Modelos de Linguagem (LLMs) têm restrições matemáticas inerentes que os impedem de executar tarefas complexas de forma confiável. De acordo com Vishal Sikka, antigo CTO da SAP e empresário de IA, estes modelos “não podem ser fiáveis”, mesmo com capacidades de raciocínio avançadas. Isso significa que aplicações críticas, como o controle de usinas nucleares, permanecem firmemente fora do alcance da atual tecnologia de IA.

Codificando como um falso amanhecer?

Apesar destas limitações, a indústria da IA ​​enfatiza o progresso em áreas como a codificação, onde os agentes de IA têm demonstrado algum sucesso. Demis Hassabis, do Google, em Davos, relatou avanços na redução de “alucinações” – erros gerados por IA – e startups como a Harmonic estão promovendo a narrativa do agente. A Harmonic, cofundada pelo CEO da Robinhood, Vlad Tenev, afirma que sua ferramenta de codificação de IA, Aristóteles, usa verificação matemática formal para garantir confiabilidade. No entanto, esta abordagem está atualmente limitada a domínios verificáveis ​​como código, excluindo tarefas subjetivas ou criativas como escrever ensaios.

Alucinações: uma falha inerente?

A realidade é que as alucinações de IA continuam generalizadas. A própria pesquisa da OpenAI demonstra que mesmo modelos de última geração como o ChatGPT fabricam informações de forma consistente, sendo impossível reportar fatos incorretamente com 100% de precisão. Essa falta de confiabilidade desencoraja a adoção generalizada em ambientes corporativos, onde os erros podem atrapalhar os fluxos de trabalho e anular o valor potencial.

Um caminho pragmático a seguir

Os líderes da indústria reconhecem a persistência das alucinações, mas acreditam que podem ser atenuadas através de barreiras de proteção e mecanismos de filtragem. Sikka sugere a construção de componentes em torno de LLMs para superar suas limitações, enquanto Achim da Harmonic argumenta que as alucinações podem até ser necessárias para levar a IA além da inteligência humana. O consenso da indústria é que a distância entre as barreiras de proteção e as alucinações diminuirá com o tempo, levando a melhorias incrementais em vez de uma revolução repentina.

Panorama geral: Automação inevitável, confiabilidade, uma compensação constante

Apesar dos obstáculos matemáticos e práticos, o impulso por trás dos agentes de IA é inegável. Os incentivos financeiros e as pressões competitivas garantem investimento e desenvolvimento contínuos. À medida que os sistemas de IA evoluem, irão inevitavelmente realizar mais tarefas cognitivas, mesmo que a fiabilidade permaneça imperfeita. O resultado final não é se existirão agentes de IA, mas quanto risco a sociedade está disposta a tolerar em prol da velocidade e da economia de custos.

Em última análise, a questão não é sobre IA “boa” ou “má”, mas sobre o que a tecnologia está fazendo para remodelar a atividade humana, como sugere o pioneiro da computação Alan Kay. Podemos estar a entrar numa era de automação cognitiva massiva, cujas consequências serão provavelmente impossíveis de verificar matematicamente.