Os pesquisadores do MIT encontraram um calcanhar de Aquiles nos grandes modelos de linguagem: eles podem responder com base em atalhos gramaticais, não em compreensão real. Mesmo sistemas de última geração — como GPT-4 e Llama — às vezes se apoiam em padrões sintáticos aprendidos durante o treinamento, confundindo “estrutura da frase” com “intenção da

IA brilhante na forma, cega no sentido: o alerta do MIT

Primeiramente, imagine perguntar algo completamente absurdo a um assistente virtual — e receber uma resposta confiante, como se a questão fizesse total sentido. De fato, é exatamente isso que pesquisadores do MIT acabam de comprovar em um estudo revelador sobre os bastidores dos grandes modelos de linguagem.

Em outras palavras, sistemas como GPT-4 e Llama não compreendem verdadeiramente o que lhes é perguntado. Consequentemente, eles se apoiam em padrões gramaticais memorizados durante o treinamento, confundindo a estrutura sintática com a intenção real da mensagem. O estudo será apresentado na NeurIPS, uma das conferências mais prestigiadas do setor.

Quando a gramática engana a inteligência artificial

A equipe liderada pela professora Marzyeh Ghassemi, em parceria com a Northeastern University e a Meta, demonstrou que os modelos criam atalhos entre formatos gramaticais e categorias de resposta. Por exemplo, a pergunta “Onde Paris está localizada?” gera corretamente “França”. Porém, uma frase sem sentido com estrutura idêntica — “Rapidamente sentar Paris nublado?” — produz a mesma resposta.

Além disso, os pesquisadores substituíram palavras por sinônimos, antônimos e termos aleatórios. Ainda assim, os modelos continuaram respondendo como se nada estivesse errado. Ou seja, a inteligência artificial reconhece a forma, porém ignora o conteúdo.

Risco real: hackers podem explorar essa brecha

Nesse sentido, o problema vai além de respostas estranhas. Dessa forma, invasores podem formular comandos maliciosos utilizando padrões gramaticais que os filtros de segurança interpretam como inofensivos. Certamente, isso representa uma ameaça concreta para setores como saúde, finanças e atendimento emergencial, onde precisão é indispensável.

Soluções propostas pelo MIT para o problema

Por outro lado, os pesquisadores já desenvolveram um procedimento automático de auditoria. Assim sendo, desenvolvedores podem verificar se seus modelos dependem desses atalhos sintáticos. As recomendações incluem ampliar a diversidade gramatical nos dados de treinamento e introduzir contraexemplos que quebrem correlações falsas.

Finalmente, a descoberta não invalida a inteligência artificial generativa, porém expõe uma limitação estrutural profunda. Sem dúvida, o verdadeiro avanço não virá de modelos mais potentes — mas de sistemas genuinamente capazes de compreender o que lhes é dito.

Compartilhe essa publicação, clicando nos botões abaixo:

Sobre Redação

Portal Direto Noticias - Imparcial, Transparente e Direto | https://diretonoticias.com.br | Notícias de Guarapari, ES e Brasil. Ative as notificações ao entrar e torne-se um seguidor. Caso prefira receber notícias por email, inscreva-se em nossa Newsletter, ou em nossas redes:

Veja Também

Finalmente Expostos: Os Conflitos Tech que Mudam Tudo Hoje

O setor de tecnologia atravessa uma das semanas mais turbulentas de 2026, com embates que …