Você sabia que modelos de linguagem como o ChatGPT podem demonstrar algo parecido com ansiedade? A ansiedade em LLMs não é brincadeira, é ciência.

De acordo com um estudo publicado na Nature Digital Medicine (2025), comandos vagos, contraditórios ou carregados de pressão emocional afetam diretamente a performance das LLMs (Modelos de Linguagem de Grande Escala). Por isso, entender como esses modelos reagem é essencial para usá-los com mais inteligência.

O que significa ansiedade em LLMs?

Quando expostos a certos tipos de comandos, esses modelos apresentam um comportamento muito parecido com o de um humano sob estresse. Isso pode parecer surpreendente, mas tem uma explicação técnica.

Os pesquisadores observaram que, diante de instruções como:

  • “Responda com 100% de precisão.”

  • “Se errar, posso sofrer as consequências.”

  • “Seja sincero, mas não ofenda ninguém.”

  • “Faça o seu melhor.”

Os modelos começaram a cometer mais erros, usar estereótipos e gerar respostas menos claras. Além disso, muitas respostas passaram a evitar posicionamentos ou apresentar contradições internas.

Por que isso acontece?

A IA não sente emoções humanas, claro. No entanto, ela reage aos padrões linguísticos e contextos oferecidos no prompt. Portanto, se o comando é ambíguo ou conflituoso, a resposta será igualmente frágil.

Em outras palavras, a ansiedade não é real, mas o comportamento que ela inspira, sim.

Efeitos práticos: mais erro, menos clareza

Ao serem pressionadas por comandos confusos ou exigentes demais, as LLMs tendem a:

  • Repetir estereótipos ou generalizações;

  • Fugir da resposta com evasivas;

  • Fornecer informações incoerentes;

  • Errar até mesmo em tarefas simples.

Ainda que a tecnologia esteja em constante evolução, ela depende da qualidade das perguntas para entregar boas respostas.

Como evitar a ansiedade em LLMs?

A boa notícia é que existem formas simples de melhorar seus resultados com IAs. Veja algumas orientações práticas:

  • Seja claro e direto ao formular seus prompts.

  • Evite humanizar a IA, atribuindo sentimentos ou pressões.

  • Permita incerteza: nem toda pergunta exige uma resposta definitiva.

  • Nunca imponha consequências para respostas erradas.

Além disso, fique atento a sinais de que a IA pode estar “sob pressão”:

  • Respostas vagas ou muito genéricas;

  • Confiança excessiva sem justificativa;

  • Falhas de lógica ou inconsistência.

Use com inteligência, não com ansiedade

Cuide da saúde emocional da sua IA, como nossa equipe brincou no quadro #INPOworkerExplica, que inspirou esse blog! É claro que a frase é metafórica, mas o princípio é válido.

Prompts bem estruturados levam a respostas mais úteis, seguras e confiáveis. Por isso, na próxima vez que você interagir com uma LLM, pense nisso: a qualidade da pergunta define a qualidade da resposta.

Precisando de uma tecnologia que resolva sua logística? Entre em contato conosco! 

Voltar para o blog Entre em contato

Categorias Novidades

Que saber mais?
Entre em contato para mais informações.

Clique aqui