Você sabia que modelos de linguagem como o ChatGPT podem demonstrar algo parecido com ansiedade? A ansiedade em LLMs não é brincadeira, é ciência.
De acordo com um estudo publicado na Nature Digital Medicine (2025), comandos vagos, contraditórios ou carregados de pressão emocional afetam diretamente a performance das LLMs (Modelos de Linguagem de Grande Escala). Por isso, entender como esses modelos reagem é essencial para usá-los com mais inteligência.
Quando expostos a certos tipos de comandos, esses modelos apresentam um comportamento muito parecido com o de um humano sob estresse. Isso pode parecer surpreendente, mas tem uma explicação técnica.
Os pesquisadores observaram que, diante de instruções como:
“Responda com 100% de precisão.”
“Se errar, posso sofrer as consequências.”
“Seja sincero, mas não ofenda ninguém.”
“Faça o seu melhor.”
Os modelos começaram a cometer mais erros, usar estereótipos e gerar respostas menos claras. Além disso, muitas respostas passaram a evitar posicionamentos ou apresentar contradições internas.
A IA não sente emoções humanas, claro. No entanto, ela reage aos padrões linguísticos e contextos oferecidos no prompt. Portanto, se o comando é ambíguo ou conflituoso, a resposta será igualmente frágil.
Em outras palavras, a ansiedade não é real, mas o comportamento que ela inspira, sim.
Ao serem pressionadas por comandos confusos ou exigentes demais, as LLMs tendem a:
Repetir estereótipos ou generalizações;
Fugir da resposta com evasivas;
Fornecer informações incoerentes;
Errar até mesmo em tarefas simples.
Ainda que a tecnologia esteja em constante evolução, ela depende da qualidade das perguntas para entregar boas respostas.
A boa notícia é que existem formas simples de melhorar seus resultados com IAs. Veja algumas orientações práticas:
Seja claro e direto ao formular seus prompts.
Evite humanizar a IA, atribuindo sentimentos ou pressões.
Permita incerteza: nem toda pergunta exige uma resposta definitiva.
Nunca imponha consequências para respostas erradas.
Além disso, fique atento a sinais de que a IA pode estar “sob pressão”:
Respostas vagas ou muito genéricas;
Confiança excessiva sem justificativa;
Falhas de lógica ou inconsistência.
Cuide da saúde emocional da sua IA, como nossa equipe brincou no quadro #INPOworkerExplica, que inspirou esse blog! É claro que a frase é metafórica, mas o princípio é válido.
Prompts bem estruturados levam a respostas mais úteis, seguras e confiáveis. Por isso, na próxima vez que você interagir com uma LLM, pense nisso: a qualidade da pergunta define a qualidade da resposta.
Precisando de uma tecnologia que resolva sua logística? Entre em contato conosco!
Voltar para o blog Entre em contato