Vai de Inglês ou Português - Prompts para iA

February 25, 2026
Vai de Inglês ou Português - Prompts para iA

No dia em que vi o Google lançando os "Créditos de IA", percebi que se tratava de uma moeda. De lá para cá, muita coisa aconteceu: desde o lançamento do Antigravity até as atualizações para o Gemini Pro 3.1 e o Claude 4.6.

Durante esses últimos anos, tenho analisado questões de eficiência dos LLMs fora de um contexto estritamente acadêmico. No ambiente profissional — diferentemente do acadêmico, que normalmente se preocupa quase exclusivamente com a qualidade da saída — a palavra-chave é Custo. Tudo tem um preço, e quando uma tecnologia começa a permear as empresas em todos os níveis, a atenção à eficiência financeira deve ser máxima.

Mas onde entra o idioma nessa equação?

Ele impacta duas métricas distintas e cruciais. A primeira é a contagem de tokens. Tokens são as "unidades" codificadas para a entrada e saída dos modelos; as empresas que os fornecem (Google, Anthropic, OpenAI, xAI, etc.) cobram por eles: os de entrada (sua solicitação), os de pensamento (inferência usada internamente para gerar o raciocínio) e os de saída. O detalhe importante é que cada modelo possui seu próprio tokenizador, mas um fato prevalece: nos principais modelos, uma palavra em inglês equivale a aproximadamente 1,33 tokens, enquanto uma palavra em português gera, em média, 1,66 tokens. Ou seja, o português é visualmente mais "caro" para a máquina.

O detalhe aqui é matemático: se você opera um sistema inteiramente em português, ele terá um custo de tokens cerca de 30% superior. Isso mesmo: o idioma em que você programa seu prompt dita a margem de lucro da sua aplicação. E não é de se espantar, pois essas ferramentas, assim como quase toda a base da computação moderna, são desenvolvidas nativamente em inglês.

A segunda métrica é um efeito colateral do treinamento: os modelos são alimentados com milhões de livros e conteúdos, mas o inglês domina o dataset. O resultado? Maior densidade semântica e menor taxa de erro. O modelo entende melhor as instruções em inglês, apresentando menos ambiguidades e menos confusão com expressões idiomáticas.

Existem também aspectos fundamentais relacionados a viés, semântica e cultura. Tudo isso impacta o "entendimento" que o modelo tem do mundo. Já adianto: ele não vê tudo. O treinamento muitas vezes falha em capturar nuances que não sejam ocidentais. Lembre-se: os modelos atuais são, por DNA de treinamento, profundamente ocidentais.

Não se trata de virar a chave para o "Modo Inglês Ativado" em todos os momentos da vida. Essas observações são voltadas para o contexto profissional, especialmente para a geração de código eficiente, onde buscamos o menor custo, maior assertividade e redução de alucinações. Com o tempo, os modelos serão treinados com volumes maiores de outros idiomas e essas disparidades tendem a diminuir.

Entretanto, quanto à tokenização e, por consequência, ao custo, não vejo uma saída imediata no curto prazo. Enquanto aguardamos dados ainda mais precisos dos grandes players do mercado, a estratégia mais inteligente para desenvolvedores e empresas continua sendo o uso de tradução técnica e internacionalização (i18n) nas camadas de processamento pesado.

Sandro Herculino da Silva Iatech