Pare de dizer ‘POR FAVOR’ ao ChatGPT – o motivo vai te chocar!
Você provavelmente aprendeu desde pequeno que dizer “por favor” é sinal de educação. E é mesmo. Mas e se esse simples gesto de cortesia estivesse custando milhões de dólares? A afirmação parece exagerada à primeira vista, mas foi exatamente isso que Sam Altman, CEO da OpenAI, sugeriu em uma declaração recente que deixou a internet em polvorosa.
Tudo começou com uma pergunta feita em tom de brincadeira nas redes sociais: quanto a OpenAI estaria gastando por conta de usuários que insistem em serem educados com a inteligência artificial? Altman não só respondeu como revelou um dado inesperado – e um tanto quanto preocupante.
A partir daí, o assunto ganhou força e chamou atenção para um tema ainda pouco discutido: o custo energético e financeiro por trás de cada interação com modelos como o ChatGPT. E sim, até mesmo aquele “por favor” inofensivo entra na conta.

A IA pode ser educada, mas não é de graça
Engana-se quem pensa que conversar com uma inteligência artificial não gera impacto real. De acordo com o instituto Epoch AI, cada vez que alguém interage com o modelo GPT-4o, a média de consumo energético é de 0,3 watt-hora.
Parece pouco? Talvez isoladamente. Mas quando multiplicado por bilhões de interações diárias ao redor do mundo, o resultado se torna gigantesco.
Essa redução de consumo só foi possível graças ao avanço das tecnologias utilizadas, como as GPUs NVIDIA H100, que melhoraram significativamente a eficiência do sistema.
Ainda assim, os custos não deixam de ser expressivos, especialmente quando consideramos a escalada do uso da IA em setores diversos, como saúde, educação e até entretenimento.
E o que poucos sabem é que, além da energia para gerar as respostas, é necessário um sistema robusto de resfriamento dos data centers. Em outras palavras, manter a IA funcionando exige recursos além da computação – exige água, energia e, claro, muito investimento.
Portanto, por mais simpático que pareça ser com a IA, é bom lembrar que cada frase, cada palavra e até cada gentileza digital têm um custo. Literalmente.
A conta chega – e não é pequena
Segundo estimativas da SemiAnalysis, manter o ChatGPT operando diariamente custa cerca de US$ 700 mil. Esse valor inclui tudo: desde a manutenção da infraestrutura computacional até o resfriamento dos data centers e os custos ambientais associados a isso.
Um dado curioso e alarmante, revelado em um estudo do The Washington Post, é que cada resposta gerada pelo modelo pode consumir o equivalente a uma garrafa de água apenas para resfriamento. E quanto mais complexa for a pergunta ou a resposta, mais energia e água são necessárias.
Além disso, o treinamento de modelos como o GPT-4o chega a demandar entre 20 e 25 megawatts durante três meses. Para se ter uma ideia, isso seria suficiente para abastecer centenas de residências por um longo período.
Essa realidade acende um alerta sobre o impacto ambiental da inteligência artificial, especialmente à medida que mais empresas e usuários adotam a tecnologia de forma massiva no dia a dia.
Ser educado com a IA vale a pena?
Apesar dos custos elevados, há quem defenda com veemência o uso de uma linguagem cordial com as inteligências artificiais. E isso não é só uma questão de bons modos. Pesquisas da Microsoft mostram que o tom das instruções influencia diretamente a qualidade das respostas geradas pelos modelos.
Ou seja, ser educado pode sim fazer com que a IA responda de forma mais clara, amigável e eficiente. Mas como tudo na vida, há um equilíbrio a ser encontrado: gentileza demais pode pesar no bolso – ou no servidor.
A discussão não gira apenas em torno de economia financeira. Trata-se também de sustentabilidade. Em um mundo cada vez mais preocupado com os impactos ambientais, repensar a forma como usamos a tecnologia se torna essencial.
Portanto, da próxima vez que for conversar com o ChatGPT, talvez valha considerar se aquele “por favor” é realmente necessário – ou se a IA já entendeu a sua gentileza, mesmo sem ela.