Tecnologia

Estudo Quantifica Impacto Ambiental da Inteligência Artificial Conversacional

Investigação científica analisa consumo energético de 14 modelos de linguagem, revelando variações significativas nas emissões de carbono

A utilização crescente de modelos de inteligência artificial conversacional em contextos empresariais e pessoais tem levado a comunidade científica a investigar o seu impacto ambiental. Um estudo recente quantifica pela primeira vez de forma sistemática o consumo energético destes sistemas, oferecendo dados concretos para uma discussão até agora baseada principalmente em estimativas.

Um estudo pioneiro publicado em Junho de 2025 na revista Frontiers, assinado pelos investigadores Maximilian Dauner e Gudrun Socher, fornece dados empíricos sobre a questão do impacto ambiental dos modelos de linguagem de grande escala (LLMs). Os resultados são alarmantes e obrigam a repensar a forma como utilizamos estas ferramentas.

Segundo estimativas apresentadas no estudo, o consumo anual de energia por modelos generativos de IA atinge 29,3 TWh, uma quantidade equivalente ao consumo total de electricidade da Irlanda.

O estudo analisou 14 modelos diferentes, desde os mais pequenos (7 mil milhões de parâmetros) até aos de 72 mil milhões de parâmetros. Os investigadores submeteram estes modelos a 500 perguntas de múltipla escolha e outras 500 de resposta livre, abrangendo disciplinas como Filosofia, História Mundial, Direito Internacional, Álgebra Abstracta e Matemática.

Os resultados mostram variações consideráveis no consumo energético. O modelo Qwen 7B registou 27,7 gramas de CO₂ equivalente por teste, enquanto o Deepseek R1 70B com capacidade de raciocínio atingiu 2.042,4 gramas, uma diferença de aproximadamente 70 vezes.

O modelo Cogito 70B apresentou a melhor relação desempenho-eficiência energética, alcançando 84,9% de precisão com 1.341,1 gramas de CO₂ equivalente. Modelos menores como o Qwen 7B, embora mais eficientes energeticamente, registaram 32,9% de precisão.

O estudo identifica uma correlação entre modelos que possuem capacidade de “raciocínio explícito” e maior consumo energético. Estes modelos podem emitir entre quatro a seis vezes mais CO₂ que as suas versões standard.

O factor determinante está na extensão das respostas: em casos extremos documentados, um modelo gerou 37.575 tokens numa única resposta sobre Álgebra Abstracta, correspondendo a aproximadamente 75 páginas de texto para uma única pergunta.

O estudo apresenta várias recomendações para o uso responsável de LLMs:

  • Empresas: optar por modelos mais leves para tarefas simples e reservar os mais complexos para aplicações críticas.
  • Desenvolvedores: optimizar algoritmos de raciocínio e implementar mecanismos que limitem a extensão das respostas.
  • Reguladores: criar padrões de medição do impacto ambiental da IA e incentivar a adopção de tecnologias mais sustentáveis.

À medida que os LLMs se tornam cada vez mais presentes em múltiplas áreas da vida social e económica, cresce também a necessidade de adoptar abordagens mais conscientes e eficientes na sua implementação. O estudo aponta para a importância de incorporar critérios de sustentabilidade nos processos de desenvolvimento e utilização destas tecnologias.

O estudo “Energy Costs of Communicating with AI” está disponível na revista Frontiers e representa um importante contributo para a compreensão do impacto ambiental das tecnologias emergentes.

Parceiros Banner POA

Artigos Relacionados

Botão Voltar ao Topo