Pedir respostas curtas pode reduzir gasto de energia de ChatGPT pela metade, diz Unesco

Unesco recomenda que as empresas também adotem ferramentas para comprimir os resultados entregues pelos modelos de IA

Por FolhaPress
Ás

Pedir respostas curtas pode reduzir gasto de energia de ChatGPT pela metade, diz Unesco

Foto: Pexels/Bertelli Fotografia

Pedir respostas mais concisas do ChatGPT -ou de outros modelos de inteligência artificial generativa- pode reduzir o consumo de energia em 54%, de acordo com testes feitos por University College London (UCL) e Unesco. Diminuir o tamanho do pedido pela metade reduz o gasto de eletricidade em 5%.

Por isso, citar um limite de parágrafos ou palavras pode economizar muito mais energia do que deixar de ser educado com a inteligência artificial -o CEO da OpenAI, Sam Altman, já disse nas redes sociais que a empresa gasta "dezenas de milhões de dólares" com a cortesia de seus usuários que digitam "obrigado" ou "por favor".

Os pesquisadores fizeram testes com IAs de código aberto da Meta, rodando em máquinas próprias -isso permitiu acompanhar a demanda de eletricidade dos computadores e chegar aos resultados apresentados no artigo.

A Unesco recomenda, além da promoção de campanhas de conscientização dos usuários, que as empresas também adotem ferramentas para comprimir os resultados entregues pelos modelos de IA. Trata-se de uma tecnologia que já está no mercado e reduz o tempo de processamento sem comprometer a qualidade, diz o relatório.

"A responsabilidade por uma IA energeticamente eficiente não deveria recair apenas sobre os usuários", diz a autora do estudo e especialista da Unesco, Leona Verdadero. "Porém, se isso for adotado em escala, o pedido de respostas mais curtas poderia levar a economias energéticas significativas, mesmo sem mudanças estruturais", disse a especialista.

A Unesco estima que o ChatGPT gasta, hoje, cerca de 310 GWh por ano apenas respondendo a pedidos para gerar texto --isto é, sem considerar os gastos com vídeos e imagens. É um consumo comparável ao de mais de 3 milhões de etíopes, onde o uso médio per capita é de 96 kWh por ano.

Para isso, a organização usou como referência o valor de 0,34 Wh gasto em média por pedido -o citado foi citado em artigo assinado por Altman-- e a estatística de 1 bilhão de acessos diários, divulgada pela OpenAI.

Os cálculos incluem apenas o custo de inferência, o momento em que o usuário interage com a ferramenta de IA. Outros milhares de GWh são gastos a fim de treinar os modelos para que entreguem os resultados esperados.

"O ônus realmente deveria estar mais do lado dos desenvolvedores e implementadores desses sistemas de IA", afirma Verdadero. Por isso, a especialista da Unesco defende a criação de ferramentas que ajudem os consumidores a fazer escolhas mais conscientes.

"É como os rótulos nutricionais nos alimentos, que moldaram nossas escolhas alimentares. Acreditamos que rótulos de energia para IA podem ajudar os usuários a fazer escolhas mais informadas", explica.

'PEQUENO É PODEROSO', DIZ UNESCO
Mais eficiente ainda, de acordo com Verdadero, é preferir os modelos de linguagem pequenos e especializados, que entregam precisão com 10% do consumo de eletricidade exigido por um grande IA generalista, como ChatGPT, Claude ou Gemini.

A pesquisadora, porém, reconhece que há um desafio de financiamento, uma vez que projetos focados no desenvolvimento de IAs generalistas, capazes de realizar uma ampla gama de tarefas, conquistaram a atenção de capitalistas de riscos e outros investidores.

"É o que estamos vendo com avanços nos modelos de raciocínio e no pensamento de que 'maior é melhor'", afirma Verdadeiro.

No entanto, a pesquisadora afirma que os testes feitos no estudo indicam que os modelos pequenos se saem tão bem quanto os grandes em tarefas como tradução, criação de resumos e resposta de dúvidas, desde que recebam um treinamento posterior para certas tarefas. "Em algumas situações, até superam os grandes modelos", diz a pesquisadora.

A Unesco também destaca que os pequenos modelos de linguagem abrem uma possibilidade para países com menor infraestrutura computacional, em regiões como a África e a América Latina, desenvolverem as próprias ferramentas de inteligência artificial.

É o caso da startup brasileira Dharma AI, que já desenvolve versões especializadas dos pequenos modelos de linguagem para empresas. O chinês Qwen 2.5b, uma das IAs utilizadas pela Dharma, tem, por exemplo, 2,5 bilhões de parâmetros (como se fossem os neurônios da rede neural), contra mais de 1 trilhão no caso de modelos como o GPT-4, que está sob o capô do ChatGPT.

Incubada no Porto Maravalley, da Prefeitura do Rio de Janeiro, a Dharma AI já apresentou uma versão do Qwen treinada com base em textos jurídicos brasileiros. Em um teste feito pela empresa, a sua ferramenta obteve sucesso em 85% das simulações, contra um índice de 68% do ChatGPT. O preço para executar a tarefa no pequeno modelo brasileiro foi de US$ 0,003, contra US$ 0,608 no ChatGPT.

Em artigo publicado em junho, a Nvidia defendeu que os pequenos modelos de linguagem são mais adequados e economicamente necessários no desenvolvimento de sistemas de inteligência artificial mais complexos.

"Embora capacidades conversacionais gerais sejam essenciais, sistemas autônomos que usam múltiplos modelos diferentes são a escolha natural em termos de eficiência", diz o gigante da tecnologia, que despontou como empresa mais valiosa do mundo por projetar os chips usados no desenvolvimento de IA.

O relatório da Nvidia, diz a própria companhia, busca estimular discussões sobre uso eficaz de recursos de IA e reduzir os custos atuais da tecnologia.

A Unesco apresenta dados da Agência Internacional de Energia (IEA) para destacar a urgência do debate: o consumo de eletricidade com IA está dobrando a cada cem dias, pressionando a infraestrutura global de transmissão energética e abastecimento hídrico.
 

Comentários

Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site. Se achar algo que viole os termos de uso, denuncie:redacao@fbcomunicacao.com.br
*Os comentários podem levar até 1 minutos para serem exibidos

Faça seu comentário