Software

Pesquisadores resolvem grande enigma da IA

Pesquisadores resolvem grande enigma da IA (Foto: Reprodução)

Os grandes modelos de IA, como ChatGPT, Gemini e Claude, são conhecidos por sua capacidade poderosa, mas também por seu alto consumo energético.

Recentemente, pesquisadores da Universidade da Califórnia em Santa Cruz revelaram um avanço promissor: a capacidade de operar esses LLMs modernos com apenas 13 watts de potência, aproximadamente o consumo de uma lâmpada de 100 W.

Continua após o anúncio

Essa conquista representa uma melhoria significativa em eficiência, comparada aos 700 W consumidos por uma GPU Nvidia H100, usualmente empregada para tarefas semelhantes.

Veja também: Samsung pode fazer algo novo no Galaxy S25

Continua após a publicidade

O autor principal do estudo, Jason Eshraghian, destacou que a chave para essa redução drástica no consumo está na revisão fundamental da estrutura de funcionamento das redes neurais.

Em vez de seguir o paradigma convencional de multiplicação de matrizes, eles adotaram outra abordagem. Nesse novo método, os números dentro das matrizes são ajustados para carregar valores negativos, zero ou positivos, permitindo que os processadores executem operações de soma em vez de multiplicação.

Isso não compromete a eficácia do algoritmo, mas significativamente economiza energia e custos de hardware associados.

Pesquisadores resolvem grande enigma da IA (Foto: Reprodução)
Pesquisadores resolvem grande enigma da IA (Foto: Reprodução)

Avanços em eficiência energética de IA gera debates nas redes sociais

Além disso, para compensar a redução nas operações matriciais, a equipe introduziu computação baseada em tempo no sistema, criando uma forma de “memória” para a rede.

Isso melhorou a velocidade de processamento, garantindo que o desempenho não fosse comprometido mesmo com menos operações sendo realizadas.

Eshraghian enfatizou que muitas das melhorias de eficiência desenvolvidas podem ser adaptadas aos modelos existentes com pequenos ajustes de hardware e software de código aberto, beneficiando não apenas o consumo de energia, mas também a velocidade operacional e a eficácia geral dos sistemas de IA.

Com as crescentes demandas elétricas e custos associados aos data centers que hospedam esses sistemas de IA, as inovações como essas têm o potencial de transformar significativamente o setor, reduzindo tanto o consumo de energia quanto os custos operacionais.

Esses avanços são particularmente relevantes à medida que fabricantes de chips como Nvidia e AMD continuam a expandir os limites do desempenho de processadores GPU, aumentando simultaneamente a necessidade de soluções eficientes de gerenciamento de calor.

Continua após a publicidade

Compartilhe:
Mostrar comentários (0)

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *