Início Software Pesquisadores resolvem grande enigma da IA

Pesquisadores resolvem grande enigma da IA

Pesquisadores conseguem revolucionar o futuro da IA

Continua após a publicidade
Pesquisadores resolvem grande enigma da IA (Foto: Reprodução)

Os grandes modelos de IA, como ChatGPT, Gemini e Claude, são conhecidos por sua capacidade poderosa, mas também por seu alto consumo energético.

Recentemente, pesquisadores da Universidade da Califórnia em Santa Cruz revelaram um avanço promissor: a capacidade de operar esses LLMs modernos com apenas 13 watts de potência, aproximadamente o consumo de uma lâmpada de 100 W.

Continua após o anúncio

Essa conquista representa uma melhoria significativa em eficiência, comparada aos 700 W consumidos por uma GPU Nvidia H100, usualmente empregada para tarefas semelhantes.

Continua após a publicidade

Veja também: Samsung pode fazer algo novo no Galaxy S25

O autor principal do estudo, Jason Eshraghian, destacou que a chave para essa redução drástica no consumo está na revisão fundamental da estrutura de funcionamento das redes neurais.

Em vez de seguir o paradigma convencional de multiplicação de matrizes, eles adotaram outra abordagem. Nesse novo método, os números dentro das matrizes são ajustados para carregar valores negativos, zero ou positivos, permitindo que os processadores executem operações de soma em vez de multiplicação.

Isso não compromete a eficácia do algoritmo, mas significativamente economiza energia e custos de hardware associados.

Pesquisadores resolvem grande enigma da IA (Foto: Reprodução)

Pesquisadores resolvem grande enigma da IA (Foto: Reprodução)

Avanços em eficiência energética de IA gera debates nas redes sociais

Além disso, para compensar a redução nas operações matriciais, a equipe introduziu computação baseada em tempo no sistema, criando uma forma de “memória” para a rede.

Isso melhorou a velocidade de processamento, garantindo que o desempenho não fosse comprometido mesmo com menos operações sendo realizadas.

Eshraghian enfatizou que muitas das melhorias de eficiência desenvolvidas podem ser adaptadas aos modelos existentes com pequenos ajustes de hardware e software de código aberto, beneficiando não apenas o consumo de energia, mas também a velocidade operacional e a eficácia geral dos sistemas de IA.

Com as crescentes demandas elétricas e custos associados aos data centers que hospedam esses sistemas de IA, as inovações como essas têm o potencial de transformar significativamente o setor, reduzindo tanto o consumo de energia quanto os custos operacionais.

Esses avanços são particularmente relevantes à medida que fabricantes de chips como Nvidia e AMD continuam a expandir os limites do desempenho de processadores GPU, aumentando simultaneamente a necessidade de soluções eficientes de gerenciamento de calor.

Continua após a publicidade

Você pode gostar

HTech é sua fonte confiável de informações sobre tecnologia. Encontre as últimas notícias e atualizações sobre lançamentos de smartphones, produtos de casa inteligente, televisores e serviços de streaming, cobrindo tanto o presente quanto o futuro da tecnologia.

Contato

Whatsapp: (79) 8141-6350

E-mail: [email protected]

Endereço: Av. Luiz Braille, 334 - Aeroporto, Aracaju - SE, 49037-710

CNPJ: 54.466.518/0001-44

HTech, Um portal de notícias do HT Fórum – © 2024 Todos os direitos reservados.