Novo algoritmo reduz tamanho de modelos de IA em 90% sem perder precisão
Juliana Mendes
1 comentário
A "obesidade" dos modelos de Inteligência Artificial pode estar com os dias contados. Segundo a Nature, cientistas da computação criaram um algoritmo de poda (pruning) dinâmico que reduz o tamanho de grandes modelos de linguagem (LLMs) em até 90%, mantendo praticamente a mesma precisão nas respostas.
A técnica identifica e remove conexões neurais redundantes durante o processo de inferência, em vez de apenas no treinamento. Isso significa que IAs poderosas, que antes exigiam servidores gigantescos com múltiplas GPUs, agora podem rodar localmente em smartphones e laptops de alto desempenho.
Essa democratização do processamento de IA tem implicações profundas para a privacidade, pois os dados dos usuários não precisam mais ser enviados para a nuvem. Além disso, reduz significativamente a pegada de carbono associada ao consumo de energia dos data centers.