Redução será impulsionada por avanços tecnológicos, mas aumento no uso e na complexidade das aplicações pode elevar o gasto total com IA
IA – O custo de uso da inteligência artificial generativa deve cair de forma significativa nos próximos anos, segundo projeção do Gartner. A consultoria estima uma redução superior a 90% no custo de inferência em modelos de linguagem de grande porte (LLMs) com 1 trilhão de parâmetros até 2030, em comparação com 2025.
De acordo com a análise, essa queda será impulsionada por uma combinação de fatores tecnológicos, como melhorias em semicondutores, evolução na arquitetura dos modelos, maior eficiência no uso de chips e a adoção crescente de silício especializado e computação de borda.
LEIA: Justiça dos EUA condena Meta e Google por vício de adolescentes em redes sociais
O Gartner também projeta que, até o fim da década, modelos desse porte poderão ser até 100 vezes mais eficientes em custo em relação aos primeiros sistemas equivalentes desenvolvidos em 2022.
Para chegar a essas estimativas, a consultoria considerou dois cenários distintos de infraestrutura. Um deles é baseado em chips de última geração (frontier), enquanto o outro combina tecnologias mais novas com semicondutores legados (legacy blend). Neste segundo cenário, os custos permanecem mais elevados devido à menor capacidade computacional disponível.
Apesar da tendência de queda no custo unitário dos tokens, unidades de dados processadas pelos modelos de IA generativa, o Gartner alerta que essa redução não será totalmente repassada às empresas. Além disso, aplicações mais avançadas, como sistemas baseados em agentes, tendem a demandar um volume significativamente maior de tokens por tarefa, variando entre cinco e 30 vezes o consumo de um chatbot tradicional.
Esse aumento no uso pode neutralizar parte dos ganhos de eficiência. Mesmo com a redução no preço por token, o crescimento no volume de consumo deve pressionar os custos totais de inferência. A avaliação é de que a expansão do uso da IA generativa, somada à maior complexidade das aplicações, pode levar a um aumento no gasto geral com processamento.
Diante desse cenário, o Gartner aponta que o diferencial competitivo estará nas plataformas capazes de orquestrar diferentes modelos de forma eficiente. A recomendação é direcionar tarefas recorrentes para modelos menores e especializados, enquanto modelos maiores devem ser utilizados apenas em aplicações que exijam raciocínio mais complexo e ofereçam maior retorno financeiro.
(Com informações de TI Inside)
(Foto: Reprodução/Freepik/Frolopiaton Palm)