De fenômeno cultural a ferramenta de trabalho

Quando o ChatGPT estreou no fim de 2022, funcionou como um ponto de inflexão cultural e industrial, transformando os grandes modelos de linguagem (LLMs) numa espécie de aplicativo universal para milhões de pessoas. Mas, à medida que o impacto inicial da tecnologia se dissipa, a indústria já olha para além do chatbot. A próxima fase, que alguns chamam de "LLMs+", abandona a geração simples de texto em direção a sistemas capazes de resolver problemas complexos e multietapas que hoje exigem dias ou semanas de trabalho humano.

Autonomia e eficiência como prioridades

Para alcançar esse nível de utilidade, os laboratórios de IA estão priorizando autonomia e eficiência. Se esses modelos pretendem enfrentar os desafios mais relevantes do mundo, precisam operar de forma independente por períodos prolongados, sem depender de comandos humanos constantes. Isso exige uma mudança fundamental na maneira como os modelos são construídos e alimentados — um afastamento do escalonamento por "força bruta" dos últimos anos rumo a arquiteturas mais elegantes e especializadas.

Além do Transformer: novas arquiteturas em disputa

Uma das abordagens mais promissoras é a chamada "mixture-of-experts" (MoE). Em vez de ativar um modelo monolítico para cada consulta, a MoE divide o LLM em unidades menores e especializadas. Ao acionar apenas as partes do modelo relevantes para uma tarefa específica, os desenvolvedores conseguem reduzir de forma significativa o custo computacional e o consumo de energia necessários para operá-los. Outros pesquisadores vão além e questionam a própria hegemonia do Transformer — a arquitetura de rede neural que sustenta praticamente todos os LLMs atuais —, investigando se modelos de difusão, tipicamente usados para geração de imagens, podem oferecer um caminho mais robusto.

Com reportagem de MIT Technology Review.

Source · MIT Technology Review