a16z:大模型部署即遗忘,“持续学习”能否打破僵局?

a16z: Implantação de grandes modelos é esquecimento — o 'aprendizado contínuo' pode quebrar o impasse?

BroadChainBroadChain24/04/2026
Este conteúdo foi traduzido por IA
Resumo

a16z aponta que grandes modelos de linguagem não conseguem aprender novos conhecimentos após a impla

BroadChain informa que, às 14:00 de 24 de abril, os Modelos de Linguagem de Grande Escala (LLMs) entram em um estado "congelado" após a conclusão do treinamento, operando apenas com base na janela de contexto e em patches externos, como a Geração Aumentada por Recuperação (RAG), após a implantação. Dois sócios da a16z apontam que isso é semelhante ao protagonista do filme "Memento": capaz de recuperar informações, mas incapaz de realmente aprender novos conhecimentos. Eles sistematizaram a direção de pesquisa de ponta chamada "aprendizado contínuo", analisando o campo a partir de três dimensões: contexto, módulos e atualizações de peso.

O aprendizado no contexto (ICL) é eficaz, mas aplicável apenas a problemas cujas respostas ou fragmentos já existem no mundo. Para questões que exigem descoberta genuína (como novas provas matemáticas), cenários adversariais (como testes de segurança de equipe vermelha) ou conhecimento tácito difícil de articular, o modelo precisa incorporar novas experiências diretamente nos parâmetros após a implantação. O aprendizado no contexto é temporário; o verdadeiro aprendizado requer compressão.

O aprendizado contínuo não é um conceito novo (datado de 1989), mas a a16z considera esta uma das direções mais importantes da IA atualmente. O crescimento explosivo das capacidades dos modelos nos últimos dois ou três anos ampliou o fosso entre o que o modelo "sabe" e o que "pode saber". Se for possível fazer o modelo aprender sua própria arquitetura de memória, em vez de depender de ferramentas externas, isso pode desbloquear uma nova dimensão de escalabilidade.