ÚLTIMA HORA: Um estudo liderado pela DeepSeek sugere que os grandes modelos de linguagem estão a desperdiçar demasiado cálculo ao tentar reconstruir conhecimentos estáticos dentro do Transformer.


A sua solução é o Engram, um módulo de memória condicional que combina buscas O(1) com uma arquitetura MoE, e que em testes internos mostrou melhorias em conhecimentos, raciocínio, programação, matemática e tarefas de contexto longo.
Ver original
post-image
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar