Il existe un article de recherche perspicace qui mérite toute votre attention si vous vous intéressez à la façon dont les systèmes d'IA modernes fonctionnent réellement à un niveau fondamental.



Les travaux académiques récents ont découvert quelque chose de fascinant : la formation standard des transformateurs n'apprend pas simplement des motifs de manière aléatoire — elle exécute implicitement un algorithme d'Expectation-Maximization en coulisses. Voici la décomposition qui fait sens :

Les mécanismes d'attention réalisent l'étape E, en effectuant essentiellement des assignations souples des positions de tokens qui comptent réellement et méritent une attention computationnelle. Pendant ce temps, les transformations de valeur exécutent l'étape M, en affinant et en mettant à jour de manière itérative les représentations apprises en fonction de ces pondérations d'attention.

Cette connexion entre l'architecture du transformateur et les algorithmes EM a des implications majeures pour quiconque construit une infrastructure d'IA ou étudie la façon dont les réseaux neuronaux traitent des données séquentielles. Elle suggère que ces modèles résolvent des problèmes d'optimisation d'une manière très spécifique et structurée — pas par une recherche brute de motifs, mais par un cadre probabiliste élégant.

Pour les développeurs travaillant sur des systèmes blockchain ou des protocoles distribués, comprendre ces mécanismes sous-jacents peut orienter de meilleures décisions architecturales. L'article offre une perspective mathématique qui explique pourquoi les transformateurs fonctionnent si bien.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 7
  • Reposter
  • Partager
Commentaire
0/400
SeeYouInFourYearsvip
· Il y a 4h
ngl, cette approche EM est quand même intéressante, le transformer c'est en fait jouer à un jeu de probabilités
Voir l'originalRépondre0
QuietlyStakingvip
· Il y a 4h
Donc, le transformer est en fait en train de faire discrètement l'algorithme EM... Si j'avais su ça plus tôt, je pense que beaucoup de choses seraient devenues beaucoup plus claires.
Voir l'originalRépondre0
GasFeeVictimvip
· Il y a 4h
C'est un peu confus... le transformer exécute en fait l'algorithme EM ? Ça me semble un peu trop académique, je voulais juste savoir en quoi cela n'aide pas pour les frais de gas.
Voir l'originalRépondre0
Lonely_Validatorvip
· Il y a 5h
Oh, cette thèse semble pas mal, j'ai déjà entendu parler de l'utilisation de transformer pour l'algorithme EM, je trouve que c'est un peu trop d'explications. Arrête de parler, je veux juste savoir en quoi cette chose peut aider pour les modèles en chaîne... Ce cadre mathématique a l'air pas mal, mais en pratique, combien peut-on optimiser ? Emm, encore une explication des principes fondamentaux, quand pourra-t-on voir une amélioration des performances... Se contenter de l'algorithme EM, c'est inutile, le plus important c'est la mise en œuvre technique. C'est intéressant, mais j'ai l'impression que le monde académique complique souvent des choses simples.
Voir l'originalRépondre0
DegenRecoveryGroupvip
· Il y a 5h
L'idée que le transformer exécute l'algorithme EM est intéressante, mais on a l'impression que le milieu académique essaie simplement de donner une nouvelle image à des concepts déjà connus...
Voir l'originalRépondre0
ShibaSunglassesvip
· Il y a 5h
Le mécanisme d'attention utilise-t-il l'algorithme EM ? Cette logique est un peu dingue, je n'avais jamais pensé à le voir sous cet angle...
Voir l'originalRépondre0
ReverseTradingGuruvip
· Il y a 5h
Le transformer fonctionne-t-il avec l'algorithme EM ? Cette fois, l'algorithme va perdre son emploi haha
Voir l'originalRépondre0
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)