Selon Coin World, Jack Clark, cofondateur d'Anthropic et ancien directeur des politiques chez OpenAI, a mentionné l'importance de l'entraînement décentralisé dans sa newsletter hebdomadaire consacrée aux actualités de l'IA, Import AI. Il a indiqué que l'entraînement décentralisé peut améliorer la confidentialité des données et la robustesse du système par l'apprentissage distribué sur plusieurs nœuds. Il a cité un rapport de recherche d'Epoch AI analysant plus de 100 articles connexes, révélant que : l'échelle de calcul de l'entraînement décentralisé augmente à une vitesse de 20 fois par an (bien supérieure au taux de croissance annuel de 5 fois de l'entraînement centralisé à la pointe). L'entraînement décentralisé actuel est environ 1000 fois plus petit que l'entraînement centralisé à la pointe, mais il est techniquement réalisable et pourrait potentiellement soutenir un développement collectif plus large de modèles plus puissants.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Selon Coin World, Jack Clark, cofondateur d'Anthropic et ancien directeur des politiques chez OpenAI, a mentionné l'importance de l'entraînement décentralisé dans sa newsletter hebdomadaire consacrée aux actualités de l'IA, Import AI. Il a indiqué que l'entraînement décentralisé peut améliorer la confidentialité des données et la robustesse du système par l'apprentissage distribué sur plusieurs nœuds. Il a cité un rapport de recherche d'Epoch AI analysant plus de 100 articles connexes, révélant que : l'échelle de calcul de l'entraînement décentralisé augmente à une vitesse de 20 fois par an (bien supérieure au taux de croissance annuel de 5 fois de l'entraînement centralisé à la pointe). L'entraînement décentralisé actuel est environ 1000 fois plus petit que l'entraînement centralisé à la pointe, mais il est techniquement réalisable et pourrait potentiellement soutenir un développement collectif plus large de modèles plus puissants.