Souvenez-vous des temps où maîtriser Blender semblait un exploit nécessitant des mois d'apprentissage intensif ? Aujourd'hui, c'est de l'histoire ancienne. Au cours des deux dernières années, les réseaux neuronaux se sont tellement intégrés dans la 3D qu'ils ont pratiquement fait tomber la barrière d'entrée. Désormais, chacun peut générer un modèle 3D à partir d'une photo en quelques minutes directement dans le navigateur. J'ai décidé de tester jusqu'où sont allées ces technologies en essayant plusieurs services populaires. J'ai choisi un thème classique pour l'expérimentation : les personnages issus des dessins animés de notre enfance. C'est une excellente façon de voir comment les algorithmes gèrent des images reconnaissables et transmettent des détails que nous retenons depuis des années.



Le critère de sélection était simple : un accès gratuit et honnête, sans lien avec une carte bancaire ni abonnements cachés. Voici ce que j'ai trouvé.

Tripo AI — c’est le premier service que j’ai essayé. C’est une plateforme cloud qui fonctionne directement dans le navigateur et permet de télécharger une image prête ou simplement de décrire un personnage par texte. Son principal avantage : le système comprend parfaitement le russe, donc pas besoin de se prendre la tête avec des traductions. Après inscription, ils donnent 300 crédits, une génération coûte 25 unités, ce qui fait environ 12 tentatives. Sur la version 2.5, ils offrent même cinq modèles prêts en cadeau.

Lorsque j’ai téléchargé une photo de Picsou, le réseau neuronal l’a traitée en une minute et demie. Le résultat était plutôt bon — le personnage est instantanément reconnaissable, la colorisation au niveau. Certes, les lunettes ont un peu dérapé, et les yeux ont été dupliqués sur le bec. Mais pour une expérience rapide, c’est un niveau honorable. Dans les réglages, on peut choisir le style de génération, indiquer des prompts négatifs, voire définir une pose. Bonus : pour 20 crédits, on peut animer le héros, en ajoutant une animation de course ou de saut.

MESHY s’est avéré plus intéressant. Il fonctionne avec des images ou du texte et fournit immédiatement quatre options au choix. Après inscription, ils donnent 100 crédits, suffisants pour 10 modèles. La génération prend quelques minutes. La grande particularité : la fonction Texture Generator, qui, pour 10 crédits supplémentaires, ajoute des textures à un brouillon gris. Sous le capot, on trouve des modèles de diffusion entraînés sur d’immenses bibliothèques d’objets. Le résultat peut être téléchargé en GLB ou OBJ et ouvert dans Blender ou Maya.

Lorsque j’ai testé la génération d’un modèle 3D à partir d’une photo de Donald Duck, le résultat était moyen. Le personnage reste reconnaissable, mais ce n’est pas une œuvre qu’on voudrait regarder en 4K. Avec les textures, il y avait des problèmes — des zones blanches où le réseau n’a pas réussi à faire le boulot. Le bras semblait plus épais que l’autre, le nombre de doigts variait. La pose était un peu bancale, la dynamique perdue. Pour un croquis rapide, ça passe, mais pour un projet final, il faudra beaucoup de retouches manuelles.

Trellis — c’est une création de Microsoft, accessible gratuitement sur Hugging Face. Il ne fonctionne qu’avec des images, il ne comprend pas les requêtes textuelles. Mais il offre beaucoup de réglages : on peut changer le seed, la force de l’attachement à l’original, le nombre d’étapes. La grande nouveauté : le mode Multiple Images. Si vous téléchargez plusieurs vues d’un personnage sous différents angles, le réseau comprendra mieux la forme de l’objet. Pour le dessin plat des vieux dessins animés, c’est une vraie révolution.

Jinni de Luma Labs mise sur la rapidité. Vous décrivez un objet par texte, le système le transforme en modèle 3D en deux minutes. Quatre options sortent immédiatement, que vous pouvez faire tourner directement dans le navigateur. La génération n’est pas limitée, vous pouvez expérimenter autant que vous voulez. Mais il y a un hic : uniquement des requêtes textuelles, impossible de télécharger une image. Il gère bien les objets inanimés, mais pour les visages et les petits détails, le résultat est souvent flou. L’export est pratique : le système choisit automatiquement le format adapté à votre usage suivant.

Lorsque j’ai essayé de créer Ariel à partir d’une description textuelle, le résultat était faible. Les textures étaient mal alignées, les détails flous, la géométrie parfois déformée. On peut reconnaître le personnage, mais la liste des qualités s’arrête là. Pour des personnages organiques complexes, cet outil n’est clairement pas adapté.

Hightem se positionne comme un outil pour des modèles très détaillés. Les développeurs insistent sur la qualité des textures et la propreté du maillage polygonal. Il fonctionne avec du texte et des images, l’interface est épurée. La génération prend quelques minutes. L’export vers les formats standards — GLB, OBJ. Idéal quand on a besoin non pas d’un simple bloc, mais d’un modèle avec une apparence soignée.

Lorsque j’ai téléchargé une photo d’un personnage de dessin animé classique, le résultat a été l’un des meilleurs de tout l’essai. Le personnage ressemble beaucoup à l’original, le modèle est correct, même si la couleur doit être retravaillée — l’original est plus saturé.

Masterpiece X mise sur la description textuelle. La fonction basée sur l’image est peu performante. Lors de l’inscription, ils donnent 250 crédits pour cinq tentatives. Il y a un éditeur Sculpt intégré, où l’on peut ajuster la forme directement dans le navigateur. Si les couleurs ne conviennent pas, on passe en mode Paint pour peindre manuellement ou lancer une amélioration automatique des textures. La modélisation est préparée pour être transférée dans d’autres logiciels — ils créent eux-mêmes les UV et appliquent les matériaux.

Lorsque j’ai essayé de créer un génie, le résultat était moyen. La détail était moyen, les textures ressemblent à un brouillon grossier. Le réseau ne répondait pas très bien aux instructions — au lieu d’un génie classique, j’ai obtenu un personnage ressemblant étrangement à Will Smith dans un film. La lampe magique a été remplacée par un chaudron. La colorisation laisse à désirer.

Après tous ces tests, il est clair : les designers 3D professionnels peuvent dormir tranquille pour l’instant. Les réseaux neuronaux ne sont pas encore prêts à leur prendre leur métier. Obtenir quelque chose de vraiment valable en un clic, c’est comme essayer de peindre un chef-d’œuvre les yeux bandés. Il faut continuer à essayer, changer d’image, reformuler ses requêtes. Et les tentatives gratuites ont tendance à s’arrêter au moment où l’on commence à comprendre comment fonctionne l’algorithme.

La vérité, c’est que les réseaux neuronaux ne sont bons que lorsqu’ils sont dirigés par un humain. Sans regard créatif, idées et capacité à peaufiner la modélisation dans un éditeur, ils restent simplement un ensemble d’outils. Ils peuvent produire une maquette standard, mais seul toi peux insuffler la vie au personnage et le rendre original. La technologie, ce sont des assistants qui font gagner du temps sur la routine.

Si vous avez déjà expérimenté la génération de modèles 3D à partir de photos avec un réseau neuronal, partagez vos résultats. Peut-être avez-vous un service préféré que j’ai manqué, ou une méthode pour faire fonctionner ces algorithmes à la perfection. Je suis curieux de connaître votre expérience.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler