Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Souvenez-vous des temps où maîtriser Blender semblait un exploit nécessitant des mois d'apprentissage intensif ? Aujourd'hui, c'est de l'histoire ancienne. Au cours des deux dernières années, les réseaux neuronaux se sont tellement intégrés dans la 3D qu'ils ont pratiquement fait tomber la barrière d'entrée. Désormais, chacun peut générer un modèle 3D à partir d'une photo en quelques minutes directement dans le navigateur. J'ai décidé de tester jusqu'où sont allées ces technologies en essayant plusieurs services populaires. J'ai choisi un thème classique pour l'expérimentation : les personnages issus des dessins animés de notre enfance. C'est une excellente façon de voir comment les algorithmes gèrent des images reconnaissables et transmettent des détails que nous retenons depuis des années.
Le critère de sélection était simple : un accès gratuit et honnête, sans lien avec une carte bancaire ni abonnements cachés. Voici ce que j'ai trouvé.
Tripo AI — c’est le premier service que j’ai essayé. C’est une plateforme cloud qui fonctionne directement dans le navigateur et permet de télécharger une image prête ou simplement de décrire un personnage par texte. Son principal avantage : le système comprend parfaitement le russe, donc pas besoin de se prendre la tête avec des traductions. Après inscription, ils donnent 300 crédits, une génération coûte 25 unités, ce qui fait environ 12 tentatives. Sur la version 2.5, ils offrent même cinq modèles prêts en cadeau.
Lorsque j’ai téléchargé une photo de Picsou, le réseau neuronal l’a traitée en une minute et demie. Le résultat était plutôt bon — le personnage est instantanément reconnaissable, la colorisation au niveau. Certes, les lunettes ont un peu dérapé, et les yeux ont été dupliqués sur le bec. Mais pour une expérience rapide, c’est un niveau honorable. Dans les réglages, on peut choisir le style de génération, indiquer des prompts négatifs, voire définir une pose. Bonus : pour 20 crédits, on peut animer le héros, en ajoutant une animation de course ou de saut.
MESHY s’est avéré plus intéressant. Il fonctionne avec des images ou du texte et fournit immédiatement quatre options au choix. Après inscription, ils donnent 100 crédits, suffisants pour 10 modèles. La génération prend quelques minutes. La grande particularité : la fonction Texture Generator, qui, pour 10 crédits supplémentaires, ajoute des textures à un brouillon gris. Sous le capot, on trouve des modèles de diffusion entraînés sur d’immenses bibliothèques d’objets. Le résultat peut être téléchargé en GLB ou OBJ et ouvert dans Blender ou Maya.
Lorsque j’ai testé la génération d’un modèle 3D à partir d’une photo de Donald Duck, le résultat était moyen. Le personnage reste reconnaissable, mais ce n’est pas une œuvre qu’on voudrait regarder en 4K. Avec les textures, il y avait des problèmes — des zones blanches où le réseau n’a pas réussi à faire le boulot. Le bras semblait plus épais que l’autre, le nombre de doigts variait. La pose était un peu bancale, la dynamique perdue. Pour un croquis rapide, ça passe, mais pour un projet final, il faudra beaucoup de retouches manuelles.
Trellis — c’est une création de Microsoft, accessible gratuitement sur Hugging Face. Il ne fonctionne qu’avec des images, il ne comprend pas les requêtes textuelles. Mais il offre beaucoup de réglages : on peut changer le seed, la force de l’attachement à l’original, le nombre d’étapes. La grande nouveauté : le mode Multiple Images. Si vous téléchargez plusieurs vues d’un personnage sous différents angles, le réseau comprendra mieux la forme de l’objet. Pour le dessin plat des vieux dessins animés, c’est une vraie révolution.
Jinni de Luma Labs mise sur la rapidité. Vous décrivez un objet par texte, le système le transforme en modèle 3D en deux minutes. Quatre options sortent immédiatement, que vous pouvez faire tourner directement dans le navigateur. La génération n’est pas limitée, vous pouvez expérimenter autant que vous voulez. Mais il y a un hic : uniquement des requêtes textuelles, impossible de télécharger une image. Il gère bien les objets inanimés, mais pour les visages et les petits détails, le résultat est souvent flou. L’export est pratique : le système choisit automatiquement le format adapté à votre usage suivant.
Lorsque j’ai essayé de créer Ariel à partir d’une description textuelle, le résultat était faible. Les textures étaient mal alignées, les détails flous, la géométrie parfois déformée. On peut reconnaître le personnage, mais la liste des qualités s’arrête là. Pour des personnages organiques complexes, cet outil n’est clairement pas adapté.
Hightem se positionne comme un outil pour des modèles très détaillés. Les développeurs insistent sur la qualité des textures et la propreté du maillage polygonal. Il fonctionne avec du texte et des images, l’interface est épurée. La génération prend quelques minutes. L’export vers les formats standards — GLB, OBJ. Idéal quand on a besoin non pas d’un simple bloc, mais d’un modèle avec une apparence soignée.
Lorsque j’ai téléchargé une photo d’un personnage de dessin animé classique, le résultat a été l’un des meilleurs de tout l’essai. Le personnage ressemble beaucoup à l’original, le modèle est correct, même si la couleur doit être retravaillée — l’original est plus saturé.
Masterpiece X mise sur la description textuelle. La fonction basée sur l’image est peu performante. Lors de l’inscription, ils donnent 250 crédits pour cinq tentatives. Il y a un éditeur Sculpt intégré, où l’on peut ajuster la forme directement dans le navigateur. Si les couleurs ne conviennent pas, on passe en mode Paint pour peindre manuellement ou lancer une amélioration automatique des textures. La modélisation est préparée pour être transférée dans d’autres logiciels — ils créent eux-mêmes les UV et appliquent les matériaux.
Lorsque j’ai essayé de créer un génie, le résultat était moyen. La détail était moyen, les textures ressemblent à un brouillon grossier. Le réseau ne répondait pas très bien aux instructions — au lieu d’un génie classique, j’ai obtenu un personnage ressemblant étrangement à Will Smith dans un film. La lampe magique a été remplacée par un chaudron. La colorisation laisse à désirer.
Après tous ces tests, il est clair : les designers 3D professionnels peuvent dormir tranquille pour l’instant. Les réseaux neuronaux ne sont pas encore prêts à leur prendre leur métier. Obtenir quelque chose de vraiment valable en un clic, c’est comme essayer de peindre un chef-d’œuvre les yeux bandés. Il faut continuer à essayer, changer d’image, reformuler ses requêtes. Et les tentatives gratuites ont tendance à s’arrêter au moment où l’on commence à comprendre comment fonctionne l’algorithme.
La vérité, c’est que les réseaux neuronaux ne sont bons que lorsqu’ils sont dirigés par un humain. Sans regard créatif, idées et capacité à peaufiner la modélisation dans un éditeur, ils restent simplement un ensemble d’outils. Ils peuvent produire une maquette standard, mais seul toi peux insuffler la vie au personnage et le rendre original. La technologie, ce sont des assistants qui font gagner du temps sur la routine.
Si vous avez déjà expérimenté la génération de modèles 3D à partir de photos avec un réseau neuronal, partagez vos résultats. Peut-être avez-vous un service préféré que j’ai manqué, ou une méthode pour faire fonctionner ces algorithmes à la perfection. Je suis curieux de connaître votre expérience.