La v7 a enfin débarqué avec son lot de déceptions et de bonnes surprises. Comme à chaque sortie de nouveau modèle beaucoup restent sur leur faim, espérant des résultats incroyables au premier prompt, et sont déçus après une attente qui a semblé interminable. On a ce phénomène quasiment à chaque fois.

Je voulais donc faire un point vraiment important avec vous pour tirer le meilleur parti de cette v7 qu’il faudra encore approfondir mais pour laquelle certaines choses paraissent déjà évidentes.

Mais d’abord faisons rapidement un état des lieux:

Les bons cotés

  • Une meilleure compréhension des prompts et des langues
  • La possibilité d’utiliser les codes de style de référence (sref random) de la v6
  • Le « Draft Mode » outil conversationnel utilisable en vocal et en français
  • Meilleure qualité, meilleures textures et meilleure cohérence
  • Des mises à jour à venir rapidement

Les déceptions

  • Character Reference (cref) et Omni Reference retardés

  • Paramètres pas encore pris en charge: weird, remix, multi-prompts (::) et tile

  • Upscaler et Editeur fonctionne avec le modèle v6

  • Personnalisation obligatoire pour débloquer la v7

  • On est toujours sur l’ancien dataset (v4)

Les premieres satisfactions se situent pour moi au niveau du réalisme en général mais plus précisément sur les textures de peau, de matériaux et de la végétation. On a aussi une meilleure qualité des images avec moins d’artefact et d’objets parasites, mais aussi une bien meilleure définition des visages en arrière plan. Enfin des angles de vue plus dynamiques, avec moins de symétrie de façon générale et des prises de vue parfois audacieuses.

Pour ce qui est du dataset (les images servant à entrainer le modèle), un dataset plus riche est prévu pour la v7, mais il a encore besoin d’être nettoyé pour être optimal et pouvoir être utiliser. Il y a aussi un dataset finalisé pour la gestion de la génération de texte, mais l’association des deux datasets (image et texte) crée des perturbations qu’il faut d’abord régler.


L’importance de la personnalisation

Une chose qui a énervé beaucoup de monde au lancement de cette v7, est l’obligation de devoir voter pour 200 images avant de pouvoir commencer à l’utiliser. Et c’est en grande partie le but de cet article, vous faire comprendre son importance.

David Holz aime la personnalisation (il nous bassine avec depuis un an!), il a essayé sur la v6 de faire prendre la sauce sans succès.

Qu’est ce que la personnalisation ?

La personnalisation de modèle est ce qui va venir remplacer l’esthétique par défaut de Midjourney qui est influencée par le stylize (- -s de 0 à 1000). Elle est établie par le biais de votes qui consistent à départager deux images et choisir celle que vous préférez. Midjourney apprend ainsi vos préférences visuelles et utilise ces informations pour générer des images qui correspondent à vos goûts et à votre style unique.

sans personnalisation

même prompt avec ma personnalisation activée

Pourquoi nous obliger de passer par la personnalisation pour débloquer l’accès à la v7 ?

  • D’une: c’est l’occasion d’avoir des retours d’évaluations, c’est toujours bon pour mieux comprendre les goûts des utilisateurs et affiner le modèle.
  • De deux: d’être quasiment sûr que l’esthitique basée sur vos goûts vous plaira, et ce pour chacun des utilisateurs puisqu’elle est basée sur ce que chacun aime. L’esthétique par défaut de Midjourney ne plaisant pas nécessairement à tout le monde ou que dans une certaine mesure.

Tu votes pour ce que t’aimes, l’IA comprend ce que t’aimes, et produit en conséquence des rendus que t’aimes, une excellente recette pour une satisfaction maximale de tous les utilisateurs. Là où une autre IA pourra présenter des résultats que vous aimerez, et d’autres moins, puisque c’est général et que tout ne peut pas être du goût de tout le monde.

Je soupçonne même d’avoir dégrader l’esthétique par défaut de Midjourney pour que les utilisateurs se tournent vers la personnalisation et être sûr d’avoir un produit qui leur plait; mais c’est possible aussi que ce soit la nouvelle architecture du modèle qui veuille cela, et que du coup ça soit aussi si important de forcer la personnalisation.

Du coup l’importance d’utiliser la personnalisation et de bien réaliser les votes qui vont la définir sont primordiaux ! C’est ce qui va vous permettre de tirer le meilleur parti de ce nouveau modèle.

Je sais au début on est surtout pressé d’essayer cette v7 et on a donc envie d’aller vite, mais c’est surtout ce qu’il ne faut pas faire.

Prenez le temps de bien faire vos votes, à « skip » (passer) quand aucune des deux images ne vous plait ou qu’elles vous plaisent que moyennement, et à « skip » aussi quand vous n’arrivez pas à les départager. Vous n’en serrez que plus satisfait par la suite.

Personnellement je « skip » près de deux tiers des votes, ça prend plus de temps mais les résultats n’en seront que meilleurs. Si vous avez déjà fait des votes « à la va vite » pas de panique, vous pouvez faire d’autres profils de personnalisation, vous pouvez donc même en imaginer pour des cas d’usage différents.

Le code correspondant à un profil de personnalisation évolue au fil des votes (au même titre qu’un moodboard lorsque vous y ajoutez ou enelevez des images), un nouveau code serra attribué à chaque fois que vous aurez fait une nouvelle cession de votes. Pour afficher tout vos codes taper la commande /list_personalize_codes  sur discord.

On ne sait pas exactement ce qui est pris en compte à chacun des votes (bien que parfois on s’en doute fortement), ça peut être la colorimétrie, le type de plan, la quantité de détails, la composition, la profondeur de champ, le type de rendu, etc;  et c’est sur l’ensemble des votes que se forme votre esthétique propre, ce qui va permettre de sortir de l’esthétique classique par défaut de Midjourney, d’obtenir des clichés plus originaux et personnels, et ainsi obtenir aussi beaucoup plus de diversité sur l’ensemble des utilisateurs.

Bref ne tirez pas de conclusions trop hâtives et négligez pas la personnalisation!


Le Draft Mode

La Draft Mode est une nouvelle approche vraiment intéressante de la part de Midjourney, il va vous permettre d’explorer différentes idées et d’incrémenter ou modifier les résultats obtenus pour vous diriger vers ce que vous souhaitez.

La grande nouveauté est que vous pouvez discuter en vocal avec midjourney qui va se charger d’interpreter votre requête et de rédiger un prompt développé qui serra adapté à la concrétisation de votre idée.

Vous allez pouvoir ensuite continuer la discussion pour modifier des éléments, en apporter de nouveaux, changer le type de rendu, définir un nouvel angle de vue, changer le format de l’image, etc

Chaque nouvelle requête va faire évoluer le prompt de votre dernier rendu et ainsi continuer à faire évoluer vos idées.

Le mode Draft (brouillon) produit des images très rapidement mais aussi de moindre qualité, vous pouvez obtenir un rendu de qualité en utilisant la commande « enhance » (améliorer) mais on regrettera qu’il ne garde pas les structures des images initialement générées.

Dans cet exemple très simple, je demande (en français et à l’oral)

  1. une route côtière en Grèce
  2. rajoute une voiture de sport
  3. ajoute une maison moderne de luxe
  4. change la couleur de la voiture en violet

Ce qui est aussi vraiment intéressant dans cette approche, c’est le coté prompteur de cette fonctionnalité, puisque le Draft Mode va générer des prompts parfaitement adaptés au bot, qui vont donc être d’une grande utilité pour mieux comprendre la syntaxe et les termes qui permettent d’obtenir de meilleurs résultats.

Voici le prompt que j’obtiens à la fin de la 4ème étape:

a scenic coastal road in southern Greece, winding along cliffs, with turquoise sea, lush greenery, traditional white houses, and clear blue sky, a violet sports car driving along the road, a modern luxury house perched on the cliffside, in the style of landscape photography, vibrant, warm lighting, serene and idyllic atmosphere, 16:9

Pour mieux apprendre à utiliser cette v7

La meilleure façon d’approfondir notre façon d’aborder ce nouveau modèle est de partager nos experiences, d’échanger, d’essayer ensemble, de comprendre ce qui marche et ce qui ne marche pas.

C’est ce que nous faisons sur le serveur discord GeniArt, la communauté s’est emparée de l’outil dès sa sortie et nous avons pu grâce aux retours de chacun mieux apprendre à utiliser cette v7. Comme tout nouveau modèle cela prend du temps et d’être de nombreux passionnés nous permet d’aller plus vite et plus loin.

Merci à tous Ceux qui ont participé à tous ces échanges.

Je vous laisse avec une partie des créations qui ont été partagées sur le serveur dès le premier jour de la sortie du nouveau modèle de Midjourney.
Merci entre autres à Ludovic, Filschics, Jeje, Tama, Aeris, Thibault (les tutos midjourney), Catherine, loup69, stachmou.

Ressources complémentaires

Comme d’habitude je vous invite à aller visionner l’excellente vidéo de Thibault sur sa chaine Les Tutos Midjourney.

Vous pouvez aussi aller consulter le guide spécial v7 qui a été partagé par Clarinet, qui est la personne en charge de la FAQ sur le serveur discord officiel de Midjourney. Elle nous partage aussi un GPTs pour nous aider à rédiger nos prompts sur cette v7.

Je vous propose aussi le replay de l’émission IA PLUS KA que nous avons consacrée à la sortie de cette v7, ainsi que la très bonne vidéo de Mathieu Ibanez. À ce sujet, sachez que vous pouvez bénéficier de 10% de réduction supplémentaire pour l’achat de la bibliothèque Ultima avec le code Geniart.

Midjourney V7 Prompting Guide