Mise à jour Midjourney2024-09-07T21:46:52+02:00

Février 2022

Midjourney V1

12 Avril 2022

Midjourney V2

25 Juillet 2022

Midjourney V3

5 Novembre 2022

Midjourney V4

21 Décembre 2022

Niji V4

15 Mars 2023

Midjourney v5

28 Mars 2023

Fin de l'offre gratuite

4 Avril 2023

Niji V5

3 Mai 2023

Midjourney V5.1

23 Juin 2023

Midjourney V5.2

30 Juin - 3 Juillet 2023

fonction --weird Panoramique

21 Aout 2023

Inpainting (Vary Region)

14 Octobre 2023

App Mobile NiJi

18 Octobre 2023

Upscaler (x2) et (x4)

24 Octobre 2023

Nouveau Site Web (phase 1)

02 Novembre 2023

Style Tuner

12 Décembre 2023

Site en Alpha génération d'images en ligne

21 Décembre 2023

Modèle V6 !

6 janvier 2024

Mise à jour V6 alpha

25 janvier 2024

Pan / Zoom / Inpainting V6 Alpha

30 janvier 2024

NiJi V6 Alpha

31 janvier 2024

Référence de style --sref

11 Mars 2024

Référence de personnage --cref

23 Avril 2024

Styles aléatoires

12 Juin 2024

Personnalisation de modèle

30 Juillet 2024

Midjourney V6.1

Historiques des Mises à Jour (Annonces officielles) :

⛵️📢 Des tests et questionnaires pour du GPU gratuit

Nous avons deux petites nouveautés aujourd’hui :

  •  Nous publions un test de personnalité pour aider à comprendre les origines de la beauté… En gros, quel est le lien entre notre personnalité et ce que nous trouvons beau et comment nous voyons la beauté différemment ?

Faites le test sur https://midjourney.com/surveys?survey=personality-ambi

Le test devrait prendre environ 15 minutes et vous donnera une TONNE de résultats amusants sur vous-même à la fin. Il contribuera également à nos recherches de pointe. Aucun abonnement n’est nécessaire pour faire le test, mais les abonnés recevront 2 heures de gpu gratuites après l’avoir fait.

  •  Nous ajoutons de nouveaux tests de classement par paires pour permettre à la communauté d’améliorer la précision des prompts et les modèles Niji :
    Classez la précision des messages ici : http://midjourney.com/rank-accuracy
    Classer les images de Niji (anime) ici : http://midjourney.com/rank-niji
    Les 2000 meilleurs classeurs de paires obtiennent 1 heure de Gpu gratuit par jour.

Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de nos modèles et de la science ! Nous sommes impatients de partager les résultats avec vous et d’en explorer le sens ensemble.

(Voici un petit exemple de quelques dizaines d’éléments parmi les 200 mesurés par le test).

⛵️📢 Ouverture du site et Essais gratuits!

Aujourd’hui, nous ouvrons la création d’images sur le web à tout le monde !

Tout le monde peut maintenant aller sur notre site web et commencer à créer des images.

Pour permettre aux gens de jouer avec le nouveau site, nous avons temporairement mis en place des essais gratuits (~25 images).

Attention
🔸Vous devez toujours vous connecter avec votre compte discord sur le site web si vous voulez avoir l’historique de vos images créées sur discord.
🔸Vous pouvez fusionner vos comptes discord et Google dans votre onglet « compte » si vous souhaitez pouvoir vous connecter avec l’un ou l’autre à l’avenir.
🔸Les nouveaux utilisateurs peuvent s’inscrire en utilisant leur compte Google ou leur compte Discord.

⛵️📢 Nous publions aujourd’hui la version 6.1 de nos modèles d’images Midjourney.

🔶Quelles sont les nouveautés de la V6.1 ?

🔹Plus d’images cohérentes (bras, jambes, mains, corps, plantes, animaux, etc)
🔹Une bien meilleure qualité d’image (réduction des artefacts de pixels, amélioration des textures, de la peau, rétro 8bit, etc.)
🔹Caractéristiques des petites images plus précises, détaillées et correctes (yeux, petits visages, mains éloignées, etc.)
🔹Nouveaux upscalers avec une bien meilleure qualité d’image et de texture
🔹Environ 25 % plus rapide pour les travaux d’image standard
🔹Amélioration de la précision du texte (lors du dessin de mots par le biais de « citations » dans les prompts)
🔹Un nouveau modèle de personnalisation avec plus de nuances, de surprise et de précision
🔹Versioning du code de personnalisation (utilisez n’importe quel code de personnalisation d’un ancien travail pour utiliser le modèle de personnalisation et les données de ce travail).
🔹Un nouveau mode –q 2 qui prend 25 % de temps en plus pour ajouter (parfois) plus de texture au prix d’une réduction de la cohérence de l’image.
🔹Les choses devraient être « généralement plus belles » dans l’ensemble.

🔶Autres notes importantes :

🔹La V6.1 n’a pas encore de nouveau modèle d’inpainting/outpainting, donc si vous utilisez zoom/reframe/repainting/vary region, vous reviendrez au modèle de la V6.0.
🔹Si vous voulez revenir à la V6, allez dans /settings et cliquez sur V6 ou tapez –v 6 après votre travail (ou cliquez sur le panneau des paramètres sur le site web).

Projets futurs : Nous sortirons probablement un modèle V6.2 dans le mois à venir avec d’autres améliorations, mais nous devons d’abord rassembler autant de données que possible sur les utilisateurs de la V6.1. Ainsi, à partir d’aujourd’hui, nous ne nous contentons pas de sortir la V6.1, mais nous en faisons le modèle par défaut sur Midjourney pour tous les utilisateurs.

Nous espérons que cette nouvelle version plaira à tout le monde ! Amusez-vous bien ! ❤️

nous ajoutons aujourd’hui des options plus avancées pour --sref (références de style) et --p (personnalisation du modèle)

Nouvelles fonctionnalités pour les références de style

🔸Vous pouvez maintenant mélanger plusieurs codes --sref ensemble (par exemple --sref 123 456)
🔸Vous pouvez maintenant mélanger les urls des images de référence de style et les codes aléatoires sref (par exemple --sref 123 url).
🔸Vous pouvez pondérer des codes ou des urls individuels comme suit --sref 123::2 456::1

Nouveau mélange de personnalisation de modèle

🔸Vous pouvez maintenant mélanger plusieurs codes de personnalisation de modèle comme --p ab12ad3 cd34gl
🔸Nous avons également activé le mélange avec la même notation --p ab12ad3::2 cd34gl::1

Mélangez vos codes de personnalisation et de style avec ceux de vos amis et explorez de nouveaux espaces d’harmonie esthétique mutuelle !

⛵️📢 Enquête Midjourney récompensés par 2h de fast GPU

Nous lançons un nouveau projet de recherche sur les origines de la beauté… En gros, quand trouvons-nous quelque chose de beau collectivement et quand voyons-nous la beauté différemment ?

Pour ce faire, nous comparons les modèles personnalisés que les gens fabriquent aux réponses de plusieurs nouvelles enquêtes.

La première enquête porte sur les données démographiques : comment des facteurs tels que l’âge, le sexe, le pays, etc. influencent-ils ce que nous trouvons beau ?

Répondez à l’enquête ici : https://www.midjourney.com/surveys?survey=demographics

Elle prend ~5 minutes et chaque personne qui la complète reçoit 2 heures de gpu rapide en récompense.

Nous essaierons d’utiliser ces données pour partager de nouvelles connaissances approfondies sur l’esthétique humaine et peut-être même pour créer de nouvelles fonctionnalités qui vous permettront d’explorer ces connaissances vous-même ! Toutes les données sont privées, vous pouvez demander leur suppression à tout moment sur la page de votre compte, et vous pouvez sauter n’importe quelle question (vous recevrez des récompenses pour le pourcentage auquel vous répondez).

La prochaine enquête portera davantage sur la personnalité et devrait être publiée dans une semaine ou deux.

Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de la science. Nous avons hâte de partager les résultats avec vous et d’en explorer le sens ensemble ❤️

Nous avons apporté quelques modifications au site web afin d’en simplifier l’utilisation. Quelques changements à noter :

🔸Les outils ‘Pan’ et ‘Zoom’ sont désormais unifiés et s’appellent ‘Reframe
🔸L’outil ‘Remix’ se trouve désormais dans l’outil ‘Reframe‘. Cela vous permet de modifier le prompt lors d’un panoramique ou d’un zoom.
🔸L’outil « Vary Region » s’appelle désormais « Repaint« .
🔸Les messages d’erreur sont plus descriptifs et il n’est pas nécessaire de les survoler pour obtenir plus d’informations.
🔸La barre latérale est plus simple. Les fonctions « Rank Images » et « Rank Ideas » se trouvent désormais sur la page « Tasks« .
🔸La fonction « Signaler un bug » se trouve désormais dans le menu « Help« .

Nous sortons aujourd’hui une nouvelle version de notre modèle Niji (Niji est notre modèle spécialement conçu pour l’esthétique orientale / anime).

Nouvelles mises à jour du modèle :
🔸Amélioration du rendu du texte japonais.
🔸Le modèle peut maintenant bien rendre des textes courts en kana japonais et, dans certains cas, peut aussi rendre des textes qui incluent des caractères chinois simples.
🔸Amélioration des détails de l’image (comme la structure des yeux des animes).
🔸Correction de certains artefacts d’image qui affectaient auparavant un très petit nombre de générations.

Rappel :
🔸Vous pouvez activer Niji it en tapant /settings et en cliquant sur niji model 6 ou en tapant –niji 6 après les prompts.
🔸Vous pouvez montrer des images de Niji dans le salon #niji-showcase (sur discord)
🔸Il y a un serveur discord dédié à Niji ici (avec des canaux pour les non-anglophones).
https://discord.com/invite/nijijourney

Nous espérons que vous apprécierez ces mises à jour ! Restez à l’écoute pour plus d’infos la semaine prochaine.

🔶Nous ouvrons notre alpha web à tous ceux qui ont 100 générations ou plus (utilisez /info pour voir combien de travaux vous avez). Regardez ici : https://alpha.midjourney.com

Les principales différences entre ce site et notre site normal sont les suivantes :

🔹La possibilité de créer des images sur le web (cliquez sur « Créer »)
🔹 La possibilité d’aider à tester les premières salles publiques et de créer des images ensemble (cliquez sur « Rooms »).
La création de salles privées et personnalisées se fera dans les semaines à venir.

N’hésitez pas à nous faire part de votre avis dans la rubrique « Idées et fonctionnalités » (sur discord) .

🔶Nous offrons maintenant des copies gratuites du magazine Midjourney pour les écoles, les magasins et les groupes communautaires. Si vous vous reconnaissez dans cette offre, envoyez votre demande à https://mag.midjourney.com/distribution. Pour tous les autres, ne vous inquiétez pas, vous pouvez toujours obtenir des magazines pour 4$/mois sur https://mag.midjourney.com.

Nous testons de nouveaux algorithmes pour « explorer l’espace latent des styles visuels » et mettons à la disposition de tous un outil simple et amusant.

🔹Vous pouvez désormais taper --sref random à la fin de vos prompts et obtenir des styles totalement aléatoires.

Par exemple, en dessous de ce post, il y a 64 itérations du prompt « /imagine a field of flowers --sref random« .

Si vous aimez quelque chose que vous trouvez, utilisez --sref url avec l’url de l’image pour en obtenir d’autres.

Il s’agit d’un test d’un algorithme sous-jacent pour lequel nous créerons des outils plus avancés à l’avenir.

Pour l’instant, nous espérons que vous vous amuserez !

Deux annonces rapides :
 

🔶 Nous publions deux nouveaux algorithmes pour les références de style ainsi qu’une nouvelle fonctionnalité de « versioning ».

🔹La dernière version de l’algorithme de référence de style (maintenant par défaut) est plus précise et fonctionne pour MJ V6 et Niji V6.
🔹Vous pouvez définir la version de votre algorithme de référence de style avec --sv
🔹Vous avez le choix entre 4 options :
--sv 1 L’algorithme de référence de style original que nous avons publié avec
--sv 2 L’algorithme par défaut jusqu’à aujourd’hui
--sv 3 Une nouvelle version de sv1 avec de meilleures performances et plus « vibrant » que sv2
--sv 4 Une nouvelle version de sv2 avec de meilleures performances (c’est la version par défaut)
 

🔶 Nous revenons sur les heures de GPU gratuites pour l’évaluation des images.

🔹Les 2000 meilleurs évaluateurs obtiennent chaque jour une heure de GPU gratuite et rapide.
🔹Effectuez le classement des images ici : https://www.midjourney.com/rank
🔹Ces classements permettent d’améliorer nos algorithmes, d’alimenter la page d’exploration et seront également utilisés pour les prochaines fonctionnalités de personnalisation des modèles.
🔹Les votes sont plus rapides si vous utilisez les touches de raccourci 1/2 sur PC ou sur mobile.
🔹Veuillez prendre les classements au sérieux. Nous avons déployé un nouveau système de détection des robots et des abus. L’utilisation de bots pour les évaluations ou le fait d’appuyer sur des boutons aléatoires à plusieurs reprises peut entraîner le bannissement de votre compte. Ne le faites pas !
 
J’espère que tout le monde apprécie les nouvelles versions. Nous vous remercions de votre attention.

Nous sortons aujourd’hui la version 2 de la fonctionnalité « référence de style ».

Elle devrait être beaucoup plus précise en ce qui concerne la compréhension du style et elle devrait être beaucoup plus efficace pour éviter les « fuites » d’éléments non stylistiques dans vos images. Nous avons également amélioré le fonctionnement du paramètre de poids –sw, afin qu’il soit plus significatif et qu’il ait une plus grande portée.

🔶Qu’est-ce qu’une référence de style ?

Les références de style vous permettent de référencer le style d’une autre image ou de conserver un style cohérent sur plusieurs images. Il s’agit d’un outil similaire aux prompts d’images, mais qui se concentre uniquement sur le style.

🔶Comment l’utiliser à nouveau ?

Pour utiliser une référence de style, tapez –sref URL après votre prompt avec l’url d’une image. Pour augmenter l’influence du style, appliquez un poids de style (–sw) proche de 1000. Pour diminuer la puissance du style, définissez le poids plus proche de –sw 0 (la valeur par défaut est 100). Vous pouvez également ajouter plusieurs références de style.

Voici un exemple bête et rapide utilisant un dessin au crayon de couleur comme référence. Quoi qu’il en soit, nous espérons que vous vous amuserez ! ❤️

Qu’est-ce que le Turbo mode ?

🔹Les travaux en mode turbo sont 3,5 fois plus rapides pour un coût deux fois plus élevé (~10 secondes contre ~35 secondes).
🔹Ils sont exécutés sur les machines GPU les plus rapides possibles (c’est pourquoi ils sont à la fois plus rapides et plus chers).
🔹C’est idéal pour les groupes, les événements publics, chaque fois que vous êtes pressé ou que vous avez besoin de rapidité.

Comment l’utiliser / comment ça marche

🔹Tapez /turbo et tous vos travaux /imagine seront 3,5 fois plus rapides (pour un coût en gpu de 2 fois supérieur au mode fast).
🔹On peut aussi indiquer --turbo à la fin du prompt
🔹Le mode turbo prend actuellement en charge les travaux /imagine vary et remix (mais pas encore sref).
🔹Tous les travaux qui ne sont pas pris en charge par le mode turbo sont exécutés comme des travaux normaux (à un coût normal).

C’est assez fou d’avoir une V6 à 3,5 fois la vitesse. Profitez-en et amusez-vous bien !

commande /describe pour la V6.

A la base, midjourney passe normalement du texte à l’image et cette commande vous permet de passer de l’image au texte.

Nous sommes encore en train de peaufiner les choses, mais cette nouvelle version de describe est destinée à produire des messages plus longs et plus détaillés, spécialement adaptés à la V6.

Deux changements ont récemment été apportés à la version 6 :

🔸Un ajustement qui améliore légèrement les détails fins dans certains scénarios et réduit les textures répétitives non naturelles (dans des endroits comme le feuillage lointain, le sol, les textiles / tissu, la peau, les cheveux / la fourrure, etc.). Vous pourriez également remarquer un rendu de texte légèrement amélioré et un peu moins de problèmes d’anatomie/main.

  • Il est possible que certains prompts pixelart se révèlent moins « propres » qu’auparavant, contenant maintenant du bruit ou du grain. Si vous voyez cela, essayez d’utiliser –q 0.5. Il est plus similaire aux paramètres précédents (et plus rapide!).

🔸Les upscalers v6 x2 agissent désormais de manière plus similaire aux upscalers Niji 6. Les Upscales subtils doivent être plus fidèles à l’image originale qu’avant, et moins susceptibles d’introduire de nouveaux artefacts indésirables.

Nous publions aujourd’hui nos premiers algorithmes de test pour les « styles persistants ». Nous appelons cette fonctionnalité « Références de style » (Style References). Elles fonctionnent de la même manière que les prompts d’images où vous donnez une URL à une ou plusieurs images qui « décrivent » le style cohérent sur lequel vous voulez travailler.

🔶Comment utiliser les références de style

🔹Tapez --sref après votre prompt et mettez une (ou plusieurs) URL d’images comme ceci –sref urlA urlB urlC
🔹Le modèle d’image considérera les URL d’images comme des « références de style » et essaiera de créer quelque chose qui « corresponde » à leur esthétique.
🔹Définir les poids relatifs des styles comme ceci --sref urlA::2 urlB::3 urlC::5
🔹Définir la force totale de la stylisation via --sw 100 (100 est la valeur par défaut, 0 est désactivé, 1000 est la valeur maximale).
🔹Les prompt d’images régulières doivent être placées avant --sref comme ceci
/imagine cat ninja ImagePrompt1 ImagePrompt2 --sref stylePrompt1 stylePrompt2
🔹Cela fonctionne pour V6 et Niji V6 (cela ne fonctionne pas avec les versions antérieures).

🔶Veuillez noter :

🔹Nous allons probablement mettre à jour ceci dans les prochaines semaines (et cela peut changer des choses, alors soyez prudent pendant que c’est encore en alpha).
🔹Si votre message tend vers le photoréalisme et que vous voulez un style divergent comme l’illustration, vous devrez peut-être ajouter un texte à votre message pour l’indiquer.
🔹Les références de style n’ont pas d’effet direct sur les prompts d’images, mais uniquement sur les travaux qui contiennent au moins un texte.
🔹Nous prévoyons d’ajouter ultérieurement une fonction « Personnage persistant » (Consistent Character) qui fonctionnera de la même manière avec l’argument --cref.

Plus d’infos et des exemples dans mon article: Les Références de Style: le nouveau jouet de Midjourney.

🔶La V6 prend désormais en charge Pan / Zoom / Vary (région)

🔹 Ces options apparaissent sous les upscales du bot v6 et sur le site alpha (sauf vary region sur le web)
🔹 Pan agit maintenant plus comme un zoom. Il devrait être plus facile à utiliser et donner des résultats de meilleure qualité (avec plus de cohérence et moins de répétition des concepts)
🔹Pan fonctionne maintenant avec upscale/vary/remix mais n’augmente plus la résolution à l’infini.

🔶 http://alpha.midjourney.com (avec création d’image) est maintenant disponible pour le 5k-club

🔹Le 5000-club comprend tous ceux qui ont fait au moins 5000 images sur Midjourney
🔹Vérifiez le nombre d’images réalisées avec /info
🔹Vous pouvez accéder au site ici : http://alpha.midjourney.com

🔶 Nouvelle fonction de d’évaluation (avis): /feedback

🔹Cela vous permet de soumettre vos principales priorités à Midjourney pour qu’ils travaillent dessus.
🔹Vous pouvez également évaluer les priorités des autres
🔹Nous utilisons ces données pour faire une seule grande liste pour aider nos ingénieurs à déterminer sur quoi ils doivent se concentrer
🔹Nous examinerons la liste publiquement aux prochaines Office Hours et montrerons des visualisations intéressantes
🔹Veuillez mettre à jour vos priorités chaque fois que nous lançons de nouvelles fonctionnalités (comme avec le lancement du vary region ci-dessus)

Mises à jour importantes de la V6 alpha. Elles s’appliquent à tous les nouveaux travaux à compter de maintenant.

Note de mise à jour V6

🔹Les upscales sont maintenant deux fois plus rapides (et utilisent deux fois moins de minutes GPU)
🔹Amélioration de l’esthétique, de la cohérence, du respect des prompts et de la qualité d’image
🔹Amélioration du rendu du texte (vous devez mettre le texte entre « guillemets » dans votre prompt)
🔹Amélioration des performances pour les valeurs de –stylize élevées
(en termes de qualité d’image, d’esthétique, de rendu du texte et de précision du prompt)

Veuillez noter : Nous continuerons à pousser les améliorations au cours des prochaines semaines alors que nous nous dirigeons vers la phase bêta officielle de V6

Ouvert pour l’instant qu’aux utilisateurs ayant plus de 10.000 générations à l’adresse: https://alpha.midjourney.com/

  • La possibilité de créer des images nativement sur le site (sans Discord).
  • Il s’agit d’un test ALPHA, ce qui signifie que ce site est une zone de construction active.
  • Les choses changeront MASSIVEMENT, sans préavis, chaque semaine pendant les prochains mois jusqu’à ce que nous soyons prêts pour une version publique ou une version bêta plus « stable ».

Quelques notes sur cet alpha

  • Vous pouvez faire glisser des images dans la barre d’image pour les utiliser dans votre prompt.
  • Le batch downloader (téléchargement par lot) n’est pas encore supporté sur ce site.
  • La version mobile n’est pas au centre de ce cycle de développement.
  • La version mobile de l’alpha sera en retard sur les fonctionnalités, il est buggué, et il y a des choses manquantes.
  • Il n’y a pratiquement aucune fonctionnalité sociale dans cet alpha, mais elles apparaîtront au cours des prochains mois
  • Autres fonctionnalités pas encore sur l’alpha : Variation (région), Style Tuner, Remix pour le zoom panoramique ou les variations fortes, zoom personnalisé (custom zoom), préférences personnalisées, suppression d’images et /describe.

Quelques exemples de choses sur lesquelles on travaille actuellement et auxquelles on pense

  • De meilleurs contrôles d’action dans la Lightbox. Peut-être un mode de vue ‘grille’.
  • Une barre /imagine différente. Une interface utilisateur/UX différente pour l’envoie d’images. Un panneau de paramètres en plein écran.
  • Une nouvelle page d’exploration (explore page)
  • Nous séparerons probablement l’affichage des travaux finis de celui des créations, et la vue des créations elle-même changera considérablement.

Plus d’infos sur mon article: Guide des sites Midjourney: Tour d’horizon des 4 versions!

Cette première version du Style Tuner va permettre de contrôler la personnalisation du style de vos rendus et de les réutiliser, les combiner et les partager.

Personnalisation de style avec la V1 du Style Tuner (Cliquez sur le lien pour plus d’infos)

– L’upscaler voit le jour avec les boutons Upscale (2x) et Upscale (4x) qui apparaissent une fois que vous avez agrandis votre image de la grille avec les boutons U1, U2, U3 ou U4. Il vous permet de doubler ou quadrupler la taille de vos images.

– Il est utilisable pour toutes les images générées depuis la V5 et NiJi 5. Pour en profiter sur des images précédant la mise à jour, utilisez la commande /show job_id.

– Il s’agit d’un upscaler subtile, c’est à dire qu’il respecte au maximum l’image originale.

Toutes les infos et tests ici: Midjourney Upscaler: Agrandir ses images ou dans la documentation midjourney.

– L’inpainting est enfin là, intégrer dans discord (version desktop et smartphone) à travers une fenêtre contextuelle lorsque l’on clique sur Vary (Region) sur les images agrandies (Upscale).

toutes les explications dans la documentation: Variations selectives.

–  Nouvelle option pour faire des panoramiques, vous pouvez étendre votre image sur les cotés à la verticale ou à l’horizontale avec les  flèches ◀️▶️?? qui s’affichent sous les agrandissements.

La V5.2 est enfin disponible avec un peu de retard
– Nouveau système d’esthétique
– Fonction Stylize plus puissante
– Nouveau mode « Haute variation »
– Nouvelle commande /shorten
– Nouvelle fonction de zoom arrière
– Retour de la commande –video

La note de mise à jour complète : Midjourney V5.2 est enfin là !

Ajout d’un nouveau style à Nijijourney (le modèle Midjourney sur le thème de l’anime).

ce style est appelé « scénique » et est destiné à de beaux arrière-plans et des personnages dans de beaux environnements.

Pour l’utiliser, activez d’abord Niji v5 avec /settings puis choisissez votre style avec --style scenic en fin de prompt.

On a évidement tester ce style pour vous : Mise à jour Niji 5 avec encore un nouveau style: scenic

Ajout de la fonction permutation qui permet de générer rapidement des variantes d’un prompt avec une seule requête.

Cette fonctionnalité est actuellement limitée aux abonnés ayant souscris au plan standard (à 30$/mois) ou au plan pro (à 60$/mois)


Présentation de la fonction de répétition (–repeat)
– Tapez --repeat avec un nombre pour exécuter ce travail autant de fois que souhaitées.
– Par exemple /imagine cats --repeat 5 créera cinq grilles 2×2 de chats

La commande /describe permet d’envoyer une image au Bot, et vous permet d’obtenir 4 prompts textuels qui tentent de décrire l’image.

– Cliquez sur les boutons sous la commande pour générer des images pour chacune des invites.

Pour l’activer, tapez --v 5 après votre prompt ou sélectionnez « V5 » dans /settings

  • Meilleure performance, plus de détails, une plus large gamme stylistique, moins d’artefacts et de texte indésirable.
  • Prise en charge du paramètre --tile pour la réalisation de mosaïque.
  • Rapports d’aspect (ratio) --ar supérieurs à 2: 1.
  • Prise en charge du paramètre --iw pour donner du poids aux prompts d’image par rapport aux prompts textuels.

🔶la personnalisation du modèle Niji (anime) est disponible dès aujourd’hui !

Si vous évaluez au moins 200 images sur midjourney.com/rank-niji et que vous ajoutez --p après votre prompt --niji, vous pouvez obtenir des résultats personnalisés pour le modèle Niji. Cette personnalisation ne change pas seulement le style, mais modifie tous les éléments des images pour les adapter à vos goûts. Si vous êtes un utilisateur de modèles Niji, vous devriez essayer ceci. Nous sommes sûrs que vous allez adorer !

Si vous n’êtes pas un utilisateur du modèle Niji, vous pouvez personnaliser votre modèle Midjourney à tout moment en évaluant au moins 200 images sur https://www.midjourney.com/rank et en ajoutant --p à la fin de votre prompt.

N’ayez pas peur d’évaluer ! Cela ne prend que 5 minutes pour 200 images.

Amusez-vous bien ! Pour en savoir plus sur la personnalisation du Niji, consultez le blog・niji

Attention, nous n’offrons des crédits d’essai gratuits aux nouveaux utilisateurs que jusqu’à 17 heures (heure du Pacifique) aujourd’hui.

Les crédits d’essai gratuits expireront dimanche à minuit. Nous espérons que tout le monde apprécie le site web !

⛵️📢 éditeur d’image, synchronisation discord/web, Ouverture du site

🔶 Nous sortons un nouvel éditeur web aujourd’hui !

Il combine recadrer / repaint / vary region / pan / zoom en une seule interface unifiée. Nous pensons que cela rend l’édition de vos images MJ beaucoup plus transparente qu’auparavant et que c’est un grand pas en avant.

Voici une vidéo montrant le fonctionnement de l’éditeur :

🔶Synchronisation des salles

Nous synchronisons désormais les images et les messages entre les salons sur le web et les canaux sur le serveur Discord. Cela signifie que les messages et les images dans certaines salles/canaux sont répercutés sur Discord et vice-versa.

Les canaux et salles avec miroir de messages sont :

🔶Ouvrir la création sur le web

Tous ceux qui ont réalisé au moins 10 générations d’images sur Midjourney peuvent créer sur le web
Rendez-vous sur midjourney.com/imagine pour commencer à créer !

Avec le --p, nous pouvons remplacer le style de midjourney par défaut par des préférences apprises à partir de nos classements de paires d’images et de quelques « likes ».

Votre code --p évoluera au fil du temps.

🔹Au fur et à mesure que vous classerez ou « aimerez » plus d’images, vous verrez un nouveau code.
🔹Il s’agit d’un « instantané » de votre style actuel.
🔹Vous pouvez enregistrer ces codes instantanés, les réutiliser et les partager.
🔹Utilisez le code --p pour continuer à utiliser le même style de personnalisation.
🔹Oubliez le code et utilisez --p seul pour déclencher un nouvel instantané, s’il y en a un de disponible.
🔹Utilisez la commande /list_personalize_codes pour afficher tous les codes d’instantané jusqu’à présent.

Quelles sont les commandes, que puis-je taper, comment ça marche ?

🔹Tapez --p après votre prompt pour utiliser l’instantané actuel.
🔹Tapez --p code après votre prompt pour utiliser un code spécifique.
🔹Tapez /list_personalize_codes pour afficher tous vos codes de personnalisation de modèle.
🔹Notez que --p ne fonctionne pas encore avec --niji.
🔹Pour activer la personnalisation de façon permanente (vous n’avez donc pas à continuer de taper –p),
tapez /settings et sélectionnez le bouton [🙋 Personalization].
🔹Si vous utilisez l’application web Midjourney, recherchez ‘Personnalisation : [ON] [OFF]’.
🔹Si vous voulez utiliser le code de quelqu’un d’autre, utilisez --p code.
🔹Dans les canaux de création publique de Discord, vous pouvez utiliser --p @nom à la place. (Ne fonctionnera pas dans les DM)
🔹Utilisez plusieurs codes de p à la fois pour mélanger différents styles personnels.

Exemple : --p 1uwjacn 1yjtfcj
⚠️ Sur le Web, n’utilisez que des nombres entiers ou naturels. L’utilisation de décimales entraînera une erreur.

🔹L’ordre n’a pas d’importance.
🔹La personnalisation (--p) est un --style, tout comme le --style raw (avec lequel il est entièrement compatible). Cela signifie que vous pouvez contrôler son influence en utilisant –stylize qui est de 100 par défaut. La valeur de 0 est sa plus faible influence, et la valeur 1000 est son influence maximale.
🔹Si votre prompt utilise --style raw --p (les deux) ils sont mélangés et --s modifie l’amalgame.

⛵️📢 Mises à jour du site web

Nous avons une liste de changements et d’améliorations qui seront mis en ligne aujourd’hui :

🔶Création :

🔹Correction et amélioration du feedback lors du téléchargement d’images dans la barre imagine et le tchat.
🔹Le glissement d’images dans la barre imagine fonctionne désormais correctement sur Firefox.
🔹Une notification apparaît sur l’onglet de création lors de la création d’une image à partir d’une fenêtre contextuelle avec un bouton d’action.
🔹Amélioration de la conception des erreurs et de la messagerie dans la création.
🔹Correction d’un problème où les utilisateurs du plan de base pouvaient sélectionner le mode « Relax », ce qui provoquait une erreur à chaque création.

🔶Aide :

🔹Nous avons regroupé les différentes ressources d’aide en une seule page /help, qui ajoute un chat/robot d’aide. Nous continuerons à faire évoluer cette page au fil du temps pour aider les nouveaux utilisateurs comme les plus expérimentés.
🔹Le chargement du rapport sur l’état du système est désormais beaucoup plus rapide.
🔹Les rapports de bogues sont maintenant envoyés à une équipe d’assistance dédiée pour être examinés.

🔶Salles :

🔹Les salles sont désormais visibles par toute personne disposant d’un compte, mais seules les personnes ayant un accès à la création sur le site web peuvent y participer.
🔹L’ouverture de grandes salles depuis le lobby devrait être beaucoup plus rapide.
🔹Il y a de nouvelles salles par défaut pour Prompt Craft, Newbies, et Help pour aider les utilisateurs à apprendre.

🔶Général :

🔹Option pour suivre les préférences de votre système en matière de mode lumière/obscurité.
🔹De nombreux petits correctifs de stabilité.

⛵️📖Magazine Premium à couverture rigide qui retrace 1 an de midjourney, Disponible!

Nous ouvrons les commandes pour « Midjourney Year One » – un livre qui présente les explorations de notre communauté et le développement de Midjourney au cours de l’année écoulée.
C’est un bel instantané physique de l’année écoulée ainsi qu’une fusion des nombreux numéros du magazine officiel Midjourney que vous avez peut-être manqués.

Commandez un exemplaire ici : https://mag.midjourney.com/product/year-one

⛵️📢 Mise à Jour Midjourney: Personnalisation de modèle

nous lançons aujourd’hui une version test de la personnalisation des modèles, voici comment cela fonctionne

🔶Qu’est-ce que la personnalisation des modèles ?
🔹Chaque fois que vous écrivez un prompt, il y a beaucoup de choses qui restent « inexprimées ». Nos algorithmes remplissent généralement le vide avec leurs propres « préférences », qui sont en fait les préjugés et les préférences combinés de notre communauté.
🔹Mais bien sûr, tout le monde est différent ! La personnalisation du modèle apprend ce que vous aimez, de sorte qu’il est plus probable qu’elle remplisse les blancs avec vos goûts.

🔶Exigences en matière de personnalisation des modèles
🔹Pour l’instant, la personnalisation du modèle apprend à partir des votes dans le classement par paires et des images que vous aimez sur la page d’exploration.
🔹Vous devez avoir environ 200 évaluations de paires / likes pour que la fonctionnalité fonctionne
🔹Vous pouvez voir combien d’évaluations vous avez sur la page ci-dessus ou en tapant /info

🔶Comment utiliser la personnalisation des modèles ?
🔹Tapez simplement --p après votre prompt, ou activez la personnalisation pour tous les prompts dans les /settings ou le bouton de paramétrage des prompts sur le site web.
🔹Lorsque vous activez la personnalisation, vous obtenez un « code » ajouté après vos prompts, vous pouvez partager ce code pour partager l’effet de personnalisation appliqué à cette image.
🔹Vous pouvez contrôler l’intensité de l’effet de personnalisation en utilisant --s 100 (0 est désactivé, 1000 est le maximum et 100 est la valeur par défaut).

VEUILLEZ NOTER : La personnalisation n’est pas une fonction stable pour le moment, elle changera au fur et à mesure que vous ferez des évaluations par paires (subtilement) et nous pourrions faire des mises à jour d’algorithme au cours des prochaines semaines. Il s’agit donc d’une « fonctionnalité amusante en constante évolution »

Il s’agit d’une toute nouvelle frontière pour la synthèse d’images. Nous espérons que nous découvrirons beaucoup de choses au cours de ce processus et nous serions ravis d’entendre vos idées dans le salon ⁠#ideas-and-features (sur discord) ou de partager les images que vous créez dans le cadre de la ⁠#personalization.

Amusez-vous bien !

Nous testons actuellement des « salons de création privées » (pour tous les membres MJ ayant au moins 100 générations).

Comment ça marche ?
🔸En gros, vous cliquez sur ‘rooms’ puis sur ‘create room’ et vous remplissez tous les champs.

Maintenant et pour l’avenir:
🔸Pour l’instant, nous ne permettons qu’aux gens de créer des salons privés (qui sont des salons protégés par un mot de passe pour vos amis / votre lieu de travail).
🔸À l’avenir, nous permettrons aux gens de créer des salons publics sans protection par mot de passe et avec une galerie globale.

🔶Nous avons amélioré le design des « salles » et nous ouvrons la salle de test principale à tous ceux qui ont au moins 1000 images (club 1k et plus).

🔹Le design a été mis à jour :

🔸Vous pouvez maintenant faire des favoris dans les salles et voir les favoris des autres.
🔸Nous gérons mieux les images en cours pour que ce soit plus propre pour un plus grand nombre de personnes.
🔸Nous avons peaufiné un certain nombre de choses au niveau du design.

Plans de salles (la semaine prochaine, j’espère) : Nous allons ajouter un système d’atténuation du bruit par l’IA pour le chat vocal, puis nous allons essayer d’ajouter quelques salles supplémentaires et enfin nous allons ouvrir les salles à un plus grand nombre de personnes.

À plus long terme : Nous laisserons les gens créer des salons privés, puis nous laisserons les gens créer des salons publics.

🔶 Quand vous faites –sref random, cela vous donne maintenant un code numérique dans votre prompt que vous pouvez utiliser pour reproduire le style à partir de maintenant.

En gros, si vous tapez –sref random, il le remplacera par quelque chose comme –sref 123456 (avec un nombre aléatoire) et si vous tapez à nouveau ce nombre aléatoire comme –sref 123456 , vous pourrez revenir à ce style.

🔶 Nous avons publié un nouvel algorithme pour le classement des idées de la communauté qui mesure non seulement la valeur de la communauté pour une idée mais aussi une mesure quantitative de sa « controverse » https://midjourney.com/ideas?type=leaderboard.

En gros, « 100 de controverse » correspond à la moyenne, 50 signifie que l’idée est deux fois moins controversée que la moyenne, 200 signifie qu’elle est deux fois plus controversée que la moyenne. Nous définissons la « controverse » comme la différence d’importance entre les « enthousiastes » et les « sceptiques ».

Nous allons procéder aujourd’hui à des tests préliminaires de nos « salles de création » sur le web et nous aimerions que vous nous aidiez !
(nous commençons avec le club des 10 000 et nous passerons à d’autres sous peu).

🔶Les points forts de ce prototype de salle

🔹Il y a un chat textuel et un chat vocal
🔹Le texte est séparé des images afin que la création n’affecte pas le chat.
🔹Vous pouvez créer des images ensemble ou ne voir que les vôtres (boutons de filtrage en haut).
🔹Vous pouvez facilement faire glisser des images dans le chat pour en parler
🔹Vous pouvez redimensionner les colonnes de chat et d’images en survolant puis en faisant glisser l’espace entre les deux.

Remarque : si vous créez des images en mode furtif dans un salon, d’autres personnes peuvent les voir (comme dans Discord).

🔶Quels sont les objectifs de ce test ?

🔹Nous voulons voir combien de personnes nous pouvons faire entrer dans une pièce jusqu’à ce qu’elle commence à s’effondrer ou à se sentir mal à l’aise.
🔹Nous voulons voir quelles sortes de choses fonctionnent bien / mal dans la nouvelle interface utilisateur.
(puisqu’elle est différente de Discord et de tout ce qui existe)
🔹Obtenir des retours sur les bugs ou des idées de la part de la communauté.

🔶Quelques plans de haut niveau en ce moment autour des salles en tant que contexte (???)

🔹Nous prévoyons de faire en sorte que tout le monde puisse créer des salles de création publiques et privées sur le site web.
🔹Il y aura un hall d’accueil pour les salles publiques et la possibilité de créer un lien direct vers les salles privées.
🔹En observant les salles aujourd’hui, nous réfléchirons à la possibilité d’ouvrir le site au club des 1 000 personnes afin d’augmenter le nombre de participants.
🔹Nous pourrions créer d’autres salles si l’une d’entre elles devenait trop bondée ou trop frénétique.
🔹Après avoir observé un petit nombre de salles pendant un certain temps, nous ouvrirons la possibilité de créer des salles par soi-même.

Nous espérons que vous vous amuserez à tester les salles aujourd’hui. Pour l’instant, c’est DESKTOP WEB (alpha) ONLY (le mobile est une priorité secondaire pour nous et viendra plus tard).

Découverte d’un bug majeur avec le nouveau sref pour Niji, sur lequel a été rétabli l’ancienne version.

Le nouveau Style Reference (v2) est toujours disponible pour la v6 de Midjourney.

Nous testons aujourd’hui une nouvelle fonction de « Référence de personnage ».

Cette fonction est similaire à la fonction « Référence de style », sauf qu’au lieu de correspondre à un style de référence, elle tente de faire correspondre le personnage à une image de « Référence de personnage ».

🔶Comment cela fonctionne-t-il ?

🔹Tapez –cref URL après votre prompt avec l’URL d’une image d’un personnage.
🔹Vous pouvez utiliser –cw pour modifier la « force » de la référence de 100 à 0
🔹La force 100 (–cw 100) est la valeur par défaut et utilise le visage, les cheveux et les vêtements.
🔹A force 0 (–cw 0), il se concentre uniquement sur le visage (bon pour changer de tenue, de cheveux, etc.).

🔶A quoi cela sert-il ?

🔹Cette fonction fonctionne mieux lorsque l’on utilise des personnages créés à partir d’images Midjourney.
🔹Elle n’est pas conçue pour les personnes réelles ou les photos (et les déformera probablement comme le font les images normales).
🔹Cref fonctionne de la même manière que les prompts d’images classiques, sauf qu’il se concentre sur les traits du personnages.
🔹La précision de cette technique est limitée, elle ne copiera pas exactement les fossettes, les taches de rousseur ou les logos de t-shirts.
🔹Cref fonctionne pour les modèles Niji et MJ normaux.

🔶Fonctionnalités avancées

🔹Vous pouvez utiliser plus d’une URL pour mélanger les informations/caractères de plusieurs images comme ceci –cref URL1 URL2 (c’est similaire aux prompt d’images ou aux styles de référence multiples)

🔶Comment cela fonctionne-t-il sur le web alpha ?

🔹Glissez ou collez une image dans la barre d’image, elle a maintenant trois icônes. La sélection de ces icônes détermine s’il s’agit d’un pormpt d’image, d’une référence de style ou d’une référence de personnage. 🔹Shift+sélectionner une option pour utiliser une image pour plusieurs catégories

N’oubliez pas que MJ V6 est en phase alpha et que cette fonctionnalité et d’autres peuvent changer soudainement, mais la version bêta officielle de MJ V6 sera bientôt disponible.

Partagez vos premiers tests et impressions ! 🙏

Mise à jour NiJi 6 alpha:

🔹Prise en charge de l’inpainting (Vary Region), Pan et Zoom.

Note de version complète: https://sizigi.notion.site/Advanced-Vary-Region-Techniques-4532397e813740d680c3076e4e872830

Mises à jour Midjourney

🔹 Midjourney v6 Alpha passe en version par défaut

🔸Amélioration des détails

🔹Amélioration des détails sur la V6. Vous pourriez le remarquer dans des endroits comme les textures de peau, les surfaces de peinture ou de toile épaisses, le feuillage éloigné, etc. En Interne, nous avons constaté que revenir aux résultats précédents semblait plus « fade » en comparaison.
🔹En raison du changement ci-dessus, les options plus rapides –q 0.5 et –q 0.25 ont également une qualité plus raisonnable

🔸Amélioration de l’upscaler

🔹L’Upscaler subtil (x2) de la V6 est maintenant plus subtil; les résultats devraient préserver plus de détails de l’image originale avec des rendus moins lisses

🔸Mise à jour de la commande /Feedback

Ce système nécessite plus de travail pour soumettre / évaluer les idées, mais il nous donnera beaucoup plus d’informations et si cela semble bon, nous essaierons d’ajouter un classement global des idées pour Midjourney peu de temps après (ce sera alors permanant pour toute la communauté)

Quoi qu’il en soit, avant de rendre cela officiel dans les annonces, nous aimerions que vous essayiez, que vous soumettiez / évaluiez de nouvelles idées et que vous nous disiez ce que vous pensez dans le salon # alpha-ideas-and-features

Comment ça marche:
🔹Soumettre des idées sur l’onglet « Submit ideas »
🔹Évaluez les idées à l’onglet « Rate ideas ».
🔹Voir les évaluations de vos idées par les autres personnes sur l’onglet « My ideas »

💡Pour info pour avoir tester le feedback dans sa première version, évaluer des idées donne droit à des fast hours GPU gratuites (à voir si c’est toujours le cas, aucune com n’a été faite la dessus)

🔸Barre de recherche (Alpha)

🔹 Mise à jour de la barre de recherche sur la page d’exploration alpha, elle devrait être 10x plus rapide et afficher les images v6 maintenant

À compter de maintenant, si vous avez fait au moins 1 000 images dans Midjourney, vous pouvez maintenant mettre à l’essai notre site Web de création d’images à https://alpha.midjourney.com

Remarque :
🔸Vous pouvez vérifier combien d’images vous avez faites en tapant /info
🔸C’est une version alpha. Elle peut être quelque peu instable et les fonctionnalités sont amenés à changer soudainement et sans préavis.
🔸Cette alpha est axée sur l’utilisation depuis un ordinateur. Elle fonctionne sur Mobile, mais a des problèmes d’interface utilisateur / UX + bugs et n’est pas une priorité jusqu’à ce que la version de bureau soit aboutie.

Au fur et à mesure que le site se stabilisera, nous ouvrirons l’accès à plus de membres existants, puis (à terme) à de nouveaux membres.

Discord continuera d’être pris en charge à long terme, et nous espérons que vous utiliserez les deux (en particulier pour la communauté, les événements, le support, les commentaires et les serveurs privés)

Nous sommes heureux d’annoncer la version alpha de niji v6! Vous pouvez l’activer en utilisant la commande /settings pour sélectionner niji version 6 sur le bot niji ou en utilisant la commande –niji 6 à la fin de vos prompts

Notes de version :
🔸Vous pouvez essayer des prompts plus longs et plus difficiles (p. ex., une fille avec un œil vert et un œil bleu, hétérochromie).
🔸Vous pouvez écrire un texte simple en le mettant dans des citations! (par exemple: konosuba aqua holding a sign that says « cixelyn » while jumping in the air)
🔸Si vous n’aimez pas l’utilisation d’anime –niji 6 –style raw
🔸Lancement complet ( Vary (région)) + événement prévu dans le mois à venir!

Full devlog ici :https://sizigi.notion.site/Welcome-to-Niji-V6-47b0769d73b8494f8618a70bd4384f20

Note de version et premières impressions: https://geniart.fr/midjourney/niji-v6-alpha-en-temps-et-en-heure/

🔶Changements dans la page d’exploration :

🔹Nouveaux états de survol pour la page d’exploration
🔹Améliorations supplémentaires du contenu de la page d’exploration
🔹Ajout de la fonction « hot/top/random » à la page d’exploration
🔹Recherche d’images similaires (cliquer sur la loupe)

🔶Modifications de la page Créer

🔹Le survol des images permet désormais d’afficher des boutons de variation
🔹Passez la souris sous l’invite pour afficher d’autres boutons d’option.
🔹Nouveau bouton « Hide » (c’est plus comme un emoji de vomi mais vous voyez l’idée et c’est facile), ce n’est pas un substitut pour le mode furtif.
(il n’y a pas encore de bouton « Unhide » mais vous pouvez voir les éléments cachés dans les archives sous les filtres)

🔶Modifications de la page d’archive

🔹Nouvelle fonction ‘timeline’, déplacez la souris sur la barre de défilement pour voir / parcourir les dates.

Midjourney V6 Alpha!

🔹Prompt beaucoup plus précis y compris pour des prompts plus longs
🔹Amélioration de la cohérence et connaissance du modèle
🔹Amélioration du prompt d’image et du remix
🔹Capacité de dessin de texte mineur
(vous devez écrire votre texte en « guillemets » et –style raw ou une valeur de –stylize peu élevée)
🔹Upscalers améliorés, avec des modes ‘subtils’ et ‘créatifs’ (augmente la résolution de 2x)
(vous verrez les boutons sous vos images après avoir cliqué sur U1/U2/U3/U4)
 
Les paramètres suivants sont pris en charge au lancement :
–ar, –chaos, –weird, –tile ,–stylize, –style raw , Vary (subtle) ,Vary (strong), Remix, /blend ,/describe (juste la version v5)
 
Ces fonctions ne sont pas encore prises en charge, mais elles devraient arriver au cours du prochain mois :
Pan, Zoom, Vary (region), /tune, /describe (une nouvelle version v6)

Style et prompting pour la V6

🔹La compréhension des prompts avec la V6 est significativement différente de la V5. Vous devrez ‘réapprendre’ comment rédiger vos requêtes.
🔹La V6 est BEAUCOUP plus sensible à votre prompt. Évitez les termes du genre: « award winning, photorealistic, 4k, 8k »
🔹Soyez explicite à propos de ce que vous voulez. Il est peut-être moins impressionnant, mais si vous êtes explicite, la compréhension serra bien meilleure.
🔹Si vous voulez quelque chose de plus photographique / moins opiniâtre / plus littéral, vous devriez probablement utiliser par défaut le –style raw
🔹Les valeurs inférieures de –stylize (par défaut 100) peuvent avoir une meilleure compréhension rapide tandis que les valeurs plus élevées (jusqu’à 1000) peuvent avoir une meilleure esthétique

Plus d’info dans mon article: Midjourney V6, c’est Noel avant l’heure!

Le Style Tuner disponible sur NiJi pour pouvoir créer vos propres styles.

Fonctionne comme celui de Midjourney, à savoir tout de même que les –styles expressive, scenic et cute ne sont pas utilisables pour la création de style.

Note de version complète des développeurs

La phase 1 du nouveau site Midjourney accessible en beta. (Cliquez sur le lien pour plus d’infos)

Cette première version est axée sur la recherche, la navigation et la visualisation d’images. Les fonctionnalités d’organisation (telles que les collections) et les fonctionnalités de création d’images seront incluses dans les versions à venir.

Première version de l’appli mobile Niji · journey

Possibilité de générer des images depuis l’app, feed, galerie Niji.

– Mise à niveau du cluster GPU. Les utilisateurs Pro et Mega devraient voir des accélérations de ~1,5x (/imagine de ~50 secondes à ~30 secondes).
Ces rendus devraient également être environ 1,5 fois moins chers.

Toute capacité GPU supplémentaire accélérera aléatoirement les actions pour les autres plans d’abonnement.

–  Nouveau paramètre –weird. Permet de rajouter un coté « bizarre » à votre image (valeur entre 1 et 3000)
–  Nouveau plan d’abonnement à 120$/mois
–  Mode /turbo génère vos images 4x plus vite pour 2x le prix

La V5.1 est plus opiniâtre (comme la V4) et est BEAUCOUP plus facile à utiliser avec des prompt courts
– Il existe un mode « sans opinion » pour la V5.1 (similaire à la V5.0 par défaut) appelé « Mode RAW »
– Ne vous inquiétez pas, la V5 est toujours disponible (comme avant)

Autres changements dans la V5.1 par rapport à la V5.0
– Meilleure cohérence
– Plus de précision par rapport aux textes des prompts
– Moins de bordures indésirables ou d’artefacts de texte
– Amélioration de la netteté

Comment activer V5.1 :
– Allez dans /settings et cliquez sur « V5.1 » (sur la deuxième ligne) ou tapez --v 5.1 après votre prompt
– Pour le mode RAW, cliquez sur le bouton Mode RAW dans les /settings (après avoir cliqué sur V5.1) ou tapez --style raw

Autres petites mises à jour:

  • Le modérateur de l’IA est désormais en « Appels automatiques »
    – Nous constatons qu’il y a très peu de prompt signalés comme « dangereux », nous les envoyons donc automatiquement via le deuxième processus de contestation de l’IA, plus puissant maintenant
    – Cela devrait entraîner moins rejets et une expérience plus fluide (pas besoin d’appuyer sur « faire appel » (Appeal))
    – Si vous constatez que votre prompt est toujours rejeté de manière incorrecte, appuyez sur le bouton « Notifier le développeur » sous le message de rejet pour nous aider à améliorer notre système
  • Répétitions et permutations maintenant disponibles pour les membres à 10 $
    – Pour les abonnements de base, nous autorisons désormais les commandes uniques qui démarrent jusqu’à 4 tâches
    – Pour la commande de répétition qui ressemble à --repeat 4
    – Pour une permutation qui ressemble à un {chien, chat} in the style of {vaporwave, art déco}
    – Les limites d’adhésion Standard / Pro restent les mêmes qu’avantSi vous avez un abonnement de 10 $, faites attention à ne pas utiliser toutes vos heures de cette façon ! Ceci est principalement destiné à permettre à chacun d’expérimenter les fonctionnalités et d’obtenir une productivité maximale lorsque vous en avez besoin.

Ajout de deux nouveaux styles de NijiJourney (le modèle Midjourney sur le thème de l’anime)

Pour les utiliser, activez d’abord Niji v5 dans les paramètres avec /settings puis choisissez votre style avec --style cute ou --style expressive;

Le style cute est assez mignon! L’expressif est légèrement plus 3D et occidentalisé.

Voila pour ce qui est de l’annonce officielle de la part de Midjourney, du coup on a testé ici.

Lancement de la version 5 du générateur d’image Niji (NijiJourney V5).

Vous pouvez l’activer en tapant /settings et en cliquant sur niji version 5 ou en tapant --niji 5 à la fin de vos prompts.

Le style de ce modèle est plus fort que le modèle par défaut, donc si vous voulez augmenter ou diminuer l’intensité de la stylisation, veuillez utiliser la commande --stylize (ou --s pour faire court); --s 100 est la valeur par défaut et elle va de --s 0 au plus bas à --s 1000 au plus haut.

En raison d’une combinaison de demandes extraordinaires et d’abus d’essais, Midjourney désactive temporairement les essais gratuits jusqu’à ce que de prochaines améliorations du système soient déployées

🔶la personnalisation du modèle Niji (anime) est disponible dès aujourd’hui !

Si vous évaluez au moins 200 images sur midjourney.com/rank-niji et que vous ajoutez --p après votre prompt --niji, vous pouvez obtenir des résultats personnalisés pour le modèle Niji. Cette personnalisation ne change pas seulement le style, mais modifie tous les éléments des images pour les adapter à vos goûts. Si vous êtes un utilisateur de modèles Niji, vous devriez essayer ceci. Nous sommes sûrs que vous allez adorer !

Si vous n’êtes pas un utilisateur du modèle Niji, vous pouvez personnaliser votre modèle Midjourney à tout moment en évaluant au moins 200 images sur https://www.midjourney.com/rank et en ajoutant --p à la fin de votre prompt.

N’ayez pas peur d’évaluer ! Cela ne prend que 5 minutes pour 200 images.

Amusez-vous bien ! Pour en savoir plus sur la personnalisation du Niji, consultez le blog・niji

⛵️📢 Des tests et questionnaires pour du GPU gratuit

Nous avons deux petites nouveautés aujourd’hui :

  •  Nous publions un test de personnalité pour aider à comprendre les origines de la beauté… En gros, quel est le lien entre notre personnalité et ce que nous trouvons beau et comment nous voyons la beauté différemment ?

Faites le test sur https://midjourney.com/surveys?survey=personality-ambi

Le test devrait prendre environ 15 minutes et vous donnera une TONNE de résultats amusants sur vous-même à la fin. Il contribuera également à nos recherches de pointe. Aucun abonnement n’est nécessaire pour faire le test, mais les abonnés recevront 2 heures de gpu gratuites après l’avoir fait.

  •  Nous ajoutons de nouveaux tests de classement par paires pour permettre à la communauté d’améliorer la précision des prompts et les modèles Niji :
    Classez la précision des messages ici : http://midjourney.com/rank-accuracy
    Classer les images de Niji (anime) ici : http://midjourney.com/rank-niji
    Les 2000 meilleurs classeurs de paires obtiennent 1 heure de Gpu gratuit par jour.

Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de nos modèles et de la science ! Nous sommes impatients de partager les résultats avec vous et d’en explorer le sens ensemble.

(Voici un petit exemple de quelques dizaines d’éléments parmi les 200 mesurés par le test).

Attention, nous n’offrons des crédits d’essai gratuits aux nouveaux utilisateurs que jusqu’à 17 heures (heure du Pacifique) aujourd’hui.

Les crédits d’essai gratuits expireront dimanche à minuit. Nous espérons que tout le monde apprécie le site web !

⛵️📢 Essais gratuits et ouverture du site!

Aujourd’hui, nous ouvrons la création d’images sur le web à tout le monde !

Tout le monde peut maintenant aller sur notre site web et commencer à créer des images.

Pour permettre aux gens de jouer avec le nouveau site, nous avons temporairement mis en place des essais gratuits (~25 images).

Attention
🔸Vous devez toujours vous connecter avec votre compte discord sur le site web si vous voulez avoir l’historique de vos images créées sur discord.
🔸Vous pouvez fusionner vos comptes discord et Google dans votre onglet « compte » si vous souhaitez pouvoir vous connecter avec l’un ou l’autre à l’avenir.
🔸Les nouveaux utilisateurs peuvent s’inscrire en utilisant leur compte Google ou leur compte Discord.

⛵️📢 éditeur d’image, synchronisation discord/web, Ouverture du site

🔶 Nous sortons un nouvel éditeur web aujourd’hui !

Il combine recadrer / repaint / vary region / pan / zoom en une seule interface unifiée. Nous pensons que cela rend l’édition de vos images MJ beaucoup plus transparente qu’auparavant et que c’est un grand pas en avant.

Voici une vidéo montrant le fonctionnement de l’éditeur :

🔶Synchronisation des salles

Nous synchronisons désormais les images et les messages entre les salons sur le web et les canaux sur le serveur Discord. Cela signifie que les messages et les images dans certaines salles/canaux sont répercutés sur Discord et vice-versa.

Les canaux et salles avec miroir de messages sont :

🔶Ouvrir la création sur le web

Tous ceux qui ont réalisé au moins 10 générations d’images sur Midjourney peuvent créer sur le web
Rendez-vous sur midjourney.com/imagine pour commencer à créer !

⛵️📢 Nous publions aujourd’hui la version 6.1 de nos modèles d’images Midjourney.

🔶Quelles sont les nouveautés de la V6.1 ?

🔹Plus d’images cohérentes (bras, jambes, mains, corps, plantes, animaux, etc)
🔹Une bien meilleure qualité d’image (réduction des artefacts de pixels, amélioration des textures, de la peau, rétro 8bit, etc.)
🔹Caractéristiques des petites images plus précises, détaillées et correctes (yeux, petits visages, mains éloignées, etc.)
🔹Nouveaux upscalers avec une bien meilleure qualité d’image et de texture
🔹Environ 25 % plus rapide pour les travaux d’image standard
🔹Amélioration de la précision du texte (lors du dessin de mots par le biais de « citations » dans les prompts)
🔹Un nouveau modèle de personnalisation avec plus de nuances, de surprise et de précision
🔹Versioning du code de personnalisation (utilisez n’importe quel code de personnalisation d’un ancien travail pour utiliser le modèle de personnalisation et les données de ce travail).
🔹Un nouveau mode –q 2 qui prend 25 % de temps en plus pour ajouter (parfois) plus de texture au prix d’une réduction de la cohérence de l’image.
🔹Les choses devraient être « généralement plus belles » dans l’ensemble.

🔶Autres notes importantes :

🔹La V6.1 n’a pas encore de nouveau modèle d’inpainting/outpainting, donc si vous utilisez zoom/reframe/repainting/vary region, vous reviendrez au modèle de la V6.0.
🔹Si vous voulez revenir à la V6, allez dans /settings et cliquez sur V6 ou tapez –v 6 après votre travail (ou cliquez sur le panneau des paramètres sur le site web).

Projets futurs : Nous sortirons probablement un modèle V6.2 dans le mois à venir avec d’autres améliorations, mais nous devons d’abord rassembler autant de données que possible sur les utilisateurs de la V6.1. Ainsi, à partir d’aujourd’hui, nous ne nous contentons pas de sortir la V6.1, mais nous en faisons le modèle par défaut sur Midjourney pour tous les utilisateurs.

Nous espérons que cette nouvelle version plaira à tout le monde ! Amusez-vous bien ! ❤️

Avec le --p, nous pouvons remplacer le style de midjourney par défaut par des préférences apprises à partir de nos classements de paires d’images et de quelques « likes ».

Votre code --p évoluera au fil du temps.

🔹Au fur et à mesure que vous classerez ou « aimerez » plus d’images, vous verrez un nouveau code.
🔹Il s’agit d’un « instantané » de votre style actuel.
🔹Vous pouvez enregistrer ces codes instantanés, les réutiliser et les partager.
🔹Utilisez le code --p pour continuer à utiliser le même style de personnalisation.
🔹Oubliez le code et utilisez --p seul pour déclencher un nouvel instantané, s’il y en a un de disponible.
🔹Utilisez la commande /list_personalize_codes pour afficher tous les codes d’instantané jusqu’à présent.

Quelles sont les commandes, que puis-je taper, comment ça marche ?

🔹Tapez --p après votre prompt pour utiliser l’instantané actuel.
🔹Tapez --p code après votre prompt pour utiliser un code spécifique.
🔹Tapez /list_personalize_codes pour afficher tous vos codes de personnalisation de modèle.
🔹Notez que --p ne fonctionne pas encore avec --niji.
🔹Pour activer la personnalisation de façon permanente (vous n’avez donc pas à continuer de taper –p),
tapez /settings et sélectionnez le bouton [🙋 Personalization].
🔹Si vous utilisez l’application web Midjourney, recherchez ‘Personnalisation : [ON] [OFF]’.
🔹Si vous voulez utiliser le code de quelqu’un d’autre, utilisez --p code.
🔹Dans les canaux de création publique de Discord, vous pouvez utiliser --p @nom à la place. (Ne fonctionnera pas dans les DM)
🔹Utilisez plusieurs codes de p à la fois pour mélanger différents styles personnels.

Exemple : --p 1uwjacn 1yjtfcj
⚠️ Sur le Web, n’utilisez que des nombres entiers ou naturels. L’utilisation de décimales entraînera une erreur.

🔹L’ordre n’a pas d’importance.
🔹La personnalisation (--p) est un --style, tout comme le --style raw (avec lequel il est entièrement compatible). Cela signifie que vous pouvez contrôler son influence en utilisant –stylize qui est de 100 par défaut. La valeur de 0 est sa plus faible influence, et la valeur 1000 est son influence maximale.
🔹Si votre prompt utilise --style raw --p (les deux) ils sont mélangés et --s modifie l’amalgame.

nous ajoutons aujourd’hui des options plus avancées pour --sref (références de style) et --p (personnalisation du modèle)

Nouvelles fonctionnalités pour les références de style

🔸Vous pouvez maintenant mélanger plusieurs codes --sref ensemble (par exemple --sref 123 456)
🔸Vous pouvez maintenant mélanger les urls des images de référence de style et les codes aléatoires sref (par exemple --sref 123 url).
🔸Vous pouvez pondérer des codes ou des urls individuels comme suit --sref 123::2 456::1

Nouveau mélange de personnalisation de modèle

🔸Vous pouvez maintenant mélanger plusieurs codes de personnalisation de modèle comme --p ab12ad3 cd34gl
🔸Nous avons également activé le mélange avec la même notation --p ab12ad3::2 cd34gl::1

Mélangez vos codes de personnalisation et de style avec ceux de vos amis et explorez de nouveaux espaces d’harmonie esthétique mutuelle !

⛵️📢 Mises à jour du site web

Nous avons une liste de changements et d’améliorations qui seront mis en ligne aujourd’hui :

🔶Création :

🔹Correction et amélioration du feedback lors du téléchargement d’images dans la barre imagine et le tchat.
🔹Le glissement d’images dans la barre imagine fonctionne désormais correctement sur Firefox.
🔹Une notification apparaît sur l’onglet de création lors de la création d’une image à partir d’une fenêtre contextuelle avec un bouton d’action.
🔹Amélioration de la conception des erreurs et de la messagerie dans la création.
🔹Correction d’un problème où les utilisateurs du plan de base pouvaient sélectionner le mode « Relax », ce qui provoquait une erreur à chaque création.

🔶Aide :

🔹Nous avons regroupé les différentes ressources d’aide en une seule page /help, qui ajoute un chat/robot d’aide. Nous continuerons à faire évoluer cette page au fil du temps pour aider les nouveaux utilisateurs comme les plus expérimentés.
🔹Le chargement du rapport sur l’état du système est désormais beaucoup plus rapide.
🔹Les rapports de bogues sont maintenant envoyés à une équipe d’assistance dédiée pour être examinés.

🔶Salles :

🔹Les salles sont désormais visibles par toute personne disposant d’un compte, mais seules les personnes ayant un accès à la création sur le site web peuvent y participer.
🔹L’ouverture de grandes salles depuis le lobby devrait être beaucoup plus rapide.
🔹Il y a de nouvelles salles par défaut pour Prompt Craft, Newbies, et Help pour aider les utilisateurs à apprendre.

🔶Général :

🔹Option pour suivre les préférences de votre système en matière de mode lumière/obscurité.
🔹De nombreux petits correctifs de stabilité.

⛵️📢 Enquête Midjourney récompensés par 2h de fast GPU

Nous lançons un nouveau projet de recherche sur les origines de la beauté… En gros, quand trouvons-nous quelque chose de beau collectivement et quand voyons-nous la beauté différemment ?

Pour ce faire, nous comparons les modèles personnalisés que les gens fabriquent aux réponses de plusieurs nouvelles enquêtes.

La première enquête porte sur les données démographiques : comment des facteurs tels que l’âge, le sexe, le pays, etc. influencent-ils ce que nous trouvons beau ?

Répondez à l’enquête ici : https://www.midjourney.com/surveys?survey=demographics

Elle prend ~5 minutes et chaque personne qui la complète reçoit 2 heures de gpu rapide en récompense.

Nous essaierons d’utiliser ces données pour partager de nouvelles connaissances approfondies sur l’esthétique humaine et peut-être même pour créer de nouvelles fonctionnalités qui vous permettront d’explorer ces connaissances vous-même ! Toutes les données sont privées, vous pouvez demander leur suppression à tout moment sur la page de votre compte, et vous pouvez sauter n’importe quelle question (vous recevrez des récompenses pour le pourcentage auquel vous répondez).

La prochaine enquête portera davantage sur la personnalité et devrait être publiée dans une semaine ou deux.

Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de la science. Nous avons hâte de partager les résultats avec vous et d’en explorer le sens ensemble ❤️

⛵️📖Magazine Premium à couverture rigide qui retrace 1 an de midjourney, Disponible!

Nous ouvrons les commandes pour « Midjourney Year One » – un livre qui présente les explorations de notre communauté et le développement de Midjourney au cours de l’année écoulée.
C’est un bel instantané physique de l’année écoulée ainsi qu’une fusion des nombreux numéros du magazine officiel Midjourney que vous avez peut-être manqués.

Commandez un exemplaire ici : https://mag.midjourney.com/product/year-one

Nous avons apporté quelques modifications au site web afin d’en simplifier l’utilisation. Quelques changements à noter :

🔸Les outils ‘Pan’ et ‘Zoom’ sont désormais unifiés et s’appellent ‘Reframe
🔸L’outil ‘Remix’ se trouve désormais dans l’outil ‘Reframe‘. Cela vous permet de modifier le prompt lors d’un panoramique ou d’un zoom.
🔸L’outil « Vary Region » s’appelle désormais « Repaint« .
🔸Les messages d’erreur sont plus descriptifs et il n’est pas nécessaire de les survoler pour obtenir plus d’informations.
🔸La barre latérale est plus simple. Les fonctions « Rank Images » et « Rank Ideas » se trouvent désormais sur la page « Tasks« .
🔸La fonction « Signaler un bug » se trouve désormais dans le menu « Help« .

⛵️📢 Mise à Jour Midjourney: Personnalisation de modèle

nous lançons aujourd’hui une version test de la personnalisation des modèles, voici comment cela fonctionne

🔶Qu’est-ce que la personnalisation des modèles ?

🔹Chaque fois que vous écrivez un prompt, il y a beaucoup de choses qui restent « inexprimées ». Nos algorithmes remplissent généralement le vide avec leurs propres « préférences », qui sont en fait les préjugés et les préférences combinés de notre communauté.
🔹Mais bien sûr, tout le monde est différent ! La personnalisation du modèle apprend ce que vous aimez, de sorte qu’il est plus probable qu’elle remplisse les blancs avec vos goûts.

🔶Exigences en matière de personnalisation des modèles

🔹Pour l’instant, la personnalisation du modèle apprend à partir des votes dans le classement par paires et des images que vous aimez sur la page d’exploration.
🔹Vous devez avoir environ 200 évaluations de paires / likes pour que la fonctionnalité fonctionne
🔹Vous pouvez voir combien d’évaluations vous avez sur la page ci-dessus ou en tapant /info

🔶Comment utiliser la personnalisation des modèles ?

🔹Tapez simplement --p après votre prompt, ou activez la personnalisation pour tous les prompts dans les /settings ou le bouton de paramétrage des prompts sur le site web.
🔹Lorsque vous activez la personnalisation, vous obtenez un « code » ajouté après vos prompts, vous pouvez partager ce code pour partager l’effet de personnalisation appliqué à cette image.
🔹Vous pouvez contrôler l’intensité de l’effet de personnalisation en utilisant --s 100 (0 est désactivé, 1000 est le maximum et 100 est la valeur par défaut).

VEUILLEZ NOTER : La personnalisation n’est pas une fonction stable pour le moment, elle changera au fur et à mesure que vous ferez des évaluations par paires (subtilement) et nous pourrions faire des mises à jour d’algorithme au cours des prochaines semaines. Il s’agit donc d’une « fonctionnalité amusante en constante évolution »

Il s’agit d’une toute nouvelle frontière pour la synthèse d’images. Nous espérons que nous découvrirons beaucoup de choses au cours de ce processus et nous serions ravis d’entendre vos idées dans le salon ⁠#ideas-and-features (sur discord) ou de partager les images que vous créez dans le cadre de la ⁠#personalization.

Amusez-vous bien !

Nous sortons aujourd’hui une nouvelle version de notre modèle Niji (Niji est notre modèle spécialement conçu pour l’esthétique orientale / anime).

Nouvelles mises à jour du modèle :

🔸Amélioration du rendu du texte japonais.
🔸Le modèle peut maintenant bien rendre des textes courts en kana japonais et, dans certains cas, peut aussi rendre des textes qui incluent des caractères chinois simples.
🔸Amélioration des détails de l’image (comme la structure des yeux des animes).
🔸Correction de certains artefacts d’image qui affectaient auparavant un très petit nombre de générations.

Rappel :

🔸Vous pouvez activer Niji it en tapant /settings et en cliquant sur niji model 6 ou en tapant –niji 6 après les prompts.
🔸Vous pouvez montrer des images de Niji dans le salon #niji-showcase (sur discord)
🔸Il y a un serveur discord dédié à Niji ici (avec des canaux pour les non-anglophones).
https://discord.com/invite/nijijourney

Nous espérons que vous apprécierez ces mises à jour ! Restez à l’écoute pour plus d’infos la semaine prochaine.

Nous testons actuellement des « salons de création privées » (pour tous les membres MJ ayant au moins 100 générations).

Comment ça marche ?
🔸En gros, vous cliquez sur ‘rooms’ puis sur ‘create room’ et vous remplissez tous les champs.

Maintenant et pour l’avenir:
🔸Pour l’instant, nous ne permettons qu’aux gens de créer des salons privés (qui sont des salons protégés par un mot de passe pour vos amis / votre lieu de travail).
🔸À l’avenir, nous permettrons aux gens de créer des salons publics sans protection par mot de passe et avec une galerie globale.

🔶Nous avons amélioré le design des « salles » et nous ouvrons la salle de test principale à tous ceux qui ont au moins 1000 images (club 1k et plus).

🔹Le design a été mis à jour :

🔸Vous pouvez maintenant faire des favoris dans les salles et voir les favoris des autres.
🔸Nous gérons mieux les images en cours pour que ce soit plus propre pour un plus grand nombre de personnes.
🔸Nous avons peaufiné un certain nombre de choses au niveau du design.

Plans de salles (la semaine prochaine, j’espère) : Nous allons ajouter un système d’atténuation du bruit par l’IA pour le chat vocal, puis nous allons essayer d’ajouter quelques salles supplémentaires et enfin nous allons ouvrir les salles à un plus grand nombre de personnes.

À plus long terme : Nous laisserons les gens créer des salons privés, puis nous laisserons les gens créer des salons publics.

🔶 Quand vous faites –sref random, cela vous donne maintenant un code numérique dans votre prompt que vous pouvez utiliser pour reproduire le style à partir de maintenant.

En gros, si vous tapez –sref random, il le remplacera par quelque chose comme –sref 123456 (avec un nombre aléatoire) et si vous tapez à nouveau ce nombre aléatoire comme –sref 123456 , vous pourrez revenir à ce style.

🔶 Nous avons publié un nouvel algorithme pour le classement des idées de la communauté qui mesure non seulement la valeur de la communauté pour une idée mais aussi une mesure quantitative de sa « controverse » https://midjourney.com/ideas?type=leaderboard.

En gros, « 100 de controverse » correspond à la moyenne, 50 signifie que l’idée est deux fois moins controversée que la moyenne, 200 signifie qu’elle est deux fois plus controversée que la moyenne. Nous définissons la « controverse » comme la différence d’importance entre les « enthousiastes » et les « sceptiques ».

Nous testons de nouveaux algorithmes pour « explorer l’espace latent des styles visuels » et mettons à la disposition de tous un outil simple et amusant.

🔹Vous pouvez désormais taper --sref random à la fin de vos prompts et obtenir des styles totalement aléatoires.

Par exemple, en dessous de ce post, il y a 64 itérations du prompt « /imagine a field of flowers --sref random« .

Si vous aimez quelque chose que vous trouvez, utilisez --sref url avec l’url de l’image pour en obtenir d’autres.

Il s’agit d’un test d’un algorithme sous-jacent pour lequel nous créerons des outils plus avancés à l’avenir.

Pour l’instant, nous espérons que vous vous amuserez !

Nous allons procéder aujourd’hui à des tests préliminaires de nos « salles de création » sur le web et nous aimerions que vous nous aidiez !
(nous commençons avec le club des 10 000 et nous passerons à d’autres sous peu).

🔶Les points forts de ce prototype de salle

🔹Il y a un chat textuel et un chat vocal
🔹Le texte est séparé des images afin que la création n’affecte pas le chat.
🔹Vous pouvez créer des images ensemble ou ne voir que les vôtres (boutons de filtrage en haut).
🔹Vous pouvez facilement faire glisser des images dans le chat pour en parler
🔹Vous pouvez redimensionner les colonnes de chat et d’images en survolant puis en faisant glisser l’espace entre les deux.

Remarque : si vous créez des images en mode furtif dans un salon, d’autres personnes peuvent les voir (comme dans Discord).

🔶Quels sont les objectifs de ce test ?

🔹Nous voulons voir combien de personnes nous pouvons faire entrer dans une pièce jusqu’à ce qu’elle commence à s’effondrer ou à se sentir mal à l’aise.
🔹Nous voulons voir quelles sortes de choses fonctionnent bien / mal dans la nouvelle interface utilisateur.
(puisqu’elle est différente de Discord et de tout ce qui existe)
🔹Obtenir des retours sur les bugs ou des idées de la part de la communauté.

🔶Quelques plans de haut niveau en ce moment autour des salles en tant que contexte (???)

🔹Nous prévoyons de faire en sorte que tout le monde puisse créer des salles de création publiques et privées sur le site web.
🔹Il y aura un hall d’accueil pour les salles publiques et la possibilité de créer un lien direct vers les salles privées.
🔹En observant les salles aujourd’hui, nous réfléchirons à la possibilité d’ouvrir le site au club des 1 000 personnes afin d’augmenter le nombre de participants.
🔹Nous pourrions créer d’autres salles si l’une d’entre elles devenait trop bondée ou trop frénétique.
🔹Après avoir observé un petit nombre de salles pendant un certain temps, nous ouvrirons la possibilité de créer des salles par soi-même.

Nous espérons que vous vous amuserez à tester les salles aujourd’hui. Pour l’instant, c’est DESKTOP WEB (alpha) ONLY (le mobile est une priorité secondaire pour nous et viendra plus tard).

Deux annonces rapides :
 

🔶 Nous publions deux nouveaux algorithmes pour les références de style ainsi qu’une nouvelle fonctionnalité de « versioning ».

🔹La dernière version de l’algorithme de référence de style (maintenant par défaut) est plus précise et fonctionne pour MJ V6 et Niji V6.
🔹Vous pouvez définir la version de votre algorithme de référence de style avec --sv
🔹Vous avez le choix entre 4 options :
--sv 1 L’algorithme de référence de style original que nous avons publié avec
--sv 2 L’algorithme par défaut jusqu’à aujourd’hui
--sv 3 Une nouvelle version de sv1 avec de meilleures performances et plus « vibrant » que sv2
--sv 4 Une nouvelle version de sv2 avec de meilleures performances (c’est la version par défaut)
 

🔶 Nous revenons sur les heures de GPU gratuites pour l’évaluation des images.

🔹Les 2000 meilleurs évaluateurs obtiennent chaque jour une heure de GPU gratuite et rapide.
🔹Effectuez le classement des images ici : https://www.midjourney.com/rank
🔹Ces classements permettent d’améliorer nos algorithmes, d’alimenter la page d’exploration et seront également utilisés pour les prochaines fonctionnalités de personnalisation des modèles.
🔹Les votes sont plus rapides si vous utilisez les touches de raccourci 1/2 sur PC ou sur mobile.
🔹Veuillez prendre les classements au sérieux. Nous avons déployé un nouveau système de détection des robots et des abus. L’utilisation de bots pour les évaluations ou le fait d’appuyer sur des boutons aléatoires à plusieurs reprises peut entraîner le bannissement de votre compte. Ne le faites pas !
 
J’espère que tout le monde apprécie les nouvelles versions. Nous vous remercions de votre attention.

Découverte d’un bug majeur avec le nouveau sref pour Niji, sur lequel a été rétabli l’ancienne version.

Le nouveau Style Reference (v2) est toujours disponible pour la v6 de Midjourney.

Nous sortons aujourd’hui la version 2 de la fonctionnalité « référence de style ».

Elle devrait être beaucoup plus précise en ce qui concerne la compréhension du style et elle devrait être beaucoup plus efficace pour éviter les « fuites » d’éléments non stylistiques dans vos images. Nous avons également amélioré le fonctionnement du paramètre de poids –sw, afin qu’il soit plus significatif et qu’il ait une plus grande portée.

🔶Qu’est-ce qu’une référence de style ?

Les références de style vous permettent de référencer le style d’une autre image ou de conserver un style cohérent sur plusieurs images. Il s’agit d’un outil similaire aux prompts d’images, mais qui se concentre uniquement sur le style.

🔶Comment l’utiliser à nouveau ?

Pour utiliser une référence de style, tapez –sref URL après votre prompt avec l’url d’une image. Pour augmenter l’influence du style, appliquez un poids de style (–sw) proche de 1000. Pour diminuer la puissance du style, définissez le poids plus proche de –sw 0 (la valeur par défaut est 100). Vous pouvez également ajouter plusieurs références de style.

Voici un exemple bête et rapide utilisant un dessin au crayon de couleur comme référence. Quoi qu’il en soit, nous espérons que vous vous amuserez ! ❤️

Nous testons aujourd’hui une nouvelle fonction de « Référence de personnage ».

Cette fonction est similaire à la fonction « Référence de style », sauf qu’au lieu de correspondre à un style de référence, elle tente de faire correspondre le personnage à une image de « Référence de personnage ».

🔶Comment cela fonctionne-t-il ?

🔹Tapez –cref URL après votre prompt avec l’URL d’une image d’un personnage.
🔹Vous pouvez utiliser –cw pour modifier la « force » de la référence de 100 à 0
🔹La force 100 (–cw 100) est la valeur par défaut et utilise le visage, les cheveux et les vêtements.
🔹A force 0 (–cw 0), il se concentre uniquement sur le visage (bon pour changer de tenue, de cheveux, etc.).

🔶A quoi cela sert-il ?

🔹Cette fonction fonctionne mieux lorsque l’on utilise des personnages créés à partir d’images Midjourney.
🔹Elle n’est pas conçue pour les personnes réelles ou les photos (et les déformera probablement comme le font les images normales).
🔹Cref fonctionne de la même manière que les prompts d’images classiques, sauf qu’il se concentre sur les traits du personnages.
🔹La précision de cette technique est limitée, elle ne copiera pas exactement les fossettes, les taches de rousseur ou les logos de t-shirts.
🔹Cref fonctionne pour les modèles Niji et MJ normaux.

🔶Fonctionnalités avancées

🔹Vous pouvez utiliser plus d’une URL pour mélanger les informations/caractères de plusieurs images comme ceci –cref URL1 URL2 (c’est similaire aux prompt d’images ou aux styles de référence multiples)

🔶Comment cela fonctionne-t-il sur le web alpha ?

🔹Glissez ou collez une image dans la barre d’image, elle a maintenant trois icônes. La sélection de ces icônes détermine s’il s’agit d’un pormpt d’image, d’une référence de style ou d’une référence de personnage. 🔹Shift+sélectionner une option pour utiliser une image pour plusieurs catégories

N’oubliez pas que MJ V6 est en phase alpha et que cette fonctionnalité et d’autres peuvent changer soudainement, mais la version bêta officielle de MJ V6 sera bientôt disponible.

Partagez vos premiers tests et impressions ! 🙏

Qu’est-ce que le Turbo mode ?

🔹Les travaux en mode turbo sont 3,5 fois plus rapides pour un coût deux fois plus élevé (~10 secondes contre ~35 secondes).
🔹Ils sont exécutés sur les machines GPU les plus rapides possibles (c’est pourquoi ils sont à la fois plus rapides et plus chers).
🔹C’est idéal pour les groupes, les événements publics, chaque fois que vous êtes pressé ou que vous avez besoin de rapidité.

Comment l’utiliser / comment ça marche

🔹Tapez /turbo et tous vos travaux /imagine seront 3,5 fois plus rapides (pour un coût en gpu de 2 fois supérieur au mode fast).
🔹On peut aussi indiquer --turbo à la fin du prompt
🔹Le mode turbo prend actuellement en charge les travaux /imagine vary et remix (mais pas encore sref).
🔹Tous les travaux qui ne sont pas pris en charge par le mode turbo sont exécutés comme des travaux normaux (à un coût normal).

C’est assez fou d’avoir une V6 à 3,5 fois la vitesse. Profitez-en et amusez-vous bien !

commande /describe pour la V6.

A la base, midjourney passe normalement du texte à l’image et cette commande vous permet de passer de l’image au texte.

Nous sommes encore en train de peaufiner les choses, mais cette nouvelle version de describe est destinée à produire des messages plus longs et plus détaillés, spécialement adaptés à la V6.

Mise à jour NiJi 6 alpha:

🔹Prise en charge de l’inpainting (Vary Region), Pan et Zoom.

Note de version complète: https://sizigi.notion.site/Advanced-Vary-Region-Techniques-4532397e813740d680c3076e4e872830

Mises à jour Midjourney

🔹 Midjourney v6 Alpha passe en version par défaut

🔸Amélioration des détails

🔹Amélioration des détails sur la V6. Vous pourriez le remarquer dans des endroits comme les textures de peau, les surfaces de peinture ou de toile épaisses, le feuillage éloigné, etc. En Interne, nous avons constaté que revenir aux résultats précédents semblait plus « fade » en comparaison.
🔹En raison du changement ci-dessus, les options plus rapides –q 0.5 et –q 0.25 ont également une qualité plus raisonnable

🔸Amélioration de l’upscaler

🔹L’Upscaler subtil (x2) de la V6 est maintenant plus subtil; les résultats devraient préserver plus de détails de l’image originale avec des rendus moins lisses

🔸Mise à jour de la commande /Feedback

Ce système nécessite plus de travail pour soumettre / évaluer les idées, mais il nous donnera beaucoup plus d’informations et si cela semble bon, nous essaierons d’ajouter un classement global des idées pour Midjourney peu de temps après (ce sera alors permanant pour toute la communauté)

Quoi qu’il en soit, avant de rendre cela officiel dans les annonces, nous aimerions que vous essayiez, que vous soumettiez / évaluiez de nouvelles idées et que vous nous disiez ce que vous pensez dans le salon # alpha-ideas-and-features

Comment ça marche:
🔹Soumettre des idées sur l’onglet « Submit ideas »
🔹Évaluez les idées à l’onglet « Rate ideas ».
🔹Voir les évaluations de vos idées par les autres personnes sur l’onglet « My ideas »

💡Pour info pour avoir tester le feedback dans sa première version, évaluer des idées donne droit à des fast hours GPU gratuites (à voir si c’est toujours le cas, aucune com n’a été faite la dessus)

🔸Barre de recherche (Alpha)

🔹 Mise à jour de la barre de recherche sur la page d’exploration alpha, elle devrait être 10x plus rapide et afficher les images v6 maintenant

Deux changements ont récemment été apportés à la version 6 :

🔸Un ajustement qui améliore légèrement les détails fins dans certains scénarios et réduit les textures répétitives non naturelles (dans des endroits comme le feuillage lointain, le sol, les textiles / tissu, la peau, les cheveux / la fourrure, etc.). Vous pourriez également remarquer un rendu de texte légèrement amélioré et un peu moins de problèmes d’anatomie/main.

  • Il est possible que certains prompts pixelart se révèlent moins « propres » qu’auparavant, contenant maintenant du bruit ou du grain. Si vous voyez cela, essayez d’utiliser –q 0.5. Il est plus similaire aux paramètres précédents (et plus rapide!).

🔸Les upscalers v6 x2 agissent désormais de manière plus similaire aux upscalers Niji 6. Les Upscales subtils doivent être plus fidèles à l’image originale qu’avant, et moins susceptibles d’introduire de nouveaux artefacts indésirables.

À compter de maintenant, si vous avez fait au moins 1 000 images dans Midjourney, vous pouvez maintenant mettre à l’essai notre site Web de création d’images à https://alpha.midjourney.com

Remarque :
🔸Vous pouvez vérifier combien d’images vous avez faites en tapant /info
🔸C’est une version alpha. Elle peut être quelque peu instable et les fonctionnalités sont amenés à changer soudainement et sans préavis.
🔸Cette alpha est axée sur l’utilisation depuis un ordinateur. Elle fonctionne sur Mobile, mais a des problèmes d’interface utilisateur / UX + bugs et n’est pas une priorité jusqu’à ce que la version de bureau soit aboutie.

Au fur et à mesure que le site se stabilisera, nous ouvrirons l’accès à plus de membres existants, puis (à terme) à de nouveaux membres.

Discord continuera d’être pris en charge à long terme, et nous espérons que vous utiliserez les deux (en particulier pour la communauté, les événements, le support, les commentaires et les serveurs privés)

Nous publions aujourd’hui nos premiers algorithmes de test pour les « styles persistants ». Nous appelons cette fonctionnalité « Références de style » (Style References). Elles fonctionnent de la même manière que les prompts d’images où vous donnez une URL à une ou plusieurs images qui « décrivent » le style cohérent sur lequel vous voulez travailler.

🔶Comment utiliser les références de style

🔹Tapez --sref après votre prompt et mettez une (ou plusieurs) URL d’images comme ceci –sref urlA urlB urlC
🔹Le modèle d’image considérera les URL d’images comme des « références de style » et essaiera de créer quelque chose qui « corresponde » à leur esthétique.
🔹Définir les poids relatifs des styles comme ceci --sref urlA::2 urlB::3 urlC::5
🔹Définir la force totale de la stylisation via --sw 100 (100 est la valeur par défaut, 0 est désactivé, 1000 est la valeur maximale).
🔹Les prompt d’images régulières doivent être placées avant --sref comme ceci
/imagine cat ninja ImagePrompt1 ImagePrompt2 --sref stylePrompt1 stylePrompt2
🔹Cela fonctionne pour V6 et Niji V6 (cela ne fonctionne pas avec les versions antérieures).

🔶Veuillez noter :

🔹Nous allons probablement mettre à jour ceci dans les prochaines semaines (et cela peut changer des choses, alors soyez prudent pendant que c’est encore en alpha).
🔹Si votre message tend vers le photoréalisme et que vous voulez un style divergent comme l’illustration, vous devrez peut-être ajouter un texte à votre message pour l’indiquer.
🔹Les références de style n’ont pas d’effet direct sur les prompts d’images, mais uniquement sur les travaux qui contiennent au moins un texte.
🔹Nous prévoyons d’ajouter ultérieurement une fonction « Personnage persistant » (Consistent Character) qui fonctionnera de la même manière avec l’argument --cref.

Plus d’infos et des exemples dans mon article: Les Références de Style: le nouveau jouet de Midjourney.

Nous sommes heureux d’annoncer la version alpha de niji v6! Vous pouvez l’activer en utilisant la commande /settings pour sélectionner niji version 6 sur le bot niji ou en utilisant la commande –niji 6 à la fin de vos prompts

Notes de version :
🔸Vous pouvez essayer des prompts plus longs et plus difficiles (p. ex., une fille avec un œil vert et un œil bleu, hétérochromie).
🔸Vous pouvez écrire un texte simple en le mettant dans des citations! (par exemple: konosuba aqua holding a sign that says « cixelyn » while jumping in the air)
🔸Si vous n’aimez pas l’utilisation d’anime –niji 6 –style raw
🔸Lancement complet ( Vary (région)) + événement prévu dans le mois à venir!

Full devlog ici :https://sizigi.notion.site/Welcome-to-Niji-V6-47b0769d73b8494f8618a70bd4384f20

Note de version et premières impressions: https://geniart.fr/midjourney/niji-v6-alpha-en-temps-et-en-heure/

🔶La V6 prend désormais en charge Pan / Zoom / Vary (région)

🔹 Ces options apparaissent sous les upscales du bot v6 et sur le site alpha (sauf vary region sur le web)
🔹 Pan agit maintenant plus comme un zoom. Il devrait être plus facile à utiliser et donner des résultats de meilleure qualité (avec plus de cohérence et moins de répétition des concepts)
🔹Pan fonctionne maintenant avec upscale/vary/remix mais n’augmente plus la résolution à l’infini.

🔶 http://alpha.midjourney.com (avec création d’image) est maintenant disponible pour le 5k-club

🔹Le 5000-club comprend tous ceux qui ont fait au moins 5000 images sur Midjourney
🔹Vérifiez le nombre d’images réalisées avec /info
🔹Vous pouvez accéder au site ici : http://alpha.midjourney.com

🔶 Nouvelle fonction de d’évaluation (avis): /feedback

🔹Cela vous permet de soumettre vos principales priorités à Midjourney pour qu’ils travaillent dessus.
🔹Vous pouvez également évaluer les priorités des autres
🔹Nous utilisons ces données pour faire une seule grande liste pour aider nos ingénieurs à déterminer sur quoi ils doivent se concentrer
🔹Nous examinerons la liste publiquement aux prochaines Office Hours et montrerons des visualisations intéressantes
🔹Veuillez mettre à jour vos priorités chaque fois que nous lançons de nouvelles fonctionnalités (comme avec le lancement du vary region ci-dessus)

🔶Changements dans la page d’exploration :

🔹Nouveaux états de survol pour la page d’exploration
🔹Améliorations supplémentaires du contenu de la page d’exploration
🔹Ajout de la fonction « hot/top/random » à la page d’exploration
🔹Recherche d’images similaires (cliquer sur la loupe)

🔶Modifications de la page Créer

🔹Le survol des images permet désormais d’afficher des boutons de variation
🔹Passez la souris sous l’invite pour afficher d’autres boutons d’option.
🔹Nouveau bouton « Hide » (c’est plus comme un emoji de vomi mais vous voyez l’idée et c’est facile), ce n’est pas un substitut pour le mode furtif.
(il n’y a pas encore de bouton « Unhide » mais vous pouvez voir les éléments cachés dans les archives sous les filtres)

🔶Modifications de la page d’archive

🔹Nouvelle fonction ‘timeline’, déplacez la souris sur la barre de défilement pour voir / parcourir les dates.

Mises à jour importantes de la V6 alpha. Elles s’appliquent à tous les nouveaux travaux à compter de maintenant.

Note de mise à jour V6

🔹Les upscales sont maintenant deux fois plus rapides (et utilisent deux fois moins de minutes GPU)
🔹Amélioration de l’esthétique, de la cohérence, du respect des prompts et de la qualité d’image
🔹Amélioration du rendu du texte (vous devez mettre le texte entre « guillemets » dans votre prompt)
🔹Amélioration des performances pour les valeurs de –stylize élevées
(en termes de qualité d’image, d’esthétique, de rendu du texte et de précision du prompt)

Veuillez noter : Nous continuerons à pousser les améliorations au cours des prochaines semaines alors que nous nous dirigeons vers la phase bêta officielle de V6

Midjourney V6 Alpha!

🔹Prompt beaucoup plus précis y compris pour des prompts plus longs
🔹Amélioration de la cohérence et connaissance du modèle
🔹Amélioration du prompt d’image et du remix
🔹Capacité de dessin de texte mineur
(vous devez écrire votre texte en « guillemets » et –style raw ou une valeur de –stylize peu élevée)
🔹Upscalers améliorés, avec des modes ‘subtils’ et ‘créatifs’ (augmente la résolution de 2x)
(vous verrez les boutons sous vos images après avoir cliqué sur U1/U2/U3/U4)
 
Les paramètres suivants sont pris en charge au lancement :
–ar, –chaos, –weird, –tile ,–stylize, –style raw , Vary (subtle) ,Vary (strong), Remix, /blend ,/describe (juste la version v5)
 
Ces fonctions ne sont pas encore prises en charge, mais elles devraient arriver au cours du prochain mois :
Pan, Zoom, Vary (region), /tune, /describe (une nouvelle version v6)

Style et prompting pour la V6

🔹La compréhension des prompts avec la V6 est significativement différente de la V5. Vous devrez ‘réapprendre’ comment rédiger vos requêtes.
🔹La V6 est BEAUCOUP plus sensible à votre prompt. Évitez les termes du genre: « award winning, photorealistic, 4k, 8k »
🔹Soyez explicite à propos de ce que vous voulez. Il est peut-être moins impressionnant, mais si vous êtes explicite, la compréhension serra bien meilleure.
🔹Si vous voulez quelque chose de plus photographique / moins opiniâtre / plus littéral, vous devriez probablement utiliser par défaut le –style raw
🔹Les valeurs inférieures de –stylize (par défaut 100) peuvent avoir une meilleure compréhension rapide tandis que les valeurs plus élevées (jusqu’à 1000) peuvent avoir une meilleure esthétique

Plus d’info dans mon article: Midjourney V6, c’est Noel avant l’heure!

Ouvert pour l’instant qu’aux utilisateurs ayant plus de 10.000 générations à l’adresse: https://alpha.midjourney.com/

  • La possibilité de créer des images nativement sur le site (sans Discord).
  • Il s’agit d’un test ALPHA, ce qui signifie que ce site est une zone de construction active.
  • Les choses changeront MASSIVEMENT, sans préavis, chaque semaine pendant les prochains mois jusqu’à ce que nous soyons prêts pour une version publique ou une version bêta plus « stable ».

Quelques notes sur cet alpha

  • Vous pouvez faire glisser des images dans la barre d’image pour les utiliser dans votre prompt.
  • Le batch downloader (téléchargement par lot) n’est pas encore supporté sur ce site.
  • La version mobile n’est pas au centre de ce cycle de développement.
  • La version mobile de l’alpha sera en retard sur les fonctionnalités, il est buggué, et il y a des choses manquantes.
  • Il n’y a pratiquement aucune fonctionnalité sociale dans cet alpha, mais elles apparaîtront au cours des prochains mois
  • Autres fonctionnalités pas encore sur l’alpha : Variation (région), Style Tuner, Remix pour le zoom panoramique ou les variations fortes, zoom personnalisé (custom zoom), préférences personnalisées, suppression d’images et /describe.

Quelques exemples de choses sur lesquelles on travaille actuellement et auxquelles on pense

  • De meilleurs contrôles d’action dans la Lightbox. Peut-être un mode de vue ‘grille’.
  • Une barre /imagine différente. Une interface utilisateur/UX différente pour l’envoie d’images. Un panneau de paramètres en plein écran.
  • Une nouvelle page d’exploration (explore page)
  • Nous séparerons probablement l’affichage des travaux finis de celui des créations, et la vue des créations elle-même changera considérablement.

Plus d’infos sur mon article: Guide des sites Midjourney: Tour d’horizon des 4 versions!

Le Style Tuner disponible sur NiJi pour pouvoir créer vos propres styles.

Fonctionne comme celui de Midjourney, à savoir tout de même que les –styles expressive, scenic et cute ne sont pas utilisables pour la création de style.

Note de version complète des développeurs

Cette première version du Style Tuner va permettre de contrôler la personnalisation du style de vos rendus et de les réutiliser, les combiner et les partager.

Personnalisation de style avec la V1 du Style Tuner (Cliquez sur le lien pour plus d’infos)

La phase 1 du nouveau site Midjourney accessible en beta. (Cliquez sur le lien pour plus d’infos)

Cette première version est axée sur la recherche, la navigation et la visualisation d’images. Les fonctionnalités d’organisation (telles que les collections) et les fonctionnalités de création d’images seront incluses dans les versions à venir.

– L’upscaler voit le jour avec les boutons Upscale (2x) et Upscale (4x) qui apparaissent une fois que vous avez agrandis votre image de la grille avec les boutons U1, U2, U3 ou U4. Il vous permet de doubler ou quadrupler la taille de vos images.

– Il est utilisable pour toutes les images générées depuis la V5 et NiJi 5. Pour en profiter sur des images précédant la mise à jour, utilisez la commande /show job_id.

– Il s’agit d’un upscaler subtile, c’est à dire qu’il respecte au maximum l’image originale.

Toutes les infos et tests ici: Midjourney Upscaler: Agrandir ses images ou dans la documentation midjourney.

Première version de l’appli mobile Niji · journey

Possibilité de générer des images depuis l’app, feed, galerie Niji.

– L’inpainting est enfin là, intégrer dans discord (version desktop et smartphone) à travers une fenêtre contextuelle lorsque l’on clique sur Vary (Region) sur les images agrandies (Upscale).

toutes les explications dans la documentation: Variations selectives.

– Mise à niveau du cluster GPU. Les utilisateurs Pro et Mega devraient voir des accélérations de ~1,5x (/imagine de ~50 secondes à ~30 secondes).
Ces rendus devraient également être environ 1,5 fois moins chers.

Toute capacité GPU supplémentaire accélérera aléatoirement les actions pour les autres plans d’abonnement.

–  Nouvelle option pour faire des panoramiques, vous pouvez étendre votre image sur les cotés à la verticale ou à l’horizontale avec les  flèches ◀️▶️?? qui s’affichent sous les agrandissements.

–  Nouveau paramètre –weird. Permet de rajouter un coté « bizarre » à votre image (valeur entre 1 et 3000)
–  Nouveau plan d’abonnement à 120$/mois
–  Mode /turbo génère vos images 4x plus vite pour 2x le prix

La V5.2 est enfin disponible avec un peu de retard
– Nouveau système d’esthétique
– Fonction Stylize plus puissante
– Nouveau mode « Haute variation »
– Nouvelle commande /shorten
– Nouvelle fonction de zoom arrière
– Retour de la commande –video

La note de mise à jour complète : Midjourney V5.2 est enfin là !

La V5.1 est plus opiniâtre (comme la V4) et est BEAUCOUP plus facile à utiliser avec des prompt courts
– Il existe un mode « sans opinion » pour la V5.1 (similaire à la V5.0 par défaut) appelé « Mode RAW »
– Ne vous inquiétez pas, la V5 est toujours disponible (comme avant)

Autres changements dans la V5.1 par rapport à la V5.0
– Meilleure cohérence
– Plus de précision par rapport aux textes des prompts
– Moins de bordures indésirables ou d’artefacts de texte
– Amélioration de la netteté

Comment activer V5.1 :
– Allez dans /settings et cliquez sur « V5.1 » (sur la deuxième ligne) ou tapez --v 5.1 après votre prompt
– Pour le mode RAW, cliquez sur le bouton Mode RAW dans les /settings (après avoir cliqué sur V5.1) ou tapez --style raw

Autres petites mises à jour:

  • Le modérateur de l’IA est désormais en « Appels automatiques »
    – Nous constatons qu’il y a très peu de prompt signalés comme « dangereux », nous les envoyons donc automatiquement via le deuxième processus de contestation de l’IA, plus puissant maintenant
    – Cela devrait entraîner moins rejets et une expérience plus fluide (pas besoin d’appuyer sur « faire appel » (Appeal))
    – Si vous constatez que votre prompt est toujours rejeté de manière incorrecte, appuyez sur le bouton « Notifier le développeur » sous le message de rejet pour nous aider à améliorer notre système
  • Répétitions et permutations maintenant disponibles pour les membres à 10 $
    – Pour les abonnements de base, nous autorisons désormais les commandes uniques qui démarrent jusqu’à 4 tâches
    – Pour la commande de répétition qui ressemble à --repeat 4
    – Pour une permutation qui ressemble à un {chien, chat} in the style of {vaporwave, art déco}
    – Les limites d’adhésion Standard / Pro restent les mêmes qu’avantSi vous avez un abonnement de 10 $, faites attention à ne pas utiliser toutes vos heures de cette façon ! Ceci est principalement destiné à permettre à chacun d’expérimenter les fonctionnalités et d’obtenir une productivité maximale lorsque vous en avez besoin.

Ajout d’un nouveau style à Nijijourney (le modèle Midjourney sur le thème de l’anime).

ce style est appelé « scénique » et est destiné à de beaux arrière-plans et des personnages dans de beaux environnements.

Pour l’utiliser, activez d’abord Niji v5 avec /settings puis choisissez votre style avec --style scenic en fin de prompt.

On a évidement tester ce style pour vous : Mise à jour Niji 5 avec encore un nouveau style: scenic

Ajout de deux nouveaux styles de NijiJourney (le modèle Midjourney sur le thème de l’anime)

Pour les utiliser, activez d’abord Niji v5 dans les paramètres avec /settings puis choisissez votre style avec --style cute ou --style expressive;

Le style cute est assez mignon! L’expressif est légèrement plus 3D et occidentalisé.

Voila pour ce qui est de l’annonce officielle de la part de Midjourney, du coup on a testé ici.

Ajout de la fonction permutation qui permet de générer rapidement des variantes d’un prompt avec une seule requête.

Cette fonctionnalité est actuellement limitée aux abonnés ayant souscris au plan standard (à 30$/mois) ou au plan pro (à 60$/mois)


Présentation de la fonction de répétition (–repeat)
– Tapez --repeat avec un nombre pour exécuter ce travail autant de fois que souhaitées.
– Par exemple /imagine cats --repeat 5 créera cinq grilles 2×2 de chats

Lancement de la version 5 du générateur d’image Niji (NijiJourney V5).

Vous pouvez l’activer en tapant /settings et en cliquant sur niji version 5 ou en tapant --niji 5 à la fin de vos prompts.

Le style de ce modèle est plus fort que le modèle par défaut, donc si vous voulez augmenter ou diminuer l’intensité de la stylisation, veuillez utiliser la commande --stylize (ou --s pour faire court); --s 100 est la valeur par défaut et elle va de --s 0 au plus bas à --s 1000 au plus haut.

La commande /describe permet d’envoyer une image au Bot, et vous permet d’obtenir 4 prompts textuels qui tentent de décrire l’image.

– Cliquez sur les boutons sous la commande pour générer des images pour chacune des invites.

En raison d’une combinaison de demandes extraordinaires et d’abus d’essais, Midjourney désactive temporairement les essais gratuits jusqu’à ce que de prochaines améliorations du système soient déployées

Pour l’activer, tapez --v 5 après votre prompt ou sélectionnez « V5 » dans /settings

  • Meilleure performance, plus de détails, une plus large gamme stylistique, moins d’artefacts et de texte indésirable.
  • Prise en charge du paramètre --tile pour la réalisation de mosaïque.
  • Rapports d’aspect (ratio) --ar supérieurs à 2: 1.
  • Prise en charge du paramètre --iw pour donner du poids aux prompts d’image par rapport aux prompts textuels.

Derniers Articles

1608, 2024

Reproduire un même personnage sur Midjourney (cref)

Nommé “cref” pour “character reference”, cette fonctionnalité sur midjourney permet d’utiliser des images comme références de personnage dans votre prompt pour reproduire des images du même personnage dans différentes situations et/ou dans différents styles. Avant de commencer il faut savoir que: les références de personnages fonctionnent mieux lorsque l’on utilise des images générées par Midjourney qui mettent en scène

1008, 2024

En un mot, je prompt comme un pro sur midjourney

Dans cet article fun au titre un peu provocateur, je vais vous présenter des prompts d'un seul mot qui permettent d'obtenir des résultats impressionnants, dignes parfois de véritables créations professionnelles, avec quasiment aucun déchet. Il s'agit en fait de référer à des banques d'images très connues. Difficile de dire si midjourney a été entrainé directement à partir de celle-ci,

1007, 2024

Le combo: Styles de référence et personnalisation de modèle Midjourney

Dans cet article je vais vous présenter l'étendue des possibilités en combinant les styles de référence (random et image) et les personnalisations de modèle. Nous allons voir comment en partant d'un prompt extrêmement simple d'un seul mot on peut arriver à un rendu final travaillé et exploitable professionnellement. Cela va nous permettre, étape par étape, de voir comment utiliser

606, 2024

La bible des styles aléatoires sur midjourney (sref random code)

Le 23 avril 2024 Midjourney publié une nouvelle fonctionnalité, le --sref random qui permet d'appliquer un style aléatoire à une génération. D'abord assez peu emballé par ce nouveau gadget, la mise à jour du 27 avril est venue changer la donne. En effet lorsque l'on fait un style aléatoire il est désormais traduit en un code (le sref random

1105, 2024

La génération de texte dans Midjourney: Tout savoir!

La grosse nouveauté très attendue qui a été introduite dans la version 6 de Midjourney (déployée le 21 décembre 2023) et dans la v6 du modèle NiJi sortie le 30 janvier 2024, est la possibilité de générer du texte. Tout d’abord il faut bien vous assurer que vous soyez en v6, il est recommandé d’ajouter --v 6 à la

1902, 2024

Les références de Style: le nouveau jouet de Midjourney

Sortie le 31 janvier, la référence de style (ou style reference) qui permet d'injecter un style à partir d'une ou plusieurs images, et de le retransposer à de nouvelles générations. Voici la note de version officielle du 31 janvier traduite par mes soins (que vous pouvez retrouver sur la page d'accueil de la documentation en français): Nous publions aujourd'hui

Aller en haut