Février 2022
Midjourney V1
12 Avril 2022
Midjourney V2
25 Juillet 2022
Midjourney V3
5 Novembre 2022
Midjourney V4
21 Décembre 2022
Niji V4
15 Mars 2023
28 Mars 2023
Fin de l'offre gratuite
4 Avril 2023
Niji V5
3 Mai 2023
Midjourney V5.1
23 Juin 2023
Midjourney V5.2
30 Juin - 3 Juillet 2023
fonction --weird Panoramique
21 Aout 2023
Inpainting (Vary Region)
14 Octobre 2023
App Mobile NiJi
18 Octobre 2023
Upscaler (x2) et (x4)
24 Octobre 2023
Nouveau Site Web (phase 1)
02 Novembre 2023
Style Tuner
12 Décembre 2023
Site en Alpha génération d'images en ligne
21 Décembre 2023
Modèle V6 !
6 janvier 2024
Mise à jour V6 alpha
25 janvier 2024
Pan / Zoom / Inpainting V6 Alpha
30 janvier 2024
NiJi V6 Alpha
31 janvier 2024
Référence de style --sref
11 Mars 2024
Référence de personnage --cref
23 Avril 2024
Styles aléatoires
12 Juin 2024
Personnalisation de modèle
30 Juillet 2024
Midjourney V6.1
Historiques des Mises à Jour (Annonces officielles) :
⛵️📢 Des tests et questionnaires pour du GPU gratuit
Nous avons deux petites nouveautés aujourd’hui :
- Nous publions un test de personnalité pour aider à comprendre les origines de la beauté… En gros, quel est le lien entre notre personnalité et ce que nous trouvons beau et comment nous voyons la beauté différemment ?
Faites le test sur https://midjourney.com/surveys?survey=personality-ambi
Le test devrait prendre environ 15 minutes et vous donnera une TONNE de résultats amusants sur vous-même à la fin. Il contribuera également à nos recherches de pointe. Aucun abonnement n’est nécessaire pour faire le test, mais les abonnés recevront 2 heures de gpu gratuites après l’avoir fait.
- Nous ajoutons de nouveaux tests de classement par paires pour permettre à la communauté d’améliorer la précision des prompts et les modèles Niji :
Classez la précision des messages ici : http://midjourney.com/rank-accuracy
Classer les images de Niji (anime) ici : http://midjourney.com/rank-niji
Les 2000 meilleurs classeurs de paires obtiennent 1 heure de Gpu gratuit par jour.
Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de nos modèles et de la science ! Nous sommes impatients de partager les résultats avec vous et d’en explorer le sens ensemble.
(Voici un petit exemple de quelques dizaines d’éléments parmi les 200 mesurés par le test).
⛵️📢 Ouverture du site et Essais gratuits!
Aujourd’hui, nous ouvrons la création d’images sur le web à tout le monde !
Tout le monde peut maintenant aller sur notre site web et commencer à créer des images.
Pour permettre aux gens de jouer avec le nouveau site, nous avons temporairement mis en place des essais gratuits (~25 images).
Attention
🔸Vous devez toujours vous connecter avec votre compte discord sur le site web si vous voulez avoir l’historique de vos images créées sur discord.
🔸Vous pouvez fusionner vos comptes discord et Google dans votre onglet « compte » si vous souhaitez pouvoir vous connecter avec l’un ou l’autre à l’avenir.
🔸Les nouveaux utilisateurs peuvent s’inscrire en utilisant leur compte Google ou leur compte Discord.
⛵️📢 Nous publions aujourd’hui la version 6.1 de nos modèles d’images Midjourney.
🔶Quelles sont les nouveautés de la V6.1 ?
🔹Plus d’images cohérentes (bras, jambes, mains, corps, plantes, animaux, etc)
🔹Une bien meilleure qualité d’image (réduction des artefacts de pixels, amélioration des textures, de la peau, rétro 8bit, etc.)
🔹Caractéristiques des petites images plus précises, détaillées et correctes (yeux, petits visages, mains éloignées, etc.)
🔹Nouveaux upscalers avec une bien meilleure qualité d’image et de texture
🔹Environ 25 % plus rapide pour les travaux d’image standard
🔹Amélioration de la précision du texte (lors du dessin de mots par le biais de « citations » dans les prompts)
🔹Un nouveau modèle de personnalisation avec plus de nuances, de surprise et de précision
🔹Versioning du code de personnalisation (utilisez n’importe quel code de personnalisation d’un ancien travail pour utiliser le modèle de personnalisation et les données de ce travail).
🔹Un nouveau mode –q 2 qui prend 25 % de temps en plus pour ajouter (parfois) plus de texture au prix d’une réduction de la cohérence de l’image.
🔹Les choses devraient être « généralement plus belles » dans l’ensemble.
🔶Autres notes importantes :
🔹La V6.1 n’a pas encore de nouveau modèle d’inpainting/outpainting, donc si vous utilisez zoom/reframe/repainting/vary region, vous reviendrez au modèle de la V6.0.
🔹Si vous voulez revenir à la V6, allez dans /settings et cliquez sur V6 ou tapez –v 6 après votre travail (ou cliquez sur le panneau des paramètres sur le site web).
Projets futurs : Nous sortirons probablement un modèle V6.2 dans le mois à venir avec d’autres améliorations, mais nous devons d’abord rassembler autant de données que possible sur les utilisateurs de la V6.1. Ainsi, à partir d’aujourd’hui, nous ne nous contentons pas de sortir la V6.1, mais nous en faisons le modèle par défaut sur Midjourney pour tous les utilisateurs.
Nous espérons que cette nouvelle version plaira à tout le monde ! Amusez-vous bien ! ❤️
nous ajoutons aujourd’hui des options plus avancées pour --sref
(références de style) et --p
(personnalisation du modèle)
Nouvelles fonctionnalités pour les références de style
🔸Vous pouvez maintenant mélanger plusieurs codes --sref
ensemble (par exemple --sref
123 456)
🔸Vous pouvez maintenant mélanger les urls des images de référence de style et les codes aléatoires sref (par exemple --sref
123 url).
🔸Vous pouvez pondérer des codes ou des urls individuels comme suit --sref 123::2 456::1
Nouveau mélange de personnalisation de modèle
🔸Vous pouvez maintenant mélanger plusieurs codes de personnalisation de modèle comme --p ab12ad3 cd34gl
🔸Nous avons également activé le mélange avec la même notation --p ab12ad3::2 cd34gl::1
Mélangez vos codes de personnalisation et de style avec ceux de vos amis et explorez de nouveaux espaces d’harmonie esthétique mutuelle !
⛵️📢 Enquête Midjourney récompensés par 2h de fast GPU
Nous lançons un nouveau projet de recherche sur les origines de la beauté… En gros, quand trouvons-nous quelque chose de beau collectivement et quand voyons-nous la beauté différemment ?
Pour ce faire, nous comparons les modèles personnalisés que les gens fabriquent aux réponses de plusieurs nouvelles enquêtes.
La première enquête porte sur les données démographiques : comment des facteurs tels que l’âge, le sexe, le pays, etc. influencent-ils ce que nous trouvons beau ?
Répondez à l’enquête ici : https://www.midjourney.com/surveys?survey=demographics
Elle prend ~5 minutes et chaque personne qui la complète reçoit 2 heures de gpu rapide en récompense.
Nous essaierons d’utiliser ces données pour partager de nouvelles connaissances approfondies sur l’esthétique humaine et peut-être même pour créer de nouvelles fonctionnalités qui vous permettront d’explorer ces connaissances vous-même ! Toutes les données sont privées, vous pouvez demander leur suppression à tout moment sur la page de votre compte, et vous pouvez sauter n’importe quelle question (vous recevrez des récompenses pour le pourcentage auquel vous répondez).
La prochaine enquête portera davantage sur la personnalité et devrait être publiée dans une semaine ou deux.
Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de la science. Nous avons hâte de partager les résultats avec vous et d’en explorer le sens ensemble ❤️
Nous avons apporté quelques modifications au site web afin d’en simplifier l’utilisation. Quelques changements à noter :
🔸Les outils ‘Pan’ et ‘Zoom’ sont désormais unifiés et s’appellent ‘Reframe‘
🔸L’outil ‘Remix’ se trouve désormais dans l’outil ‘Reframe‘. Cela vous permet de modifier le prompt lors d’un panoramique ou d’un zoom.
🔸L’outil « Vary Region » s’appelle désormais « Repaint« .
🔸Les messages d’erreur sont plus descriptifs et il n’est pas nécessaire de les survoler pour obtenir plus d’informations.
🔸La barre latérale est plus simple. Les fonctions « Rank Images » et « Rank Ideas » se trouvent désormais sur la page « Tasks« .
🔸La fonction « Signaler un bug » se trouve désormais dans le menu « Help« .
Nous sortons aujourd’hui une nouvelle version de notre modèle Niji (Niji est notre modèle spécialement conçu pour l’esthétique orientale / anime).
Nouvelles mises à jour du modèle :
🔸Amélioration du rendu du texte japonais.
🔸Le modèle peut maintenant bien rendre des textes courts en kana japonais et, dans certains cas, peut aussi rendre des textes qui incluent des caractères chinois simples.
🔸Amélioration des détails de l’image (comme la structure des yeux des animes).
🔸Correction de certains artefacts d’image qui affectaient auparavant un très petit nombre de générations.
Rappel :
🔸Vous pouvez activer Niji it en tapant /settings et en cliquant sur niji model 6 ou en tapant –niji 6 après les prompts.
🔸Vous pouvez montrer des images de Niji dans le salon #niji-showcase (sur discord)
🔸Il y a un serveur discord dédié à Niji ici (avec des canaux pour les non-anglophones).
https://discord.com/invite/nijijourney
Nous espérons que vous apprécierez ces mises à jour ! Restez à l’écoute pour plus d’infos la semaine prochaine.
🔶Nous ouvrons notre alpha web à tous ceux qui ont 100 générations ou plus (utilisez /info pour voir combien de travaux vous avez). Regardez ici : https://alpha.midjourney.com
Les principales différences entre ce site et notre site normal sont les suivantes :
🔹La possibilité de créer des images sur le web (cliquez sur « Créer »)
🔹 La possibilité d’aider à tester les premières salles publiques et de créer des images ensemble (cliquez sur « Rooms »).
La création de salles privées et personnalisées se fera dans les semaines à venir.
N’hésitez pas à nous faire part de votre avis dans la rubrique « Idées et fonctionnalités » (sur discord) .
🔶Nous offrons maintenant des copies gratuites du magazine Midjourney pour les écoles, les magasins et les groupes communautaires. Si vous vous reconnaissez dans cette offre, envoyez votre demande à https://mag.midjourney.com/distribution. Pour tous les autres, ne vous inquiétez pas, vous pouvez toujours obtenir des magazines pour 4$/mois sur https://mag.midjourney.com.
Nous testons de nouveaux algorithmes pour « explorer l’espace latent des styles visuels » et mettons à la disposition de tous un outil simple et amusant.
🔹Vous pouvez désormais taper --sref random
à la fin de vos prompts et obtenir des styles totalement aléatoires.
Par exemple, en dessous de ce post, il y a 64 itérations du prompt « /imagine a field of flowers --sref random
« .
Si vous aimez quelque chose que vous trouvez, utilisez --sref url
avec l’url de l’image pour en obtenir d’autres.
Il s’agit d’un test d’un algorithme sous-jacent pour lequel nous créerons des outils plus avancés à l’avenir.
Pour l’instant, nous espérons que vous vous amuserez !
🔶 Nous publions deux nouveaux algorithmes pour les références de style ainsi qu’une nouvelle fonctionnalité de « versioning ».
--sv
--sv 1
L’algorithme de référence de style original que nous avons publié avec--sv 2
L’algorithme par défaut jusqu’à aujourd’hui--sv 3
Une nouvelle version de sv1 avec de meilleures performances et plus « vibrant » que sv2--sv 4
Une nouvelle version de sv2 avec de meilleures performances (c’est la version par défaut)🔶 Nous revenons sur les heures de GPU gratuites pour l’évaluation des images.
Nous sortons aujourd’hui la version 2 de la fonctionnalité « référence de style ».
Elle devrait être beaucoup plus précise en ce qui concerne la compréhension du style et elle devrait être beaucoup plus efficace pour éviter les « fuites » d’éléments non stylistiques dans vos images. Nous avons également amélioré le fonctionnement du paramètre de poids –sw, afin qu’il soit plus significatif et qu’il ait une plus grande portée.
🔶Qu’est-ce qu’une référence de style ?
Les références de style vous permettent de référencer le style d’une autre image ou de conserver un style cohérent sur plusieurs images. Il s’agit d’un outil similaire aux prompts d’images, mais qui se concentre uniquement sur le style.
🔶Comment l’utiliser à nouveau ?
Pour utiliser une référence de style, tapez –sref URL après votre prompt avec l’url d’une image. Pour augmenter l’influence du style, appliquez un poids de style (–sw) proche de 1000. Pour diminuer la puissance du style, définissez le poids plus proche de –sw 0 (la valeur par défaut est 100). Vous pouvez également ajouter plusieurs références de style.
Voici un exemple bête et rapide utilisant un dessin au crayon de couleur comme référence. Quoi qu’il en soit, nous espérons que vous vous amuserez ! ❤️
Qu’est-ce que le Turbo mode ?
🔹Les travaux en mode turbo sont 3,5 fois plus rapides pour un coût deux fois plus élevé (~10 secondes contre ~35 secondes).
🔹Ils sont exécutés sur les machines GPU les plus rapides possibles (c’est pourquoi ils sont à la fois plus rapides et plus chers).
🔹C’est idéal pour les groupes, les événements publics, chaque fois que vous êtes pressé ou que vous avez besoin de rapidité.
Comment l’utiliser / comment ça marche
🔹Tapez /turbo et tous vos travaux /imagine seront 3,5 fois plus rapides (pour un coût en gpu de 2 fois supérieur au mode fast).
🔹On peut aussi indiquer --turbo
à la fin du prompt
🔹Le mode turbo prend actuellement en charge les travaux /imagine vary et remix (mais pas encore sref).
🔹Tous les travaux qui ne sont pas pris en charge par le mode turbo sont exécutés comme des travaux normaux (à un coût normal).
C’est assez fou d’avoir une V6 à 3,5 fois la vitesse. Profitez-en et amusez-vous bien !
commande /describe pour la V6.
A la base, midjourney passe normalement du texte à l’image et cette commande vous permet de passer de l’image au texte.
Nous sommes encore en train de peaufiner les choses, mais cette nouvelle version de describe est destinée à produire des messages plus longs et plus détaillés, spécialement adaptés à la V6.
Deux changements ont récemment été apportés à la version 6 :
🔸Un ajustement qui améliore légèrement les détails fins dans certains scénarios et réduit les textures répétitives non naturelles (dans des endroits comme le feuillage lointain, le sol, les textiles / tissu, la peau, les cheveux / la fourrure, etc.). Vous pourriez également remarquer un rendu de texte légèrement amélioré et un peu moins de problèmes d’anatomie/main.
- Il est possible que certains prompts pixelart se révèlent moins « propres » qu’auparavant, contenant maintenant du bruit ou du grain. Si vous voyez cela, essayez d’utiliser –q 0.5. Il est plus similaire aux paramètres précédents (et plus rapide!).
🔸Les upscalers v6 x2 agissent désormais de manière plus similaire aux upscalers Niji 6. Les Upscales subtils doivent être plus fidèles à l’image originale qu’avant, et moins susceptibles d’introduire de nouveaux artefacts indésirables.
Nous publions aujourd’hui nos premiers algorithmes de test pour les « styles persistants ». Nous appelons cette fonctionnalité « Références de style » (Style References). Elles fonctionnent de la même manière que les prompts d’images où vous donnez une URL à une ou plusieurs images qui « décrivent » le style cohérent sur lequel vous voulez travailler.
🔶Comment utiliser les références de style
🔹Tapez --sref
après votre prompt et mettez une (ou plusieurs) URL d’images comme ceci –sref urlA urlB urlC
🔹Le modèle d’image considérera les URL d’images comme des « références de style » et essaiera de créer quelque chose qui « corresponde » à leur esthétique.
🔹Définir les poids relatifs des styles comme ceci --sref
urlA::2 urlB::3 urlC::5
🔹Définir la force totale de la stylisation via --sw
100 (100 est la valeur par défaut, 0 est désactivé, 1000 est la valeur maximale).
🔹Les prompt d’images régulières doivent être placées avant --sref
comme ceci
/imagine cat ninja ImagePrompt1 ImagePrompt2 --sref
stylePrompt1 stylePrompt2
🔹Cela fonctionne pour V6 et Niji V6 (cela ne fonctionne pas avec les versions antérieures).
🔶Veuillez noter :
🔹Nous allons probablement mettre à jour ceci dans les prochaines semaines (et cela peut changer des choses, alors soyez prudent pendant que c’est encore en alpha).
🔹Si votre message tend vers le photoréalisme et que vous voulez un style divergent comme l’illustration, vous devrez peut-être ajouter un texte à votre message pour l’indiquer.
🔹Les références de style n’ont pas d’effet direct sur les prompts d’images, mais uniquement sur les travaux qui contiennent au moins un texte.
🔹Nous prévoyons d’ajouter ultérieurement une fonction « Personnage persistant » (Consistent Character) qui fonctionnera de la même manière avec l’argument --cref
.
Plus d’infos et des exemples dans mon article: Les Références de Style: le nouveau jouet de Midjourney.
🔶La V6 prend désormais en charge Pan / Zoom / Vary (région)
🔹 Ces options apparaissent sous les upscales du bot v6 et sur le site alpha (sauf vary region sur le web)
🔹 Pan agit maintenant plus comme un zoom. Il devrait être plus facile à utiliser et donner des résultats de meilleure qualité (avec plus de cohérence et moins de répétition des concepts)
🔹Pan fonctionne maintenant avec upscale/vary/remix mais n’augmente plus la résolution à l’infini.
🔶 http://alpha.midjourney.com (avec création d’image) est maintenant disponible pour le 5k-club
🔹Le 5000-club comprend tous ceux qui ont fait au moins 5000 images sur Midjourney
🔹Vérifiez le nombre d’images réalisées avec /info
🔹Vous pouvez accéder au site ici : http://alpha.midjourney.com
🔶 Nouvelle fonction de d’évaluation (avis): /feedback
🔹Cela vous permet de soumettre vos principales priorités à Midjourney pour qu’ils travaillent dessus.
🔹Vous pouvez également évaluer les priorités des autres
🔹Nous utilisons ces données pour faire une seule grande liste pour aider nos ingénieurs à déterminer sur quoi ils doivent se concentrer
🔹Nous examinerons la liste publiquement aux prochaines Office Hours et montrerons des visualisations intéressantes
🔹Veuillez mettre à jour vos priorités chaque fois que nous lançons de nouvelles fonctionnalités (comme avec le lancement du vary region ci-dessus)
Mises à jour importantes de la V6 alpha. Elles s’appliquent à tous les nouveaux travaux à compter de maintenant.
Note de mise à jour V6
🔹Les upscales sont maintenant deux fois plus rapides (et utilisent deux fois moins de minutes GPU)
🔹Amélioration de l’esthétique, de la cohérence, du respect des prompts et de la qualité d’image
🔹Amélioration du rendu du texte (vous devez mettre le texte entre « guillemets » dans votre prompt)
🔹Amélioration des performances pour les valeurs de –stylize élevées
(en termes de qualité d’image, d’esthétique, de rendu du texte et de précision du prompt)
Veuillez noter : Nous continuerons à pousser les améliorations au cours des prochaines semaines alors que nous nous dirigeons vers la phase bêta officielle de V6
Ouvert pour l’instant qu’aux utilisateurs ayant plus de 10.000 générations à l’adresse: https://alpha.midjourney.com/
- La possibilité de créer des images nativement sur le site (sans Discord).
- Il s’agit d’un test ALPHA, ce qui signifie que ce site est une zone de construction active.
- Les choses changeront MASSIVEMENT, sans préavis, chaque semaine pendant les prochains mois jusqu’à ce que nous soyons prêts pour une version publique ou une version bêta plus « stable ».
Quelques notes sur cet alpha
- Vous pouvez faire glisser des images dans la barre d’image pour les utiliser dans votre prompt.
- Le batch downloader (téléchargement par lot) n’est pas encore supporté sur ce site.
- La version mobile n’est pas au centre de ce cycle de développement.
- La version mobile de l’alpha sera en retard sur les fonctionnalités, il est buggué, et il y a des choses manquantes.
- Il n’y a pratiquement aucune fonctionnalité sociale dans cet alpha, mais elles apparaîtront au cours des prochains mois
- Autres fonctionnalités pas encore sur l’alpha : Variation (région), Style Tuner, Remix pour le zoom panoramique ou les variations fortes, zoom personnalisé (custom zoom), préférences personnalisées, suppression d’images et /describe.
Quelques exemples de choses sur lesquelles on travaille actuellement et auxquelles on pense
- De meilleurs contrôles d’action dans la Lightbox. Peut-être un mode de vue ‘grille’.
- Une barre /imagine différente. Une interface utilisateur/UX différente pour l’envoie d’images. Un panneau de paramètres en plein écran.
- Une nouvelle page d’exploration (explore page)
- Nous séparerons probablement l’affichage des travaux finis de celui des créations, et la vue des créations elle-même changera considérablement.
Plus d’infos sur mon article: Guide des sites Midjourney: Tour d’horizon des 4 versions!
Cette première version du Style Tuner va permettre de contrôler la personnalisation du style de vos rendus et de les réutiliser, les combiner et les partager.
Personnalisation de style avec la V1 du Style Tuner (Cliquez sur le lien pour plus d’infos)
– L’upscaler voit le jour avec les boutons Upscale (2x) et Upscale (4x) qui apparaissent une fois que vous avez agrandis votre image de la grille avec les boutons U1, U2, U3 ou U4. Il vous permet de doubler ou quadrupler la taille de vos images.
– Il est utilisable pour toutes les images générées depuis la V5 et NiJi 5. Pour en profiter sur des images précédant la mise à jour, utilisez la commande /show job_id.
– Il s’agit d’un upscaler subtile, c’est à dire qu’il respecte au maximum l’image originale.
Toutes les infos et tests ici: Midjourney Upscaler: Agrandir ses images ou dans la documentation midjourney.
– L’inpainting est enfin là, intégrer dans discord (version desktop et smartphone) à travers une fenêtre contextuelle lorsque l’on clique sur Vary (Region) sur les images agrandies (Upscale).
toutes les explications dans la documentation: Variations selectives.
– Nouvelle option pour faire des panoramiques, vous pouvez étendre votre image sur les cotés à la verticale ou à l’horizontale avec les flèches qui s’affichent sous les agrandissements.
La V5.2 est enfin disponible avec un peu de retard
– Nouveau système d’esthétique
– Fonction Stylize plus puissante
– Nouveau mode « Haute variation »
– Nouvelle commande /shorten
– Nouvelle fonction de zoom arrière
– Retour de la commande –video
La note de mise à jour complète : Midjourney V5.2 est enfin là !
Ajout d’un nouveau style à Nijijourney (le modèle Midjourney sur le thème de l’anime).
ce style est appelé « scénique » et est destiné à de beaux arrière-plans et des personnages dans de beaux environnements.
Pour l’utiliser, activez d’abord Niji v5 avec /settings puis choisissez votre style avec --style scenic
en fin de prompt.
On a évidement tester ce style pour vous : Mise à jour Niji 5 avec encore un nouveau style: scenic
Ajout de la fonction permutation qui permet de générer rapidement des variantes d’un prompt avec une seule requête.
Cette fonctionnalité est actuellement limitée aux abonnés ayant souscris au plan standard (à 30$/mois) ou au plan pro (à 60$/mois)
Présentation de la fonction de répétition (–repeat)
– Tapez --repeat
avec un nombre pour exécuter ce travail autant de fois que souhaitées.
– Par exemple /imagine cats --repeat 5
créera cinq grilles 2×2 de chats
La commande /describe permet d’envoyer une image au Bot, et vous permet d’obtenir 4 prompts textuels qui tentent de décrire l’image.
– Cliquez sur les boutons sous la commande pour générer des images pour chacune des invites.
Pour l’activer, tapez --v 5
après votre prompt ou sélectionnez « V5 » dans /settings
- Meilleure performance, plus de détails, une plus large gamme stylistique, moins d’artefacts et de texte indésirable.
- Prise en charge du paramètre
--tile
pour la réalisation de mosaïque. - Rapports d’aspect (ratio)
--ar
supérieurs à 2: 1. - Prise en charge du paramètre
--iw
pour donner du poids aux prompts d’image par rapport aux prompts textuels.
🔶la personnalisation du modèle Niji (anime) est disponible dès aujourd’hui !
Si vous évaluez au moins 200 images sur midjourney.com/rank-niji et que vous ajoutez --p
après votre prompt --niji
, vous pouvez obtenir des résultats personnalisés pour le modèle Niji. Cette personnalisation ne change pas seulement le style, mais modifie tous les éléments des images pour les adapter à vos goûts. Si vous êtes un utilisateur de modèles Niji, vous devriez essayer ceci. Nous sommes sûrs que vous allez adorer !
Si vous n’êtes pas un utilisateur du modèle Niji, vous pouvez personnaliser votre modèle Midjourney à tout moment en évaluant au moins 200 images sur https://www.midjourney.com/rank et en ajoutant --p
à la fin de votre prompt.
N’ayez pas peur d’évaluer ! Cela ne prend que 5 minutes pour 200 images.
Amusez-vous bien ! Pour en savoir plus sur la personnalisation du Niji, consultez le blog・niji
Attention, nous n’offrons des crédits d’essai gratuits aux nouveaux utilisateurs que jusqu’à 17 heures (heure du Pacifique) aujourd’hui.
Les crédits d’essai gratuits expireront dimanche à minuit. Nous espérons que tout le monde apprécie le site web !
⛵️📢 éditeur d’image, synchronisation discord/web, Ouverture du site
🔶 Nous sortons un nouvel éditeur web aujourd’hui !
Il combine recadrer / repaint / vary region / pan / zoom en une seule interface unifiée. Nous pensons que cela rend l’édition de vos images MJ beaucoup plus transparente qu’auparavant et que c’est un grand pas en avant.
Voici une vidéo montrant le fonctionnement de l’éditeur :
🔶Synchronisation des salles
Nous synchronisons désormais les images et les messages entre les salons sur le web et les canaux sur le serveur Discord. Cela signifie que les messages et les images dans certaines salles/canaux sont répercutés sur Discord et vice-versa.
Les canaux et salles avec miroir de messages sont :
- #daily-theme <-> Daily Theme
- #prompt-craft <-> Prompt Craft
- #general-1 <-> General Chaos
- #superusers-create <-> Superusers (pour les personnes ayant au moins 1000 générations)
🔶Ouvrir la création sur le web
Tous ceux qui ont réalisé au moins 10 générations d’images sur Midjourney peuvent créer sur le web
Rendez-vous sur midjourney.com/imagine pour commencer à créer !
Avec le --p
, nous pouvons remplacer le style de midjourney par défaut par des préférences apprises à partir de nos classements de paires d’images et de quelques « likes ».
Votre code --p
évoluera au fil du temps.
🔹Au fur et à mesure que vous classerez ou « aimerez » plus d’images, vous verrez un nouveau code.
🔹Il s’agit d’un « instantané » de votre style actuel.
🔹Vous pouvez enregistrer ces codes instantanés, les réutiliser et les partager.
🔹Utilisez le code --p
pour continuer à utiliser le même style de personnalisation.
🔹Oubliez le code et utilisez --p
seul pour déclencher un nouvel instantané, s’il y en a un de disponible.
🔹Utilisez la commande /list_personalize_codes pour afficher tous les codes d’instantané jusqu’à présent.
Quelles sont les commandes, que puis-je taper, comment ça marche ?
🔹Tapez --p
après votre prompt pour utiliser l’instantané actuel.
🔹Tapez --p
code après votre prompt pour utiliser un code spécifique.
🔹Tapez /list_personalize_codes pour afficher tous vos codes de personnalisation de modèle.
🔹Notez que --p
ne fonctionne pas encore avec --niji
.
🔹Pour activer la personnalisation de façon permanente (vous n’avez donc pas à continuer de taper –p),
tapez /settings et sélectionnez le bouton [🙋 Personalization].
🔹Si vous utilisez l’application web Midjourney, recherchez ‘Personnalisation : [ON] [OFF]’.
🔹Si vous voulez utiliser le code de quelqu’un d’autre, utilisez --p
code.
🔹Dans les canaux de création publique de Discord, vous pouvez utiliser --p
@nom à la place. (Ne fonctionnera pas dans les DM)
🔹Utilisez plusieurs codes de p à la fois pour mélanger différents styles personnels.
Exemple : --p
1uwjacn 1yjtfcj
⚠️ Sur le Web, n’utilisez que des nombres entiers ou naturels. L’utilisation de décimales entraînera une erreur.
🔹L’ordre n’a pas d’importance.
🔹La personnalisation (--p
) est un --style
, tout comme le --style raw
(avec lequel il est entièrement compatible). Cela signifie que vous pouvez contrôler son influence en utilisant –stylize qui est de 100 par défaut. La valeur de 0 est sa plus faible influence, et la valeur 1000 est son influence maximale.
🔹Si votre prompt utilise --style raw
--p
(les deux) ils sont mélangés et --s
modifie l’amalgame.
⛵️📢 Mises à jour du site web
🔶Création :
🔶Aide :
🔶Salles :
🔶Général :
⛵️📖Magazine Premium à couverture rigide qui retrace 1 an de midjourney, Disponible!
Nous ouvrons les commandes pour « Midjourney Year One » – un livre qui présente les explorations de notre communauté et le développement de Midjourney au cours de l’année écoulée.
C’est un bel instantané physique de l’année écoulée ainsi qu’une fusion des nombreux numéros du magazine officiel Midjourney que vous avez peut-être manqués.
Commandez un exemplaire ici : https://mag.midjourney.com/product/year-one
⛵️📢 Mise à Jour Midjourney: Personnalisation de modèle
nous lançons aujourd’hui une version test de la personnalisation des modèles, voici comment cela fonctionne
🔶Qu’est-ce que la personnalisation des modèles ?
🔹Chaque fois que vous écrivez un prompt, il y a beaucoup de choses qui restent « inexprimées ». Nos algorithmes remplissent généralement le vide avec leurs propres « préférences », qui sont en fait les préjugés et les préférences combinés de notre communauté.
🔹Mais bien sûr, tout le monde est différent ! La personnalisation du modèle apprend ce que vous aimez, de sorte qu’il est plus probable qu’elle remplisse les blancs avec vos goûts.
🔶Exigences en matière de personnalisation des modèles
🔹Pour l’instant, la personnalisation du modèle apprend à partir des votes dans le classement par paires et des images que vous aimez sur la page d’exploration.
🔹Vous devez avoir environ 200 évaluations de paires / likes pour que la fonctionnalité fonctionne
🔹Vous pouvez voir combien d’évaluations vous avez sur la page ci-dessus ou en tapant /info
🔶Comment utiliser la personnalisation des modèles ?
🔹Tapez simplement --p
après votre prompt, ou activez la personnalisation pour tous les prompts dans les /settings
ou le bouton de paramétrage des prompts sur le site web.
🔹Lorsque vous activez la personnalisation, vous obtenez un « code » ajouté après vos prompts, vous pouvez partager ce code pour partager l’effet de personnalisation appliqué à cette image.
🔹Vous pouvez contrôler l’intensité de l’effet de personnalisation en utilisant --s 100
(0 est désactivé, 1000 est le maximum et 100 est la valeur par défaut).
VEUILLEZ NOTER : La personnalisation n’est pas une fonction stable pour le moment, elle changera au fur et à mesure que vous ferez des évaluations par paires (subtilement) et nous pourrions faire des mises à jour d’algorithme au cours des prochaines semaines. Il s’agit donc d’une « fonctionnalité amusante en constante évolution »
Il s’agit d’une toute nouvelle frontière pour la synthèse d’images. Nous espérons que nous découvrirons beaucoup de choses au cours de ce processus et nous serions ravis d’entendre vos idées dans le salon #ideas-and-features (sur discord) ou de partager les images que vous créez dans le cadre de la #personalization.
Amusez-vous bien !
Nous testons actuellement des « salons de création privées » (pour tous les membres MJ ayant au moins 100 générations).
Comment ça marche ?
🔸En gros, vous cliquez sur ‘rooms’ puis sur ‘create room’ et vous remplissez tous les champs.
Maintenant et pour l’avenir:
🔸Pour l’instant, nous ne permettons qu’aux gens de créer des salons privés (qui sont des salons protégés par un mot de passe pour vos amis / votre lieu de travail).
🔸À l’avenir, nous permettrons aux gens de créer des salons publics sans protection par mot de passe et avec une galerie globale.
🔶Nous avons amélioré le design des « salles » et nous ouvrons la salle de test principale à tous ceux qui ont au moins 1000 images (club 1k et plus).
🔹Le design a été mis à jour :
🔸Vous pouvez maintenant faire des favoris dans les salles et voir les favoris des autres.
🔸Nous gérons mieux les images en cours pour que ce soit plus propre pour un plus grand nombre de personnes.
🔸Nous avons peaufiné un certain nombre de choses au niveau du design.
Plans de salles (la semaine prochaine, j’espère) : Nous allons ajouter un système d’atténuation du bruit par l’IA pour le chat vocal, puis nous allons essayer d’ajouter quelques salles supplémentaires et enfin nous allons ouvrir les salles à un plus grand nombre de personnes.
À plus long terme : Nous laisserons les gens créer des salons privés, puis nous laisserons les gens créer des salons publics.
🔶 Quand vous faites –sref random, cela vous donne maintenant un code numérique dans votre prompt que vous pouvez utiliser pour reproduire le style à partir de maintenant.
En gros, si vous tapez –sref random, il le remplacera par quelque chose comme –sref 123456 (avec un nombre aléatoire) et si vous tapez à nouveau ce nombre aléatoire comme –sref 123456 , vous pourrez revenir à ce style.
🔶 Nous avons publié un nouvel algorithme pour le classement des idées de la communauté qui mesure non seulement la valeur de la communauté pour une idée mais aussi une mesure quantitative de sa « controverse » https://midjourney.com/ideas?type=leaderboard.
En gros, « 100 de controverse » correspond à la moyenne, 50 signifie que l’idée est deux fois moins controversée que la moyenne, 200 signifie qu’elle est deux fois plus controversée que la moyenne. Nous définissons la « controverse » comme la différence d’importance entre les « enthousiastes » et les « sceptiques ».
Nous allons procéder aujourd’hui à des tests préliminaires de nos « salles de création » sur le web et nous aimerions que vous nous aidiez !
(nous commençons avec le club des 10 000 et nous passerons à d’autres sous peu).
🔶Les points forts de ce prototype de salle
🔹Il y a un chat textuel et un chat vocal
🔹Le texte est séparé des images afin que la création n’affecte pas le chat.
🔹Vous pouvez créer des images ensemble ou ne voir que les vôtres (boutons de filtrage en haut).
🔹Vous pouvez facilement faire glisser des images dans le chat pour en parler
🔹Vous pouvez redimensionner les colonnes de chat et d’images en survolant puis en faisant glisser l’espace entre les deux.
Remarque : si vous créez des images en mode furtif dans un salon, d’autres personnes peuvent les voir (comme dans Discord).
🔶Quels sont les objectifs de ce test ?
🔹Nous voulons voir combien de personnes nous pouvons faire entrer dans une pièce jusqu’à ce qu’elle commence à s’effondrer ou à se sentir mal à l’aise.
🔹Nous voulons voir quelles sortes de choses fonctionnent bien / mal dans la nouvelle interface utilisateur.
(puisqu’elle est différente de Discord et de tout ce qui existe)
🔹Obtenir des retours sur les bugs ou des idées de la part de la communauté.
🔶Quelques plans de haut niveau en ce moment autour des salles en tant que contexte (???)
🔹Nous prévoyons de faire en sorte que tout le monde puisse créer des salles de création publiques et privées sur le site web.
🔹Il y aura un hall d’accueil pour les salles publiques et la possibilité de créer un lien direct vers les salles privées.
🔹En observant les salles aujourd’hui, nous réfléchirons à la possibilité d’ouvrir le site au club des 1 000 personnes afin d’augmenter le nombre de participants.
🔹Nous pourrions créer d’autres salles si l’une d’entre elles devenait trop bondée ou trop frénétique.
🔹Après avoir observé un petit nombre de salles pendant un certain temps, nous ouvrirons la possibilité de créer des salles par soi-même.
Nous espérons que vous vous amuserez à tester les salles aujourd’hui. Pour l’instant, c’est DESKTOP WEB (alpha) ONLY (le mobile est une priorité secondaire pour nous et viendra plus tard).
Découverte d’un bug majeur avec le nouveau sref pour Niji, sur lequel a été rétabli l’ancienne version.
Le nouveau Style Reference (v2) est toujours disponible pour la v6 de Midjourney.
Nous testons aujourd’hui une nouvelle fonction de « Référence de personnage ».
Cette fonction est similaire à la fonction « Référence de style », sauf qu’au lieu de correspondre à un style de référence, elle tente de faire correspondre le personnage à une image de « Référence de personnage ».
🔶Comment cela fonctionne-t-il ?
🔹Tapez –cref URL après votre prompt avec l’URL d’une image d’un personnage.
🔹Vous pouvez utiliser –cw pour modifier la « force » de la référence de 100 à 0
🔹La force 100 (–cw 100) est la valeur par défaut et utilise le visage, les cheveux et les vêtements.
🔹A force 0 (–cw 0), il se concentre uniquement sur le visage (bon pour changer de tenue, de cheveux, etc.).
🔶A quoi cela sert-il ?
🔹Cette fonction fonctionne mieux lorsque l’on utilise des personnages créés à partir d’images Midjourney.
🔹Elle n’est pas conçue pour les personnes réelles ou les photos (et les déformera probablement comme le font les images normales).
🔹Cref fonctionne de la même manière que les prompts d’images classiques, sauf qu’il se concentre sur les traits du personnages.
🔹La précision de cette technique est limitée, elle ne copiera pas exactement les fossettes, les taches de rousseur ou les logos de t-shirts.
🔹Cref fonctionne pour les modèles Niji et MJ normaux.
🔶Fonctionnalités avancées
🔹Vous pouvez utiliser plus d’une URL pour mélanger les informations/caractères de plusieurs images comme ceci –cref URL1 URL2 (c’est similaire aux prompt d’images ou aux styles de référence multiples)
🔶Comment cela fonctionne-t-il sur le web alpha ?
🔹Glissez ou collez une image dans la barre d’image, elle a maintenant trois icônes. La sélection de ces icônes détermine s’il s’agit d’un pormpt d’image, d’une référence de style ou d’une référence de personnage. 🔹Shift+sélectionner une option pour utiliser une image pour plusieurs catégories
N’oubliez pas que MJ V6 est en phase alpha et que cette fonctionnalité et d’autres peuvent changer soudainement, mais la version bêta officielle de MJ V6 sera bientôt disponible.
Partagez vos premiers tests et impressions ! 🙏
Mise à jour NiJi 6 alpha:
🔹Prise en charge de l’inpainting (Vary Region), Pan et Zoom.
Note de version complète: https://sizigi.notion.site/Advanced-Vary-Region-Techniques-4532397e813740d680c3076e4e872830
Mises à jour Midjourney
🔹 Midjourney v6 Alpha passe en version par défaut
🔸Amélioration des détails
🔸Amélioration de l’upscaler
🔹L’Upscaler subtil (x2) de la V6 est maintenant plus subtil; les résultats devraient préserver plus de détails de l’image originale avec des rendus moins lisses
🔸Mise à jour de la commande /Feedback
Ce système nécessite plus de travail pour soumettre / évaluer les idées, mais il nous donnera beaucoup plus d’informations et si cela semble bon, nous essaierons d’ajouter un classement global des idées pour Midjourney peu de temps après (ce sera alors permanant pour toute la communauté)
Quoi qu’il en soit, avant de rendre cela officiel dans les annonces, nous aimerions que vous essayiez, que vous soumettiez / évaluiez de nouvelles idées et que vous nous disiez ce que vous pensez dans le salon # alpha-ideas-and-features
Comment ça marche:
🔹Soumettre des idées sur l’onglet « Submit ideas »
🔹Évaluez les idées à l’onglet « Rate ideas ».
🔹Voir les évaluations de vos idées par les autres personnes sur l’onglet « My ideas »
💡Pour info pour avoir tester le feedback dans sa première version, évaluer des idées donne droit à des fast hours GPU gratuites (à voir si c’est toujours le cas, aucune com n’a été faite la dessus)
🔸Barre de recherche (Alpha)
🔹 Mise à jour de la barre de recherche sur la page d’exploration alpha, elle devrait être 10x plus rapide et afficher les images v6 maintenant
À compter de maintenant, si vous avez fait au moins 1 000 images dans Midjourney, vous pouvez maintenant mettre à l’essai notre site Web de création d’images à https://alpha.midjourney.com
Remarque :
🔸Vous pouvez vérifier combien d’images vous avez faites en tapant /info
🔸C’est une version alpha. Elle peut être quelque peu instable et les fonctionnalités sont amenés à changer soudainement et sans préavis.
🔸Cette alpha est axée sur l’utilisation depuis un ordinateur. Elle fonctionne sur Mobile, mais a des problèmes d’interface utilisateur / UX + bugs et n’est pas une priorité jusqu’à ce que la version de bureau soit aboutie.
Au fur et à mesure que le site se stabilisera, nous ouvrirons l’accès à plus de membres existants, puis (à terme) à de nouveaux membres.
Discord continuera d’être pris en charge à long terme, et nous espérons que vous utiliserez les deux (en particulier pour la communauté, les événements, le support, les commentaires et les serveurs privés)
Nous sommes heureux d’annoncer la version alpha de niji v6! Vous pouvez l’activer en utilisant la commande /settings pour sélectionner niji version 6 sur le bot niji ou en utilisant la commande –niji 6 à la fin de vos prompts
Notes de version :
🔸Vous pouvez essayer des prompts plus longs et plus difficiles (p. ex., une fille avec un œil vert et un œil bleu, hétérochromie).
🔸Vous pouvez écrire un texte simple en le mettant dans des citations! (par exemple: konosuba aqua holding a sign that says « cixelyn » while jumping in the air)
🔸Si vous n’aimez pas l’utilisation d’anime –niji 6 –style raw
🔸Lancement complet ( Vary (région)) + événement prévu dans le mois à venir!
Full devlog ici :https://sizigi.notion.site/Welcome-to-Niji-V6-47b0769d73b8494f8618a70bd4384f20
Note de version et premières impressions: https://geniart.fr/midjourney/niji-v6-alpha-en-temps-et-en-heure/
🔶Changements dans la page d’exploration :
🔹Nouveaux états de survol pour la page d’exploration
🔹Améliorations supplémentaires du contenu de la page d’exploration
🔹Ajout de la fonction « hot/top/random » à la page d’exploration
🔹Recherche d’images similaires (cliquer sur la loupe)
🔶Modifications de la page Créer
🔹Le survol des images permet désormais d’afficher des boutons de variation
🔹Passez la souris sous l’invite pour afficher d’autres boutons d’option.
🔹Nouveau bouton « Hide » (c’est plus comme un emoji de vomi mais vous voyez l’idée et c’est facile), ce n’est pas un substitut pour le mode furtif.
(il n’y a pas encore de bouton « Unhide » mais vous pouvez voir les éléments cachés dans les archives sous les filtres)
🔶Modifications de la page d’archive
🔹Nouvelle fonction ‘timeline’, déplacez la souris sur la barre de défilement pour voir / parcourir les dates.
Midjourney V6 Alpha!
(vous devez écrire votre texte en « guillemets » et –style raw ou une valeur de –stylize peu élevée)
Style et prompting pour la V6
Le Style Tuner disponible sur NiJi pour pouvoir créer vos propres styles.
Fonctionne comme celui de Midjourney, à savoir tout de même que les –styles expressive, scenic et cute ne sont pas utilisables pour la création de style.
La phase 1 du nouveau site Midjourney accessible en beta. (Cliquez sur le lien pour plus d’infos)
Première version de l’appli mobile Niji · journey
Possibilité de générer des images depuis l’app, feed, galerie Niji.
– Mise à niveau du cluster GPU. Les utilisateurs Pro et Mega devraient voir des accélérations de ~1,5x (/imagine de ~50 secondes à ~30 secondes).
Ces rendus devraient également être environ 1,5 fois moins chers.
Toute capacité GPU supplémentaire accélérera aléatoirement les actions pour les autres plans d’abonnement.
– Nouveau paramètre –weird. Permet de rajouter un coté « bizarre » à votre image (valeur entre 1 et 3000)
– Nouveau plan d’abonnement à 120$/mois
– Mode /turbo génère vos images 4x plus vite pour 2x le prix
La V5.1 est plus opiniâtre (comme la V4) et est BEAUCOUP plus facile à utiliser avec des prompt courts
– Il existe un mode « sans opinion » pour la V5.1 (similaire à la V5.0 par défaut) appelé « Mode RAW »
– Ne vous inquiétez pas, la V5 est toujours disponible (comme avant)
Autres changements dans la V5.1 par rapport à la V5.0
– Meilleure cohérence
– Plus de précision par rapport aux textes des prompts
– Moins de bordures indésirables ou d’artefacts de texte
– Amélioration de la netteté
Comment activer V5.1 :
– Allez dans /settings
et cliquez sur « V5.1 » (sur la deuxième ligne) ou tapez --v 5.1
après votre prompt
– Pour le mode RAW, cliquez sur le bouton Mode RAW dans les /settings
(après avoir cliqué sur V5.1) ou tapez --style raw
Autres petites mises à jour:
- Le modérateur de l’IA est désormais en « Appels automatiques »
– Nous constatons qu’il y a très peu de prompt signalés comme « dangereux », nous les envoyons donc automatiquement via le deuxième processus de contestation de l’IA, plus puissant maintenant
– Cela devrait entraîner moins rejets et une expérience plus fluide (pas besoin d’appuyer sur « faire appel » (Appeal))
– Si vous constatez que votre prompt est toujours rejeté de manière incorrecte, appuyez sur le bouton « Notifier le développeur » sous le message de rejet pour nous aider à améliorer notre système - Répétitions et permutations maintenant disponibles pour les membres à 10 $
– Pour les abonnements de base, nous autorisons désormais les commandes uniques qui démarrent jusqu’à 4 tâches
– Pour la commande de répétition qui ressemble à--repeat 4
– Pour une permutation qui ressemble àun {chien, chat} in the style of {vaporwave, art déco}
– Les limites d’adhésion Standard / Pro restent les mêmes qu’avantSi vous avez un abonnement de 10 $, faites attention à ne pas utiliser toutes vos heures de cette façon ! Ceci est principalement destiné à permettre à chacun d’expérimenter les fonctionnalités et d’obtenir une productivité maximale lorsque vous en avez besoin.
Ajout de deux nouveaux styles de NijiJourney (le modèle Midjourney sur le thème de l’anime)
Pour les utiliser, activez d’abord Niji v5 dans les paramètres avec /settings puis choisissez votre style avec --style cute
ou --style expressive
;
Le style cute est assez mignon! L’expressif est légèrement plus 3D et occidentalisé.
Voila pour ce qui est de l’annonce officielle de la part de Midjourney, du coup on a testé ici.
Vous pouvez l’activer en tapant /settings et en cliquant sur niji version 5 ou en tapant --niji 5
à la fin de vos prompts.
Le style de ce modèle est plus fort que le modèle par défaut, donc si vous voulez augmenter ou diminuer l’intensité de la stylisation, veuillez utiliser la commande --stylize
(ou --s
pour faire court); --s 100
est la valeur par défaut et elle va de --s 0
au plus bas à --s 1000
au plus haut.
En raison d’une combinaison de demandes extraordinaires et d’abus d’essais, Midjourney désactive temporairement les essais gratuits jusqu’à ce que de prochaines améliorations du système soient déployées
🔶la personnalisation du modèle Niji (anime) est disponible dès aujourd’hui !
Si vous évaluez au moins 200 images sur midjourney.com/rank-niji et que vous ajoutez --p
après votre prompt --niji
, vous pouvez obtenir des résultats personnalisés pour le modèle Niji. Cette personnalisation ne change pas seulement le style, mais modifie tous les éléments des images pour les adapter à vos goûts. Si vous êtes un utilisateur de modèles Niji, vous devriez essayer ceci. Nous sommes sûrs que vous allez adorer !
Si vous n’êtes pas un utilisateur du modèle Niji, vous pouvez personnaliser votre modèle Midjourney à tout moment en évaluant au moins 200 images sur https://www.midjourney.com/rank et en ajoutant --p
à la fin de votre prompt.
N’ayez pas peur d’évaluer ! Cela ne prend que 5 minutes pour 200 images.
Amusez-vous bien ! Pour en savoir plus sur la personnalisation du Niji, consultez le blog・niji
⛵️📢 Des tests et questionnaires pour du GPU gratuit
Nous avons deux petites nouveautés aujourd’hui :
- Nous publions un test de personnalité pour aider à comprendre les origines de la beauté… En gros, quel est le lien entre notre personnalité et ce que nous trouvons beau et comment nous voyons la beauté différemment ?
Faites le test sur https://midjourney.com/surveys?survey=personality-ambi
Le test devrait prendre environ 15 minutes et vous donnera une TONNE de résultats amusants sur vous-même à la fin. Il contribuera également à nos recherches de pointe. Aucun abonnement n’est nécessaire pour faire le test, mais les abonnés recevront 2 heures de gpu gratuites après l’avoir fait.
- Nous ajoutons de nouveaux tests de classement par paires pour permettre à la communauté d’améliorer la précision des prompts et les modèles Niji :
Classez la précision des messages ici : http://midjourney.com/rank-accuracy
Classer les images de Niji (anime) ici : http://midjourney.com/rank-niji
Les 2000 meilleurs classeurs de paires obtiennent 1 heure de Gpu gratuit par jour.
Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de nos modèles et de la science ! Nous sommes impatients de partager les résultats avec vous et d’en explorer le sens ensemble.
(Voici un petit exemple de quelques dizaines d’éléments parmi les 200 mesurés par le test).
Attention, nous n’offrons des crédits d’essai gratuits aux nouveaux utilisateurs que jusqu’à 17 heures (heure du Pacifique) aujourd’hui.
Les crédits d’essai gratuits expireront dimanche à minuit. Nous espérons que tout le monde apprécie le site web !
⛵️📢 Essais gratuits et ouverture du site!
Aujourd’hui, nous ouvrons la création d’images sur le web à tout le monde !
Tout le monde peut maintenant aller sur notre site web et commencer à créer des images.
Pour permettre aux gens de jouer avec le nouveau site, nous avons temporairement mis en place des essais gratuits (~25 images).
Attention
🔸Vous devez toujours vous connecter avec votre compte discord sur le site web si vous voulez avoir l’historique de vos images créées sur discord.
🔸Vous pouvez fusionner vos comptes discord et Google dans votre onglet « compte » si vous souhaitez pouvoir vous connecter avec l’un ou l’autre à l’avenir.
🔸Les nouveaux utilisateurs peuvent s’inscrire en utilisant leur compte Google ou leur compte Discord.
⛵️📢 éditeur d’image, synchronisation discord/web, Ouverture du site
🔶 Nous sortons un nouvel éditeur web aujourd’hui !
Il combine recadrer / repaint / vary region / pan / zoom en une seule interface unifiée. Nous pensons que cela rend l’édition de vos images MJ beaucoup plus transparente qu’auparavant et que c’est un grand pas en avant.
Voici une vidéo montrant le fonctionnement de l’éditeur :
🔶Synchronisation des salles
Nous synchronisons désormais les images et les messages entre les salons sur le web et les canaux sur le serveur Discord. Cela signifie que les messages et les images dans certaines salles/canaux sont répercutés sur Discord et vice-versa.
Les canaux et salles avec miroir de messages sont :
- #daily-theme <-> Daily Theme
- #prompt-craft <-> Prompt Craft
- #general-1 <-> General Chaos
- #superusers-create <-> Superusers (pour les personnes ayant au moins 1000 générations)
🔶Ouvrir la création sur le web
Tous ceux qui ont réalisé au moins 10 générations d’images sur Midjourney peuvent créer sur le web
Rendez-vous sur midjourney.com/imagine pour commencer à créer !
⛵️📢 Nous publions aujourd’hui la version 6.1 de nos modèles d’images Midjourney.
🔶Quelles sont les nouveautés de la V6.1 ?
🔹Plus d’images cohérentes (bras, jambes, mains, corps, plantes, animaux, etc)
🔹Une bien meilleure qualité d’image (réduction des artefacts de pixels, amélioration des textures, de la peau, rétro 8bit, etc.)
🔹Caractéristiques des petites images plus précises, détaillées et correctes (yeux, petits visages, mains éloignées, etc.)
🔹Nouveaux upscalers avec une bien meilleure qualité d’image et de texture
🔹Environ 25 % plus rapide pour les travaux d’image standard
🔹Amélioration de la précision du texte (lors du dessin de mots par le biais de « citations » dans les prompts)
🔹Un nouveau modèle de personnalisation avec plus de nuances, de surprise et de précision
🔹Versioning du code de personnalisation (utilisez n’importe quel code de personnalisation d’un ancien travail pour utiliser le modèle de personnalisation et les données de ce travail).
🔹Un nouveau mode –q 2 qui prend 25 % de temps en plus pour ajouter (parfois) plus de texture au prix d’une réduction de la cohérence de l’image.
🔹Les choses devraient être « généralement plus belles » dans l’ensemble.
🔶Autres notes importantes :
🔹La V6.1 n’a pas encore de nouveau modèle d’inpainting/outpainting, donc si vous utilisez zoom/reframe/repainting/vary region, vous reviendrez au modèle de la V6.0.
🔹Si vous voulez revenir à la V6, allez dans /settings et cliquez sur V6 ou tapez –v 6 après votre travail (ou cliquez sur le panneau des paramètres sur le site web).
Projets futurs : Nous sortirons probablement un modèle V6.2 dans le mois à venir avec d’autres améliorations, mais nous devons d’abord rassembler autant de données que possible sur les utilisateurs de la V6.1. Ainsi, à partir d’aujourd’hui, nous ne nous contentons pas de sortir la V6.1, mais nous en faisons le modèle par défaut sur Midjourney pour tous les utilisateurs.
Nous espérons que cette nouvelle version plaira à tout le monde ! Amusez-vous bien ! ❤️
Avec le --p
, nous pouvons remplacer le style de midjourney par défaut par des préférences apprises à partir de nos classements de paires d’images et de quelques « likes ».
Votre code --p
évoluera au fil du temps.
🔹Au fur et à mesure que vous classerez ou « aimerez » plus d’images, vous verrez un nouveau code.
🔹Il s’agit d’un « instantané » de votre style actuel.
🔹Vous pouvez enregistrer ces codes instantanés, les réutiliser et les partager.
🔹Utilisez le code --p
pour continuer à utiliser le même style de personnalisation.
🔹Oubliez le code et utilisez --p
seul pour déclencher un nouvel instantané, s’il y en a un de disponible.
🔹Utilisez la commande /list_personalize_codes pour afficher tous les codes d’instantané jusqu’à présent.
Quelles sont les commandes, que puis-je taper, comment ça marche ?
🔹Tapez --p
après votre prompt pour utiliser l’instantané actuel.
🔹Tapez --p
code après votre prompt pour utiliser un code spécifique.
🔹Tapez /list_personalize_codes pour afficher tous vos codes de personnalisation de modèle.
🔹Notez que --p
ne fonctionne pas encore avec --niji
.
🔹Pour activer la personnalisation de façon permanente (vous n’avez donc pas à continuer de taper –p),
tapez /settings et sélectionnez le bouton [🙋 Personalization].
🔹Si vous utilisez l’application web Midjourney, recherchez ‘Personnalisation : [ON] [OFF]’.
🔹Si vous voulez utiliser le code de quelqu’un d’autre, utilisez --p
code.
🔹Dans les canaux de création publique de Discord, vous pouvez utiliser --p
@nom à la place. (Ne fonctionnera pas dans les DM)
🔹Utilisez plusieurs codes de p à la fois pour mélanger différents styles personnels.
Exemple : --p
1uwjacn 1yjtfcj
⚠️ Sur le Web, n’utilisez que des nombres entiers ou naturels. L’utilisation de décimales entraînera une erreur.
🔹L’ordre n’a pas d’importance.
🔹La personnalisation (--p
) est un --style
, tout comme le --style raw
(avec lequel il est entièrement compatible). Cela signifie que vous pouvez contrôler son influence en utilisant –stylize qui est de 100 par défaut. La valeur de 0 est sa plus faible influence, et la valeur 1000 est son influence maximale.
🔹Si votre prompt utilise --style raw
--p
(les deux) ils sont mélangés et --s
modifie l’amalgame.
nous ajoutons aujourd’hui des options plus avancées pour --sref
(références de style) et --p
(personnalisation du modèle)
Nouvelles fonctionnalités pour les références de style
🔸Vous pouvez maintenant mélanger plusieurs codes --sref
ensemble (par exemple --sref
123 456)
🔸Vous pouvez maintenant mélanger les urls des images de référence de style et les codes aléatoires sref (par exemple --sref
123 url).
🔸Vous pouvez pondérer des codes ou des urls individuels comme suit --sref 123::2 456::1
Nouveau mélange de personnalisation de modèle
🔸Vous pouvez maintenant mélanger plusieurs codes de personnalisation de modèle comme --p ab12ad3 cd34gl
🔸Nous avons également activé le mélange avec la même notation --p ab12ad3::2 cd34gl::1
Mélangez vos codes de personnalisation et de style avec ceux de vos amis et explorez de nouveaux espaces d’harmonie esthétique mutuelle !
⛵️📢 Mises à jour du site web
🔶Création :
🔶Aide :
🔶Salles :
🔶Général :
⛵️📢 Enquête Midjourney récompensés par 2h de fast GPU
Nous lançons un nouveau projet de recherche sur les origines de la beauté… En gros, quand trouvons-nous quelque chose de beau collectivement et quand voyons-nous la beauté différemment ?
Pour ce faire, nous comparons les modèles personnalisés que les gens fabriquent aux réponses de plusieurs nouvelles enquêtes.
La première enquête porte sur les données démographiques : comment des facteurs tels que l’âge, le sexe, le pays, etc. influencent-ils ce que nous trouvons beau ?
Répondez à l’enquête ici : https://www.midjourney.com/surveys?survey=demographics
Elle prend ~5 minutes et chaque personne qui la complète reçoit 2 heures de gpu rapide en récompense.
Nous essaierons d’utiliser ces données pour partager de nouvelles connaissances approfondies sur l’esthétique humaine et peut-être même pour créer de nouvelles fonctionnalités qui vous permettront d’explorer ces connaissances vous-même ! Toutes les données sont privées, vous pouvez demander leur suppression à tout moment sur la page de votre compte, et vous pouvez sauter n’importe quelle question (vous recevrez des récompenses pour le pourcentage auquel vous répondez).
La prochaine enquête portera davantage sur la personnalité et devrait être publiée dans une semaine ou deux.
Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de la science. Nous avons hâte de partager les résultats avec vous et d’en explorer le sens ensemble ❤️
⛵️📖Magazine Premium à couverture rigide qui retrace 1 an de midjourney, Disponible!
Nous ouvrons les commandes pour « Midjourney Year One » – un livre qui présente les explorations de notre communauté et le développement de Midjourney au cours de l’année écoulée.
C’est un bel instantané physique de l’année écoulée ainsi qu’une fusion des nombreux numéros du magazine officiel Midjourney que vous avez peut-être manqués.
Commandez un exemplaire ici : https://mag.midjourney.com/product/year-one
Nous avons apporté quelques modifications au site web afin d’en simplifier l’utilisation. Quelques changements à noter :
🔸Les outils ‘Pan’ et ‘Zoom’ sont désormais unifiés et s’appellent ‘Reframe‘
🔸L’outil ‘Remix’ se trouve désormais dans l’outil ‘Reframe‘. Cela vous permet de modifier le prompt lors d’un panoramique ou d’un zoom.
🔸L’outil « Vary Region » s’appelle désormais « Repaint« .
🔸Les messages d’erreur sont plus descriptifs et il n’est pas nécessaire de les survoler pour obtenir plus d’informations.
🔸La barre latérale est plus simple. Les fonctions « Rank Images » et « Rank Ideas » se trouvent désormais sur la page « Tasks« .
🔸La fonction « Signaler un bug » se trouve désormais dans le menu « Help« .
⛵️📢 Mise à Jour Midjourney: Personnalisation de modèle
nous lançons aujourd’hui une version test de la personnalisation des modèles, voici comment cela fonctionne
🔶Qu’est-ce que la personnalisation des modèles ?
🔹Chaque fois que vous écrivez un prompt, il y a beaucoup de choses qui restent « inexprimées ». Nos algorithmes remplissent généralement le vide avec leurs propres « préférences », qui sont en fait les préjugés et les préférences combinés de notre communauté.
🔹Mais bien sûr, tout le monde est différent ! La personnalisation du modèle apprend ce que vous aimez, de sorte qu’il est plus probable qu’elle remplisse les blancs avec vos goûts.
🔶Exigences en matière de personnalisation des modèles
🔹Pour l’instant, la personnalisation du modèle apprend à partir des votes dans le classement par paires et des images que vous aimez sur la page d’exploration.
🔹Vous devez avoir environ 200 évaluations de paires / likes pour que la fonctionnalité fonctionne
🔹Vous pouvez voir combien d’évaluations vous avez sur la page ci-dessus ou en tapant /info
🔶Comment utiliser la personnalisation des modèles ?
🔹Tapez simplement --p
après votre prompt, ou activez la personnalisation pour tous les prompts dans les /settings
ou le bouton de paramétrage des prompts sur le site web.
🔹Lorsque vous activez la personnalisation, vous obtenez un « code » ajouté après vos prompts, vous pouvez partager ce code pour partager l’effet de personnalisation appliqué à cette image.
🔹Vous pouvez contrôler l’intensité de l’effet de personnalisation en utilisant --s 100
(0 est désactivé, 1000 est le maximum et 100 est la valeur par défaut).
VEUILLEZ NOTER : La personnalisation n’est pas une fonction stable pour le moment, elle changera au fur et à mesure que vous ferez des évaluations par paires (subtilement) et nous pourrions faire des mises à jour d’algorithme au cours des prochaines semaines. Il s’agit donc d’une « fonctionnalité amusante en constante évolution »
Il s’agit d’une toute nouvelle frontière pour la synthèse d’images. Nous espérons que nous découvrirons beaucoup de choses au cours de ce processus et nous serions ravis d’entendre vos idées dans le salon #ideas-and-features (sur discord) ou de partager les images que vous créez dans le cadre de la #personalization.
Amusez-vous bien !
Nous sortons aujourd’hui une nouvelle version de notre modèle Niji (Niji est notre modèle spécialement conçu pour l’esthétique orientale / anime).
Nouvelles mises à jour du modèle :
🔸Amélioration du rendu du texte japonais.
🔸Le modèle peut maintenant bien rendre des textes courts en kana japonais et, dans certains cas, peut aussi rendre des textes qui incluent des caractères chinois simples.
🔸Amélioration des détails de l’image (comme la structure des yeux des animes).
🔸Correction de certains artefacts d’image qui affectaient auparavant un très petit nombre de générations.
Rappel :
🔸Vous pouvez activer Niji it en tapant /settings et en cliquant sur niji model 6 ou en tapant –niji 6 après les prompts.
🔸Vous pouvez montrer des images de Niji dans le salon #niji-showcase (sur discord)
🔸Il y a un serveur discord dédié à Niji ici (avec des canaux pour les non-anglophones).
https://discord.com/invite/nijijourney
Nous espérons que vous apprécierez ces mises à jour ! Restez à l’écoute pour plus d’infos la semaine prochaine.
Nous testons actuellement des « salons de création privées » (pour tous les membres MJ ayant au moins 100 générations).
Comment ça marche ?
🔸En gros, vous cliquez sur ‘rooms’ puis sur ‘create room’ et vous remplissez tous les champs.
Maintenant et pour l’avenir:
🔸Pour l’instant, nous ne permettons qu’aux gens de créer des salons privés (qui sont des salons protégés par un mot de passe pour vos amis / votre lieu de travail).
🔸À l’avenir, nous permettrons aux gens de créer des salons publics sans protection par mot de passe et avec une galerie globale.
🔶Nous avons amélioré le design des « salles » et nous ouvrons la salle de test principale à tous ceux qui ont au moins 1000 images (club 1k et plus).
🔹Le design a été mis à jour :
🔸Vous pouvez maintenant faire des favoris dans les salles et voir les favoris des autres.
🔸Nous gérons mieux les images en cours pour que ce soit plus propre pour un plus grand nombre de personnes.
🔸Nous avons peaufiné un certain nombre de choses au niveau du design.
Plans de salles (la semaine prochaine, j’espère) : Nous allons ajouter un système d’atténuation du bruit par l’IA pour le chat vocal, puis nous allons essayer d’ajouter quelques salles supplémentaires et enfin nous allons ouvrir les salles à un plus grand nombre de personnes.
À plus long terme : Nous laisserons les gens créer des salons privés, puis nous laisserons les gens créer des salons publics.
🔶 Quand vous faites –sref random, cela vous donne maintenant un code numérique dans votre prompt que vous pouvez utiliser pour reproduire le style à partir de maintenant.
En gros, si vous tapez –sref random, il le remplacera par quelque chose comme –sref 123456 (avec un nombre aléatoire) et si vous tapez à nouveau ce nombre aléatoire comme –sref 123456 , vous pourrez revenir à ce style.
🔶 Nous avons publié un nouvel algorithme pour le classement des idées de la communauté qui mesure non seulement la valeur de la communauté pour une idée mais aussi une mesure quantitative de sa « controverse » https://midjourney.com/ideas?type=leaderboard.
En gros, « 100 de controverse » correspond à la moyenne, 50 signifie que l’idée est deux fois moins controversée que la moyenne, 200 signifie qu’elle est deux fois plus controversée que la moyenne. Nous définissons la « controverse » comme la différence d’importance entre les « enthousiastes » et les « sceptiques ».
Nous testons de nouveaux algorithmes pour « explorer l’espace latent des styles visuels » et mettons à la disposition de tous un outil simple et amusant.
🔹Vous pouvez désormais taper --sref random
à la fin de vos prompts et obtenir des styles totalement aléatoires.
Par exemple, en dessous de ce post, il y a 64 itérations du prompt « /imagine a field of flowers --sref random
« .
Si vous aimez quelque chose que vous trouvez, utilisez --sref url
avec l’url de l’image pour en obtenir d’autres.
Il s’agit d’un test d’un algorithme sous-jacent pour lequel nous créerons des outils plus avancés à l’avenir.
Pour l’instant, nous espérons que vous vous amuserez !
Nous allons procéder aujourd’hui à des tests préliminaires de nos « salles de création » sur le web et nous aimerions que vous nous aidiez !
(nous commençons avec le club des 10 000 et nous passerons à d’autres sous peu).
🔶Les points forts de ce prototype de salle
🔹Il y a un chat textuel et un chat vocal
🔹Le texte est séparé des images afin que la création n’affecte pas le chat.
🔹Vous pouvez créer des images ensemble ou ne voir que les vôtres (boutons de filtrage en haut).
🔹Vous pouvez facilement faire glisser des images dans le chat pour en parler
🔹Vous pouvez redimensionner les colonnes de chat et d’images en survolant puis en faisant glisser l’espace entre les deux.
Remarque : si vous créez des images en mode furtif dans un salon, d’autres personnes peuvent les voir (comme dans Discord).
🔶Quels sont les objectifs de ce test ?
🔹Nous voulons voir combien de personnes nous pouvons faire entrer dans une pièce jusqu’à ce qu’elle commence à s’effondrer ou à se sentir mal à l’aise.
🔹Nous voulons voir quelles sortes de choses fonctionnent bien / mal dans la nouvelle interface utilisateur.
(puisqu’elle est différente de Discord et de tout ce qui existe)
🔹Obtenir des retours sur les bugs ou des idées de la part de la communauté.
🔶Quelques plans de haut niveau en ce moment autour des salles en tant que contexte (???)
🔹Nous prévoyons de faire en sorte que tout le monde puisse créer des salles de création publiques et privées sur le site web.
🔹Il y aura un hall d’accueil pour les salles publiques et la possibilité de créer un lien direct vers les salles privées.
🔹En observant les salles aujourd’hui, nous réfléchirons à la possibilité d’ouvrir le site au club des 1 000 personnes afin d’augmenter le nombre de participants.
🔹Nous pourrions créer d’autres salles si l’une d’entre elles devenait trop bondée ou trop frénétique.
🔹Après avoir observé un petit nombre de salles pendant un certain temps, nous ouvrirons la possibilité de créer des salles par soi-même.
Nous espérons que vous vous amuserez à tester les salles aujourd’hui. Pour l’instant, c’est DESKTOP WEB (alpha) ONLY (le mobile est une priorité secondaire pour nous et viendra plus tard).
🔶 Nous publions deux nouveaux algorithmes pour les références de style ainsi qu’une nouvelle fonctionnalité de « versioning ».
--sv
--sv 1
L’algorithme de référence de style original que nous avons publié avec--sv 2
L’algorithme par défaut jusqu’à aujourd’hui--sv 3
Une nouvelle version de sv1 avec de meilleures performances et plus « vibrant » que sv2--sv 4
Une nouvelle version de sv2 avec de meilleures performances (c’est la version par défaut)🔶 Nous revenons sur les heures de GPU gratuites pour l’évaluation des images.
Découverte d’un bug majeur avec le nouveau sref pour Niji, sur lequel a été rétabli l’ancienne version.
Le nouveau Style Reference (v2) est toujours disponible pour la v6 de Midjourney.
Nous sortons aujourd’hui la version 2 de la fonctionnalité « référence de style ».
Elle devrait être beaucoup plus précise en ce qui concerne la compréhension du style et elle devrait être beaucoup plus efficace pour éviter les « fuites » d’éléments non stylistiques dans vos images. Nous avons également amélioré le fonctionnement du paramètre de poids –sw, afin qu’il soit plus significatif et qu’il ait une plus grande portée.
🔶Qu’est-ce qu’une référence de style ?
Les références de style vous permettent de référencer le style d’une autre image ou de conserver un style cohérent sur plusieurs images. Il s’agit d’un outil similaire aux prompts d’images, mais qui se concentre uniquement sur le style.
🔶Comment l’utiliser à nouveau ?
Pour utiliser une référence de style, tapez –sref URL après votre prompt avec l’url d’une image. Pour augmenter l’influence du style, appliquez un poids de style (–sw) proche de 1000. Pour diminuer la puissance du style, définissez le poids plus proche de –sw 0 (la valeur par défaut est 100). Vous pouvez également ajouter plusieurs références de style.
Voici un exemple bête et rapide utilisant un dessin au crayon de couleur comme référence. Quoi qu’il en soit, nous espérons que vous vous amuserez ! ❤️
Nous testons aujourd’hui une nouvelle fonction de « Référence de personnage ».
Cette fonction est similaire à la fonction « Référence de style », sauf qu’au lieu de correspondre à un style de référence, elle tente de faire correspondre le personnage à une image de « Référence de personnage ».
🔶Comment cela fonctionne-t-il ?
🔹Tapez –cref URL après votre prompt avec l’URL d’une image d’un personnage.
🔹Vous pouvez utiliser –cw pour modifier la « force » de la référence de 100 à 0
🔹La force 100 (–cw 100) est la valeur par défaut et utilise le visage, les cheveux et les vêtements.
🔹A force 0 (–cw 0), il se concentre uniquement sur le visage (bon pour changer de tenue, de cheveux, etc.).
🔶A quoi cela sert-il ?
🔹Cette fonction fonctionne mieux lorsque l’on utilise des personnages créés à partir d’images Midjourney.
🔹Elle n’est pas conçue pour les personnes réelles ou les photos (et les déformera probablement comme le font les images normales).
🔹Cref fonctionne de la même manière que les prompts d’images classiques, sauf qu’il se concentre sur les traits du personnages.
🔹La précision de cette technique est limitée, elle ne copiera pas exactement les fossettes, les taches de rousseur ou les logos de t-shirts.
🔹Cref fonctionne pour les modèles Niji et MJ normaux.
🔶Fonctionnalités avancées
🔹Vous pouvez utiliser plus d’une URL pour mélanger les informations/caractères de plusieurs images comme ceci –cref URL1 URL2 (c’est similaire aux prompt d’images ou aux styles de référence multiples)
🔶Comment cela fonctionne-t-il sur le web alpha ?
🔹Glissez ou collez une image dans la barre d’image, elle a maintenant trois icônes. La sélection de ces icônes détermine s’il s’agit d’un pormpt d’image, d’une référence de style ou d’une référence de personnage. 🔹Shift+sélectionner une option pour utiliser une image pour plusieurs catégories
N’oubliez pas que MJ V6 est en phase alpha et que cette fonctionnalité et d’autres peuvent changer soudainement, mais la version bêta officielle de MJ V6 sera bientôt disponible.
Partagez vos premiers tests et impressions ! 🙏
Qu’est-ce que le Turbo mode ?
🔹Les travaux en mode turbo sont 3,5 fois plus rapides pour un coût deux fois plus élevé (~10 secondes contre ~35 secondes).
🔹Ils sont exécutés sur les machines GPU les plus rapides possibles (c’est pourquoi ils sont à la fois plus rapides et plus chers).
🔹C’est idéal pour les groupes, les événements publics, chaque fois que vous êtes pressé ou que vous avez besoin de rapidité.
Comment l’utiliser / comment ça marche
🔹Tapez /turbo et tous vos travaux /imagine seront 3,5 fois plus rapides (pour un coût en gpu de 2 fois supérieur au mode fast).
🔹On peut aussi indiquer --turbo
à la fin du prompt
🔹Le mode turbo prend actuellement en charge les travaux /imagine vary et remix (mais pas encore sref).
🔹Tous les travaux qui ne sont pas pris en charge par le mode turbo sont exécutés comme des travaux normaux (à un coût normal).
C’est assez fou d’avoir une V6 à 3,5 fois la vitesse. Profitez-en et amusez-vous bien !
commande /describe pour la V6.
A la base, midjourney passe normalement du texte à l’image et cette commande vous permet de passer de l’image au texte.
Nous sommes encore en train de peaufiner les choses, mais cette nouvelle version de describe est destinée à produire des messages plus longs et plus détaillés, spécialement adaptés à la V6.
Mise à jour NiJi 6 alpha:
🔹Prise en charge de l’inpainting (Vary Region), Pan et Zoom.
Note de version complète: https://sizigi.notion.site/Advanced-Vary-Region-Techniques-4532397e813740d680c3076e4e872830
Mises à jour Midjourney
🔹 Midjourney v6 Alpha passe en version par défaut
🔸Amélioration des détails
🔸Amélioration de l’upscaler
🔹L’Upscaler subtil (x2) de la V6 est maintenant plus subtil; les résultats devraient préserver plus de détails de l’image originale avec des rendus moins lisses
🔸Mise à jour de la commande /Feedback
Ce système nécessite plus de travail pour soumettre / évaluer les idées, mais il nous donnera beaucoup plus d’informations et si cela semble bon, nous essaierons d’ajouter un classement global des idées pour Midjourney peu de temps après (ce sera alors permanant pour toute la communauté)
Quoi qu’il en soit, avant de rendre cela officiel dans les annonces, nous aimerions que vous essayiez, que vous soumettiez / évaluiez de nouvelles idées et que vous nous disiez ce que vous pensez dans le salon # alpha-ideas-and-features
Comment ça marche:
🔹Soumettre des idées sur l’onglet « Submit ideas »
🔹Évaluez les idées à l’onglet « Rate ideas ».
🔹Voir les évaluations de vos idées par les autres personnes sur l’onglet « My ideas »
💡Pour info pour avoir tester le feedback dans sa première version, évaluer des idées donne droit à des fast hours GPU gratuites (à voir si c’est toujours le cas, aucune com n’a été faite la dessus)
🔸Barre de recherche (Alpha)
🔹 Mise à jour de la barre de recherche sur la page d’exploration alpha, elle devrait être 10x plus rapide et afficher les images v6 maintenant
Deux changements ont récemment été apportés à la version 6 :
🔸Un ajustement qui améliore légèrement les détails fins dans certains scénarios et réduit les textures répétitives non naturelles (dans des endroits comme le feuillage lointain, le sol, les textiles / tissu, la peau, les cheveux / la fourrure, etc.). Vous pourriez également remarquer un rendu de texte légèrement amélioré et un peu moins de problèmes d’anatomie/main.
- Il est possible que certains prompts pixelart se révèlent moins « propres » qu’auparavant, contenant maintenant du bruit ou du grain. Si vous voyez cela, essayez d’utiliser –q 0.5. Il est plus similaire aux paramètres précédents (et plus rapide!).
🔸Les upscalers v6 x2 agissent désormais de manière plus similaire aux upscalers Niji 6. Les Upscales subtils doivent être plus fidèles à l’image originale qu’avant, et moins susceptibles d’introduire de nouveaux artefacts indésirables.
À compter de maintenant, si vous avez fait au moins 1 000 images dans Midjourney, vous pouvez maintenant mettre à l’essai notre site Web de création d’images à https://alpha.midjourney.com
Remarque :
🔸Vous pouvez vérifier combien d’images vous avez faites en tapant /info
🔸C’est une version alpha. Elle peut être quelque peu instable et les fonctionnalités sont amenés à changer soudainement et sans préavis.
🔸Cette alpha est axée sur l’utilisation depuis un ordinateur. Elle fonctionne sur Mobile, mais a des problèmes d’interface utilisateur / UX + bugs et n’est pas une priorité jusqu’à ce que la version de bureau soit aboutie.
Au fur et à mesure que le site se stabilisera, nous ouvrirons l’accès à plus de membres existants, puis (à terme) à de nouveaux membres.
Discord continuera d’être pris en charge à long terme, et nous espérons que vous utiliserez les deux (en particulier pour la communauté, les événements, le support, les commentaires et les serveurs privés)
Nous publions aujourd’hui nos premiers algorithmes de test pour les « styles persistants ». Nous appelons cette fonctionnalité « Références de style » (Style References). Elles fonctionnent de la même manière que les prompts d’images où vous donnez une URL à une ou plusieurs images qui « décrivent » le style cohérent sur lequel vous voulez travailler.
🔶Comment utiliser les références de style
🔹Tapez --sref
après votre prompt et mettez une (ou plusieurs) URL d’images comme ceci –sref urlA urlB urlC
🔹Le modèle d’image considérera les URL d’images comme des « références de style » et essaiera de créer quelque chose qui « corresponde » à leur esthétique.
🔹Définir les poids relatifs des styles comme ceci --sref
urlA::2 urlB::3 urlC::5
🔹Définir la force totale de la stylisation via --sw
100 (100 est la valeur par défaut, 0 est désactivé, 1000 est la valeur maximale).
🔹Les prompt d’images régulières doivent être placées avant --sref
comme ceci
/imagine cat ninja ImagePrompt1 ImagePrompt2 --sref
stylePrompt1 stylePrompt2
🔹Cela fonctionne pour V6 et Niji V6 (cela ne fonctionne pas avec les versions antérieures).
🔶Veuillez noter :
🔹Nous allons probablement mettre à jour ceci dans les prochaines semaines (et cela peut changer des choses, alors soyez prudent pendant que c’est encore en alpha).
🔹Si votre message tend vers le photoréalisme et que vous voulez un style divergent comme l’illustration, vous devrez peut-être ajouter un texte à votre message pour l’indiquer.
🔹Les références de style n’ont pas d’effet direct sur les prompts d’images, mais uniquement sur les travaux qui contiennent au moins un texte.
🔹Nous prévoyons d’ajouter ultérieurement une fonction « Personnage persistant » (Consistent Character) qui fonctionnera de la même manière avec l’argument --cref
.
Plus d’infos et des exemples dans mon article: Les Références de Style: le nouveau jouet de Midjourney.
Nous sommes heureux d’annoncer la version alpha de niji v6! Vous pouvez l’activer en utilisant la commande /settings pour sélectionner niji version 6 sur le bot niji ou en utilisant la commande –niji 6 à la fin de vos prompts
Notes de version :
🔸Vous pouvez essayer des prompts plus longs et plus difficiles (p. ex., une fille avec un œil vert et un œil bleu, hétérochromie).
🔸Vous pouvez écrire un texte simple en le mettant dans des citations! (par exemple: konosuba aqua holding a sign that says « cixelyn » while jumping in the air)
🔸Si vous n’aimez pas l’utilisation d’anime –niji 6 –style raw
🔸Lancement complet ( Vary (région)) + événement prévu dans le mois à venir!
Full devlog ici :https://sizigi.notion.site/Welcome-to-Niji-V6-47b0769d73b8494f8618a70bd4384f20
Note de version et premières impressions: https://geniart.fr/midjourney/niji-v6-alpha-en-temps-et-en-heure/
🔶La V6 prend désormais en charge Pan / Zoom / Vary (région)
🔹 Ces options apparaissent sous les upscales du bot v6 et sur le site alpha (sauf vary region sur le web)
🔹 Pan agit maintenant plus comme un zoom. Il devrait être plus facile à utiliser et donner des résultats de meilleure qualité (avec plus de cohérence et moins de répétition des concepts)
🔹Pan fonctionne maintenant avec upscale/vary/remix mais n’augmente plus la résolution à l’infini.
🔶 http://alpha.midjourney.com (avec création d’image) est maintenant disponible pour le 5k-club
🔹Le 5000-club comprend tous ceux qui ont fait au moins 5000 images sur Midjourney
🔹Vérifiez le nombre d’images réalisées avec /info
🔹Vous pouvez accéder au site ici : http://alpha.midjourney.com
🔶 Nouvelle fonction de d’évaluation (avis): /feedback
🔹Cela vous permet de soumettre vos principales priorités à Midjourney pour qu’ils travaillent dessus.
🔹Vous pouvez également évaluer les priorités des autres
🔹Nous utilisons ces données pour faire une seule grande liste pour aider nos ingénieurs à déterminer sur quoi ils doivent se concentrer
🔹Nous examinerons la liste publiquement aux prochaines Office Hours et montrerons des visualisations intéressantes
🔹Veuillez mettre à jour vos priorités chaque fois que nous lançons de nouvelles fonctionnalités (comme avec le lancement du vary region ci-dessus)
🔶Changements dans la page d’exploration :
🔹Nouveaux états de survol pour la page d’exploration
🔹Améliorations supplémentaires du contenu de la page d’exploration
🔹Ajout de la fonction « hot/top/random » à la page d’exploration
🔹Recherche d’images similaires (cliquer sur la loupe)
🔶Modifications de la page Créer
🔹Le survol des images permet désormais d’afficher des boutons de variation
🔹Passez la souris sous l’invite pour afficher d’autres boutons d’option.
🔹Nouveau bouton « Hide » (c’est plus comme un emoji de vomi mais vous voyez l’idée et c’est facile), ce n’est pas un substitut pour le mode furtif.
(il n’y a pas encore de bouton « Unhide » mais vous pouvez voir les éléments cachés dans les archives sous les filtres)
🔶Modifications de la page d’archive
🔹Nouvelle fonction ‘timeline’, déplacez la souris sur la barre de défilement pour voir / parcourir les dates.
Mises à jour importantes de la V6 alpha. Elles s’appliquent à tous les nouveaux travaux à compter de maintenant.
Note de mise à jour V6
🔹Les upscales sont maintenant deux fois plus rapides (et utilisent deux fois moins de minutes GPU)
🔹Amélioration de l’esthétique, de la cohérence, du respect des prompts et de la qualité d’image
🔹Amélioration du rendu du texte (vous devez mettre le texte entre « guillemets » dans votre prompt)
🔹Amélioration des performances pour les valeurs de –stylize élevées
(en termes de qualité d’image, d’esthétique, de rendu du texte et de précision du prompt)
Veuillez noter : Nous continuerons à pousser les améliorations au cours des prochaines semaines alors que nous nous dirigeons vers la phase bêta officielle de V6
Midjourney V6 Alpha!
(vous devez écrire votre texte en « guillemets » et –style raw ou une valeur de –stylize peu élevée)
Style et prompting pour la V6
Ouvert pour l’instant qu’aux utilisateurs ayant plus de 10.000 générations à l’adresse: https://alpha.midjourney.com/
- La possibilité de créer des images nativement sur le site (sans Discord).
- Il s’agit d’un test ALPHA, ce qui signifie que ce site est une zone de construction active.
- Les choses changeront MASSIVEMENT, sans préavis, chaque semaine pendant les prochains mois jusqu’à ce que nous soyons prêts pour une version publique ou une version bêta plus « stable ».
Quelques notes sur cet alpha
- Vous pouvez faire glisser des images dans la barre d’image pour les utiliser dans votre prompt.
- Le batch downloader (téléchargement par lot) n’est pas encore supporté sur ce site.
- La version mobile n’est pas au centre de ce cycle de développement.
- La version mobile de l’alpha sera en retard sur les fonctionnalités, il est buggué, et il y a des choses manquantes.
- Il n’y a pratiquement aucune fonctionnalité sociale dans cet alpha, mais elles apparaîtront au cours des prochains mois
- Autres fonctionnalités pas encore sur l’alpha : Variation (région), Style Tuner, Remix pour le zoom panoramique ou les variations fortes, zoom personnalisé (custom zoom), préférences personnalisées, suppression d’images et /describe.
Quelques exemples de choses sur lesquelles on travaille actuellement et auxquelles on pense
- De meilleurs contrôles d’action dans la Lightbox. Peut-être un mode de vue ‘grille’.
- Une barre /imagine différente. Une interface utilisateur/UX différente pour l’envoie d’images. Un panneau de paramètres en plein écran.
- Une nouvelle page d’exploration (explore page)
- Nous séparerons probablement l’affichage des travaux finis de celui des créations, et la vue des créations elle-même changera considérablement.
Plus d’infos sur mon article: Guide des sites Midjourney: Tour d’horizon des 4 versions!
Le Style Tuner disponible sur NiJi pour pouvoir créer vos propres styles.
Fonctionne comme celui de Midjourney, à savoir tout de même que les –styles expressive, scenic et cute ne sont pas utilisables pour la création de style.
Cette première version du Style Tuner va permettre de contrôler la personnalisation du style de vos rendus et de les réutiliser, les combiner et les partager.
Personnalisation de style avec la V1 du Style Tuner (Cliquez sur le lien pour plus d’infos)
La phase 1 du nouveau site Midjourney accessible en beta. (Cliquez sur le lien pour plus d’infos)
– L’upscaler voit le jour avec les boutons Upscale (2x) et Upscale (4x) qui apparaissent une fois que vous avez agrandis votre image de la grille avec les boutons U1, U2, U3 ou U4. Il vous permet de doubler ou quadrupler la taille de vos images.
– Il est utilisable pour toutes les images générées depuis la V5 et NiJi 5. Pour en profiter sur des images précédant la mise à jour, utilisez la commande /show job_id.
– Il s’agit d’un upscaler subtile, c’est à dire qu’il respecte au maximum l’image originale.
Toutes les infos et tests ici: Midjourney Upscaler: Agrandir ses images ou dans la documentation midjourney.
Première version de l’appli mobile Niji · journey
Possibilité de générer des images depuis l’app, feed, galerie Niji.
– L’inpainting est enfin là, intégrer dans discord (version desktop et smartphone) à travers une fenêtre contextuelle lorsque l’on clique sur Vary (Region) sur les images agrandies (Upscale).
toutes les explications dans la documentation: Variations selectives.
– Mise à niveau du cluster GPU. Les utilisateurs Pro et Mega devraient voir des accélérations de ~1,5x (/imagine de ~50 secondes à ~30 secondes).
Ces rendus devraient également être environ 1,5 fois moins chers.
Toute capacité GPU supplémentaire accélérera aléatoirement les actions pour les autres plans d’abonnement.
– Nouvelle option pour faire des panoramiques, vous pouvez étendre votre image sur les cotés à la verticale ou à l’horizontale avec les flèches qui s’affichent sous les agrandissements.
– Nouveau paramètre –weird. Permet de rajouter un coté « bizarre » à votre image (valeur entre 1 et 3000)
– Nouveau plan d’abonnement à 120$/mois
– Mode /turbo génère vos images 4x plus vite pour 2x le prix
La V5.2 est enfin disponible avec un peu de retard
– Nouveau système d’esthétique
– Fonction Stylize plus puissante
– Nouveau mode « Haute variation »
– Nouvelle commande /shorten
– Nouvelle fonction de zoom arrière
– Retour de la commande –video
La note de mise à jour complète : Midjourney V5.2 est enfin là !
La V5.1 est plus opiniâtre (comme la V4) et est BEAUCOUP plus facile à utiliser avec des prompt courts
– Il existe un mode « sans opinion » pour la V5.1 (similaire à la V5.0 par défaut) appelé « Mode RAW »
– Ne vous inquiétez pas, la V5 est toujours disponible (comme avant)
Autres changements dans la V5.1 par rapport à la V5.0
– Meilleure cohérence
– Plus de précision par rapport aux textes des prompts
– Moins de bordures indésirables ou d’artefacts de texte
– Amélioration de la netteté
Comment activer V5.1 :
– Allez dans /settings
et cliquez sur « V5.1 » (sur la deuxième ligne) ou tapez --v 5.1
après votre prompt
– Pour le mode RAW, cliquez sur le bouton Mode RAW dans les /settings
(après avoir cliqué sur V5.1) ou tapez --style raw
Autres petites mises à jour:
- Le modérateur de l’IA est désormais en « Appels automatiques »
– Nous constatons qu’il y a très peu de prompt signalés comme « dangereux », nous les envoyons donc automatiquement via le deuxième processus de contestation de l’IA, plus puissant maintenant
– Cela devrait entraîner moins rejets et une expérience plus fluide (pas besoin d’appuyer sur « faire appel » (Appeal))
– Si vous constatez que votre prompt est toujours rejeté de manière incorrecte, appuyez sur le bouton « Notifier le développeur » sous le message de rejet pour nous aider à améliorer notre système - Répétitions et permutations maintenant disponibles pour les membres à 10 $
– Pour les abonnements de base, nous autorisons désormais les commandes uniques qui démarrent jusqu’à 4 tâches
– Pour la commande de répétition qui ressemble à--repeat 4
– Pour une permutation qui ressemble àun {chien, chat} in the style of {vaporwave, art déco}
– Les limites d’adhésion Standard / Pro restent les mêmes qu’avantSi vous avez un abonnement de 10 $, faites attention à ne pas utiliser toutes vos heures de cette façon ! Ceci est principalement destiné à permettre à chacun d’expérimenter les fonctionnalités et d’obtenir une productivité maximale lorsque vous en avez besoin.
Ajout d’un nouveau style à Nijijourney (le modèle Midjourney sur le thème de l’anime).
ce style est appelé « scénique » et est destiné à de beaux arrière-plans et des personnages dans de beaux environnements.
Pour l’utiliser, activez d’abord Niji v5 avec /settings puis choisissez votre style avec --style scenic
en fin de prompt.
On a évidement tester ce style pour vous : Mise à jour Niji 5 avec encore un nouveau style: scenic
Ajout de deux nouveaux styles de NijiJourney (le modèle Midjourney sur le thème de l’anime)
Pour les utiliser, activez d’abord Niji v5 dans les paramètres avec /settings puis choisissez votre style avec --style cute
ou --style expressive
;
Le style cute est assez mignon! L’expressif est légèrement plus 3D et occidentalisé.
Voila pour ce qui est de l’annonce officielle de la part de Midjourney, du coup on a testé ici.
Ajout de la fonction permutation qui permet de générer rapidement des variantes d’un prompt avec une seule requête.
Cette fonctionnalité est actuellement limitée aux abonnés ayant souscris au plan standard (à 30$/mois) ou au plan pro (à 60$/mois)
Présentation de la fonction de répétition (–repeat)
– Tapez --repeat
avec un nombre pour exécuter ce travail autant de fois que souhaitées.
– Par exemple /imagine cats --repeat 5
créera cinq grilles 2×2 de chats
Vous pouvez l’activer en tapant /settings et en cliquant sur niji version 5 ou en tapant --niji 5
à la fin de vos prompts.
Le style de ce modèle est plus fort que le modèle par défaut, donc si vous voulez augmenter ou diminuer l’intensité de la stylisation, veuillez utiliser la commande --stylize
(ou --s
pour faire court); --s 100
est la valeur par défaut et elle va de --s 0
au plus bas à --s 1000
au plus haut.
La commande /describe permet d’envoyer une image au Bot, et vous permet d’obtenir 4 prompts textuels qui tentent de décrire l’image.
– Cliquez sur les boutons sous la commande pour générer des images pour chacune des invites.
En raison d’une combinaison de demandes extraordinaires et d’abus d’essais, Midjourney désactive temporairement les essais gratuits jusqu’à ce que de prochaines améliorations du système soient déployées
Pour l’activer, tapez --v 5
après votre prompt ou sélectionnez « V5 » dans /settings
- Meilleure performance, plus de détails, une plus large gamme stylistique, moins d’artefacts et de texte indésirable.
- Prise en charge du paramètre
--tile
pour la réalisation de mosaïque. - Rapports d’aspect (ratio)
--ar
supérieurs à 2: 1. - Prise en charge du paramètre
--iw
pour donner du poids aux prompts d’image par rapport aux prompts textuels.
Derniers Articles
Reproduire un même personnage sur Midjourney (cref)
Nommé “cref” pour “character reference”, cette fonctionnalité sur midjourney permet d’utiliser des images comme références de personnage dans votre prompt pour reproduire des images du même personnage dans différentes situations et/ou dans différents styles. Avant de commencer il faut savoir que: les références de personnages fonctionnent mieux lorsque l’on utilise des images générées par Midjourney qui mettent en scène
En un mot, je prompt comme un pro sur midjourney
Dans cet article fun au titre un peu provocateur, je vais vous présenter des prompts d'un seul mot qui permettent d'obtenir des résultats impressionnants, dignes parfois de véritables créations professionnelles, avec quasiment aucun déchet. Il s'agit en fait de référer à des banques d'images très connues. Difficile de dire si midjourney a été entrainé directement à partir de celle-ci,
Le combo: Styles de référence et personnalisation de modèle Midjourney
Dans cet article je vais vous présenter l'étendue des possibilités en combinant les styles de référence (random et image) et les personnalisations de modèle. Nous allons voir comment en partant d'un prompt extrêmement simple d'un seul mot on peut arriver à un rendu final travaillé et exploitable professionnellement. Cela va nous permettre, étape par étape, de voir comment utiliser
La bible des styles aléatoires sur midjourney (sref random code)
Le 23 avril 2024 Midjourney publié une nouvelle fonctionnalité, le --sref random qui permet d'appliquer un style aléatoire à une génération. D'abord assez peu emballé par ce nouveau gadget, la mise à jour du 27 avril est venue changer la donne. En effet lorsque l'on fait un style aléatoire il est désormais traduit en un code (le sref random
La génération de texte dans Midjourney: Tout savoir!
La grosse nouveauté très attendue qui a été introduite dans la version 6 de Midjourney (déployée le 21 décembre 2023) et dans la v6 du modèle NiJi sortie le 30 janvier 2024, est la possibilité de générer du texte. Tout d’abord il faut bien vous assurer que vous soyez en v6, il est recommandé d’ajouter --v 6 à la
Les références de Style: le nouveau jouet de Midjourney
Sortie le 31 janvier, la référence de style (ou style reference) qui permet d'injecter un style à partir d'une ou plusieurs images, et de le retransposer à de nouvelles générations. Voici la note de version officielle du 31 janvier traduite par mes soins (que vous pouvez retrouver sur la page d'accueil de la documentation en français): Nous publions aujourd'hui
Entraide, Actualités, Partage, Prompt, Salon de génération d’image par thème, Débats, Challenge, Tutos, Ressources, Outils, Bases de données, Galerie consacrée principalement à Midjourney mais aussi aux autres IA génératrices d’images et de vidéos.
Nous avons comme sur le Serveur Officiel de Midjourney la présence des Bots qui permettent de générer vos images (/imagine), consulter vos infos (/infos), régler vos paramètres (/settings) ainsi que toutes les autres fonctionnalités proposées indépendamment par les Bots Midjourney et NijiJourney.
C’est aussi la présence des Bots TraceJourney et Vectorjourney qui permettent entre autres de vectoriser une image ou en supprimer le fond, ainsi que plein d’autres fonctionnalités; Openjourney et Nai d’imgNai qui fonctionnent de façon similaire à midjourney gratuitement; et de InsightFaceSwap, qui permet d’intérchanger les visages de vos images.
Rejoignez nous sur un serveur convivial d’entraide et d’échange, et générer vos images dans des espaces dédiés sans le flood incessant des salons du serveur officiel.