Février 2022
Midjourney V1
12 Avril 2022
Midjourney V2
25 Juillet 2022
Midjourney V3
5 Novembre 2022
Midjourney V4
21 Déc. 2022
Niji V4
15 Mars 2023
Midjourney v5
28 Mars 2023
Fin de l'offre gratuite
4 Avril 2023
Niji V5
3 Mai 2023
Midjourney V5.1
23 Juin 2023
Midjourney V5.2
30 Juin - 3 Juillet 2023
fonction --weird Panoramique
21 Aout 2023
Inpainting (Vary Region)
14 Octobre 2023
App Mobile NiJi
18 Octobre 2023
Upscaler (x2) et (x4)
24 Octobre 2023
Nouveau Site Web (phase 1)
02 Novembre 2023
Style Tuner
12 Décembre 2023
Site en Alpha génération d'images en ligne
21 Déc. 2023
Modèle V6 !
6 janvier 2024
Mise à jour V6 alpha
25 janvier 2024
Pan / Zoom / Inpainting V6 Alpha
30 janvier 2024
NiJi V6 Alpha
31 janvier 2024
Référence de style --sref
11 Mars 2024
Référence de personnage --cref
23 Avril 2024
Styles aléatoires
12 Juin 2024
Personnalisation de modèle
30 Juillet 2024
Midjourney V6.1
23 Octobre 2024
Éditeur externe
17 Déc. 2024
Moodboards
04 Avril 2025
V7 alpha
01 Mai 2025
Omni-Référence
Historiques des Mises à Jour (Annonces officielles) :
⛵️📢 Omni Référence (--oref
) dispo sur Midjourney V7
Aujourd’hui, nous commençons les tests d’un nouveau système de référence d’image appelé Omni-Reference. Ce système peut reproduire une grande partie des fonctionnalités précédemment utilisées avec les “références de personnage” (--cref
) dans la V6, mais il est aussi capable de BEAUCOUP plus.
🔶 Qu’est-ce que l’Omni-Reference ?
🔹 Omni-Reference peut être vu comme un système permettant de dire : “mets ÇA dans mon image”
🔹 Il fonctionne pour les personnages, objets, véhicules ou créatures non humaines
🔶 Comment utiliser l’Omni-Reference
🔹 Sur le Web : glissez une image dans la barre de prompt. Déposez-la dans la zone indiquée “omni-reference”. Une icône curseur permet de contrôler l’intensité.
🔹 Sur Discord : tapez --oref
url (où url est le lien de l’image), et utilisez --ow
pour contrôler la force d’application.
🔶 À propos de la pondération de l’Omni-Reference
🔹 Il existe un paramètre appelé --ow
(“omni-weight”) avec un curseur dans l’interface Web, qui contrôle la rigueur avec laquelle l’image de référence est suivie.
🔹 Ce paramètre va de 0 à 100 à 1000 (100 est la valeur par défaut).
🔹 Si vous souhaitez changer le style de l’image (ex. : photo vers anime), vous devez réduire le poids (ex. : --ow
25).
🔹 Si vous souhaitez que le visage d’un personnage soit très visible (ou que ses vêtements soient conservés), utilisez une valeur plus élevée, comme --ow
400.
🔹 Les paramètres --stylize
et --exp
influencent également l’image, en compétition avec omni-reference, donc si vous avez une valeur élevée de stylize ou exp, vous devrez probablement utiliser un poids omni plus élevé.
🔹 Exemple :
a person --stylize
1000 --ow
1000 --exp
100 --oref
person.png
🔹 Note importante : si vous n’utilisez pas de valeurs élevées pour stylize ou exp, vous ne devriez probablement jamais dépasser des valeurs modérées comme –ow 400, sinon cela pourrait dégrader le résultat.
🔶 Plus d’infos sur l’utilisation de l’Omni-Reference
🔹 Omni-Reference fonctionne avec la personnalisation, la stylisation, les références de style et les moodboards.
🔹 Si vous voulez qu’un personnage tienne une épée, assurez-vous de le dire explicitement dans le prompt :
a character holding a sword --oref
sword.png
🔹 Si vous voulez faire un style transfer avec un faible poids, spécifiez clairement les éléments du personnage à préserver :
an anime woman with blonde hair and red suspenders --oref
url --ow 25
🔹 C’est encore peu testé, mais si vous avez deux personnages (ou objets/personnages, etc.) dans votre image de référence (dans la même image ou deux images côte à côte) et que vous les mentionnez tous les deux dans votre prompt, vous pouvez souvent les retrouver dans l’image générée.
🔹 Omni-Reference ne fonctionne pas en mode draft pour le moment, désolé !
Nous savons que tout cela est encore expérimental. Honnêtement, il existe TELLEMENT de façons différentes d’utiliser cette fonctionnalité. C’est difficile pour nous de savoir ce qui fonctionne bien, ce qui fonctionne mal, et ce que les gens veulent utiliser ou améliorer le plus.
⛵️🆕Editeur web Midjourney et fonctionnalité weird v7
🔶Beaucoup de mises à jour de l’éditeur
🔹 Nous avons rafraîchi toute l’interface utilisateur
🔹 Nous avons combiné l’expérience d’édition des images MJ et des images externes (vous pouvez y accéder via le bouton « edit » sur la gauche ou via le bouton « edit » dans la visionneuse)
🔹 Édition multi-couches (calques)
🔹 Sélection intelligente
🔹 Modération IA plus intelligente
🔹 Nous avons également ouvert l’éditeur à tous les niveaux d’abonnement
🔶Paramètre Weird ajouté à la V7
🔹 Nous avons réintroduit la commande --weird
dans la V7
🔹 Elle va principalement de 0 à 1000, mais nous autorisons jusqu’à 3000 comme auparavant
🔹 Personnellement, j’aime la combiner avec des valeurs élevées de –stylize
🔹 L’objectif principal est de vous offrir une commande qui permet de sortir de l’esthétique normale pour aller vers des choses plus nouvelles ou étranges, selon ce que vous recherchez
⛵️🆕 La v7 de midjourney enfin là!
Salut @everyone @here, nous allons permettre à la communauté de tester une version alpha de notre V7 dès maintenant.
🔸V7 est un modèle incroyable : il est bien plus intelligent avec les prompts textuels, les prompts d’images sont superbes, la qualité des images est nettement supérieure avec de magnifiques textures, et les corps, mains et objets de toutes sortes sont beaucoup plus cohérents dans les moindres détails.
🔸V7 est le premier modèle à activer la personnalisation par défaut. Vous devez déverrouiller votre personnalisation pour l’utiliser. Cela prend environ 5 minutes. Vous pouvez l’activer ou la désactiver à tout moment. Nous pensons que la personnalisation élève vraiment notre capacité à comprendre ce que vous voulez et ce que vous trouvez beau.
🔸Notre prochaine fonctionnalité phare s’appelle « Draft Mode » ou « Mode Brouillon ». Le mode brouillon coûte deux fois moins cher et génère des images 10 fois plus vite. C’est tellement rapide que nous transformons la barre de prompt en « mode conversationnel » lorsque vous l’utilisez sur le web. Dites-lui de remplacer un chat par une chouette ou de passer à la nuit, et il ajustera automatiquement le prompt et lancera un nouveau job. Cliquez sur « Draft Mode » puis sur le bouton micro pour activer le « mode vocal » – où vous pouvez penser à voix haute et laisser les images couler sous vos yeux comme des rêves liquides.
Si vous souhaitez lancer un job en mode brouillon de manière explicite, vous pouvez aussi ajouter `–draft` après votre prompt. Cela peut être amusant pour des permutations ou avec `–repeat` et plus encore.
🔸Nous pensons que le mode brouillon est la meilleure façon jamais inventée pour itérer sur des idées. Si vous aimez quelque chose, cliquez sur « enhance » ( améliorer ) ou « vary » ( varier ) sur l’image, et elle sera re-générée en qualité maximale. Attention : les images en mode brouillon sont de qualité inférieure au mode standard – mais le comportement et l’esthétique sont très cohérents – donc c’est un moyen fidèle d’explorer des variations.
🔸V7 se lance en deux modes : Turbo et Relax. Notre mode de vitesse standard a encore besoin d’optimisations, que nous espérons publier bientôt. Rappel : les jobs en mode turbo coûtent 2 fois plus qu’un job normal en V6, et les jobs en mode brouillon deux fois moins.
🔸Autres fonctionnalités : l’agrandissement (upscaler), l’inpainting (retouche) et la retexture utilisent pour l’instant les modèles V6. Nous les mettrons à jour prochainement. Les moodboards et SREF fonctionnent, et leurs performances s’amélioreront au fil des mises à jour.
🔸Feuille de route : attendez-vous à de nouvelles fonctionnalités toutes les une à deux semaines pendant les 60 prochains jours. La plus grosse fonctionnalité à venir sera une nouvelle référence de personnage et d’objet pour V7.
🔸En attendant – amusons-nous ! Montrez ce que vous créez dans le salon `v7-showcase` sur discord et dites-nous ce que vous en pensez dans `ideas-and-features`. À mesure que le modèle gagnera en maturité, nous organiserons une session communautaire pour prioriser la feuille de route ensemble.
🔸À noter : Il s’agit d’un tout nouveau modèle avec des forces uniques – et probablement quelques faiblesses. Nous voulons apprendre de vous ce qu’il fait bien ou moins bien, mais gardez à l’esprit qu’il peut nécessiter des styles de prompt différents. Donc, amusez-vous à expérimenter.
Merci encore à toutes et à tous pour votre aide pendant la session de notation anticipée de la V7, et un immense merci pour faire partie de Midjourney. Amusez-vous bien et partez à la découverte des merveilles dans cette vaste mer d’imagination partagée.
Voici une vidéo amusante sur le Draft Mode
⛵️📢 V7 Midjourney, deuxième tour des évaluations.
Nous en sommes maintenant au DEUXIÈME TOUR de l’évaluation des images V7.
Le cycle précédent était plus axé sur l’apprentissage de ce qui est « mauvais » et maintenant le cycle 2 est axé sur l’apprentissage de ce qui est « bon »
Rendez-vous sur l’URL de vote et aidez-nous à classer les images ! https://www.midjourney.com/rank-v7
Instructions :
🔸Vous verrez deux images à la fois
🔸Choisissez celle qui vous semble la plus belle (en fonction de vos goûts esthétiques personnels).
🔸Sur un ordinateur, vous pouvez utiliser les touches 1 et 2 pour sélectionner les images (1 est à gauche, 2 est à droite).
🔸Si vous n’êtes pas sûr de la meilleure image, appuyez sur « skip » (ou sur la touche « 3 ») pour passer.
🔸Ces images utilisent des prompts communautaires aléatoires. Si vous voyez quelque chose d’obscène (NSFW), appuyez sur « Report Image » (Désolé !) pour Signaler l’image.
À savoir:
🔸Ces images ne sont PAS représentatives du nouveau modèle que nous sortirons bientôt.
🔸Ces évaluations sont très sérieuses, merci de faire de votre mieux pour nous fournir de bonnes données.
Si vous pensez que l’une de ces images est cool, n’hésitez pas à la partager dans le salon rating-party sur discord.
Merci encore pour votre aide ! ❤️❤️❤️ »
Nous ajoutons aujourd’hui un nouveau système de dossiers et d’organisation au site web. Regardez la vidéo ci-dessous pour une bonne vue d’ensemble.
Quelques points forts (sous forme de texte)
🔸Un nouveau menu « Dossiers » est disponible sur les pages « Créer » et « Organiser ».
🔸Lorsque vous visualisez un dossier, toutes les images que vous créez sont ajoutées à ce dossier.
🔸Les dossiers peuvent être regroupés pour vous permettre de trier des projets ou des idées connexes.
🔸Vous pouvez visualiser tous les dossiers dans lesquels se trouve une image dans la lightbox.
🔸Il est désormais possible de télécharger toutes les images d’un dossier en cliquant dessus avec le bouton droit de la souris et en choisissant « Télécharger ».
🔸Vous pouvez ajouter des images à des dossiers en cliquant avec le bouton droit de la souris sur une image, ou en faisant glisser des images dans des dossiers, ou vous pouvez les ajouter à des dossiers en cliquant sur le bouton « Dossier » dans la lightbox.
Nous espérons que ces outils vous permettront de gérer des projets de plus en plus importants au fur et à mesure que vous prendrez plaisir à utiliser Midjourney.
⛵️📢 Mise à jour Midjourney : Describe sur le web + mélange de Moodboard
🔶Vous pouvez désormais « décrire » les images sur le web
🔹Si vous ne trouvez pas les mots justes pour transformer une image en prompt, vous pouvez désormais utiliser la fonction describe sur le web !
🔹Pour l’utiliser, cliquez avec le bouton droit de la souris sur n’importe quelle image et sélectionnez « Describe », ou faites glisser une image de votre bureau vers la zone de description (sous la barre imagine). Vous verrez quatre prompts générées à partir de l’image en haut de votre page « Create ».
🔹Pour que votre flux de création reste propre, ces messages disparaîtront lorsque vous actualiserez la page.
🔶Mélange de moodboards et de références de style
🔹Vous pouvez désormais mélanger plusieurs moodboards ainsi que des moodboards avec des références de style. Il suffit d’ajouter plusieurs codes comme « –sref 142710498 –profile drgmjoi 2jrqbw6 »
🔹Retrouvez tous vos moodboards sur la page « Personalize ». Vous pouvez toujours mélanger les moodboards et les références de style avec vos profils de personnalisation pour les adapter à vos préférences.
🔹Si vous souhaitez partager vos moodboards avec vos amis, deux options s’offrent à vous. Vous pouvez partager un lien vers le moodboard pour permettre aux gens de voir les images et d’utiliser la dernière version au fur et à mesure que vous apportez des modifications, ou vous pouvez partager un instantané du moodboard avec un code (par exemple –profile 2jrqbw6).
⛵️📢 Profils multiples de personnalisation de modèle & Moodboard
Nous lançons aujourd’hui une version préliminaire de notre nouvelle infrastructure de personnalisation des modèles.
🔶Fonctionnalités principales
🔹Vous pouvez désormais avoir plusieurs profils de personnalisation.
🔹La configuration de la personnalisation est désormais beaucoup plus rapide (jusqu’à 5 fois plus rapide).
🔹Vous pouvez personnaliser les modèles à l’aide de « moodboards » composés d’images téléchargées.
🔶Autres fonctionnalités / Informations
🔹Les profils de personnalisation « convergent » plus rapidement et nécessitent moins d’éléments pour commencer.
(40 évaluations suffisent pour démarrer, relativement stable à 200. Vous remarquerez toujours une amélioration à 2000 évaluations, mais 10 000 ne devraient plus être nécessaires dans la pratique).
🔹Les moodboards s’inspirent des images que vous ajoutez. En ajoutant des images plus variées, le modèle commencera à les remixer de manière plus complexe.
🔹Vous pouvez nommer les profils de modèles et en sélectionner un ou plusieurs comme profils par défaut.
🔹Vous pouvez consulter toutes les images créées avec des profils particuliers.
Nous espérons que ces fonctionnalités permettront à tout le monde d’utiliser la personnalisation, que vous travailliez sur plusieurs projets ou avec plusieurs personnes.
Commencez ici : https://www.midjourney.com/personalize
⛵️📢 Évaluation d’idées
Nous avons besoin de votre aide pour évaluer les idées sur les priorités de Midjourney pour les 6 prochains mois (ces idées ont été soumises par la communauté et les membres de l’équipe au cours des 45 derniers jours).
🔶Comment ça marche ?
🔹Notre système « d’allocation des ressources » vous donnera 25 points à répartir entre 5 idées aléatoires.
🔹Attribuez les points comme vous pensez que nous devrions prioriser les fonctionnalités avec des ressources limitées.
🔹En examinant les points attribués par des milliers de personnes, nous obtenons une « valeur » absolue pour chaque idée
🔹Nous calculons également une note de controverse pour chaque idée (amusant !)
🔹Vous pouvez suivre tous ces chiffres (comme nous) au fur et à mesure que les évaluations arrivent via le tableau de classement du site.
Commencez à évaluer ici : https://www.midjourney.com/ideas
Merci beaucoup pour votre aide ! Cet outil poursuit notre travail de recherche de nouvelles méthodes pour tirer parti de l’intelligence de la communauté afin de déterminer les plus grandes priorités pour Midjourney. Nous espérons que ces outils seront mis à la disposition d’autres projets à l’avenir (qu’il s’agisse d’un programme de subvention ou de laboratoires d’intelligence artificielle).
Nous sommes impatients de voir les fonctionnalités que vous choisirez.
⛵️📢 Disponibilité de l’éditeur web pour Niji
⛵️📢 Enquête sur les futures évolutions de midjourney
Nous réalisons une nouvelle enquête cette semaine pour recueillir des idées qui nous aideront à planifier notre feuille de route au cours des 12 prochains mois
Une fois que nous aurons recueilli vos idées, nous les mettrons toutes ensemble (avec nos propres idées) dans une grande liste et les placerons ensuite au vote pour avoir une idée de ce que tout le monde trouverait le plus utile.
Vous pouvez faire le sondage ici : https://tally.so/r/wkRJz1
Nous demandons des idées de diverses façons, mais toutes les questions sur les suggestions d’idées sont facultatives et toutes les idées que vous nous donnez sont grandement appréciées.
Merci
⛵️📢 Nouvel éditeur d’images
Nous prévoyons de publier un nouvel éditeur d’images sur le web au début de la semaine prochaine.
Ce nouvel éditeur d’images vous permettra d’éditer n’importe quelle image téléchargée / web en utilisant Midjourney.
Retexturer les images (via le réseau de contrôle de profondeur), ce qui signifie qu’il conserve la structure de la scène / de l’objet mais repeint toutes les textures / couleurs / détails en fonction de votre demande.
Parce que ces nouvelles fonctionnalités sont si puissantes, nous allons restreindre leur déploiement à un sous-ensemble de la communauté actuelle et augmenter notre modération humaine sur les résultats (il y a aussi de nouveaux modérateurs IA plus avancés qui, nous le pensons, feront un excellent travail).
Honnêtement, nous ne sommes pas sûrs de savoir comment restreindre précisément le déploiement de cette fonctionnalité, c’est pourquoi nous voulons lancer un sondage et recueillir vos opinions. Nous utiliserons ces résultats pour calculer le pourcentage de la base d’utilisateurs que nous atteindrons avec différentes restrictions et nous essaierons de trouver un équilibre entre l’accessibilité et le volume.
Voici le lien de l’enquête : https://o9q981dirmk.typeform.com/to/jBKzMoWt
Merci de nous aider ! ❤️
⛵️📢 Des tests et questionnaires pour du GPU gratuit
Nous avons deux petites nouveautés aujourd’hui :
- Nous publions un test de personnalité pour aider à comprendre les origines de la beauté… En gros, quel est le lien entre notre personnalité et ce que nous trouvons beau et comment nous voyons la beauté différemment ?
Faites le test sur https://midjourney.com/surveys?survey=personality-ambi
Le test devrait prendre environ 15 minutes et vous donnera une TONNE de résultats amusants sur vous-même à la fin. Il contribuera également à nos recherches de pointe. Aucun abonnement n’est nécessaire pour faire le test, mais les abonnés recevront 2 heures de gpu gratuites après l’avoir fait.
- Nous ajoutons de nouveaux tests de classement par paires pour permettre à la communauté d’améliorer la précision des prompts et les modèles Niji :
Classez la précision des messages ici : http://midjourney.com/rank-accuracy
Classer les images de Niji (anime) ici : http://midjourney.com/rank-niji
Les 2000 meilleurs classeurs de paires obtiennent 1 heure de Gpu gratuit par jour.
Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de nos modèles et de la science ! Nous sommes impatients de partager les résultats avec vous et d’en explorer le sens ensemble.
(Voici un petit exemple de quelques dizaines d’éléments parmi les 200 mesurés par le test).
⛵️📢 Ouverture du site et Essais gratuits!
Aujourd’hui, nous ouvrons la création d’images sur le web à tout le monde !
Tout le monde peut maintenant aller sur notre site web et commencer à créer des images.
Pour permettre aux gens de jouer avec le nouveau site, nous avons temporairement mis en place des essais gratuits (~25 images).
Attention
🔸Vous devez toujours vous connecter avec votre compte discord sur le site web si vous voulez avoir l’historique de vos images créées sur discord.
🔸Vous pouvez fusionner vos comptes discord et Google dans votre onglet « compte » si vous souhaitez pouvoir vous connecter avec l’un ou l’autre à l’avenir.
🔸Les nouveaux utilisateurs peuvent s’inscrire en utilisant leur compte Google ou leur compte Discord.
⛵️📢 Nous publions aujourd’hui la version 6.1 de nos modèles d’images Midjourney.
🔶Quelles sont les nouveautés de la V6.1 ?
🔹Plus d’images cohérentes (bras, jambes, mains, corps, plantes, animaux, etc)
🔹Une bien meilleure qualité d’image (réduction des artefacts de pixels, amélioration des textures, de la peau, rétro 8bit, etc.)
🔹Caractéristiques des petites images plus précises, détaillées et correctes (yeux, petits visages, mains éloignées, etc.)
🔹Nouveaux upscalers avec une bien meilleure qualité d’image et de texture
🔹Environ 25 % plus rapide pour les travaux d’image standard
🔹Amélioration de la précision du texte (lors du dessin de mots par le biais de « citations » dans les prompts)
🔹Un nouveau modèle de personnalisation avec plus de nuances, de surprise et de précision
🔹Versioning du code de personnalisation (utilisez n’importe quel code de personnalisation d’un ancien travail pour utiliser le modèle de personnalisation et les données de ce travail).
🔹Un nouveau mode –q 2 qui prend 25 % de temps en plus pour ajouter (parfois) plus de texture au prix d’une réduction de la cohérence de l’image.
🔹Les choses devraient être « généralement plus belles » dans l’ensemble.
🔶Autres notes importantes :
🔹La V6.1 n’a pas encore de nouveau modèle d’inpainting/outpainting, donc si vous utilisez zoom/reframe/repainting/vary region, vous reviendrez au modèle de la V6.0.
🔹Si vous voulez revenir à la V6, allez dans /settings et cliquez sur V6 ou tapez –v 6 après votre travail (ou cliquez sur le panneau des paramètres sur le site web).
Projets futurs : Nous sortirons probablement un modèle V6.2 dans le mois à venir avec d’autres améliorations, mais nous devons d’abord rassembler autant de données que possible sur les utilisateurs de la V6.1. Ainsi, à partir d’aujourd’hui, nous ne nous contentons pas de sortir la V6.1, mais nous en faisons le modèle par défaut sur Midjourney pour tous les utilisateurs.
Nous espérons que cette nouvelle version plaira à tout le monde ! Amusez-vous bien ! ❤️
Nous ajoutons aujourd’hui des options plus avancées pour --sref
(références de style) et --p
(personnalisation du modèle)
Nouvelles fonctionnalités pour les références de style
🔸Vous pouvez maintenant mélanger plusieurs codes --sref
ensemble (par exemple --sref
123 456)
🔸Vous pouvez maintenant mélanger les urls des images de référence de style et les codes aléatoires sref (par exemple --sref
123 url).
🔸Vous pouvez pondérer des codes ou des urls individuels comme suit --sref 123::2 456::1
Nouveau mélange de personnalisation de modèle
🔸Vous pouvez maintenant mélanger plusieurs codes de personnalisation de modèle comme --p ab12ad3 cd34gl
🔸Nous avons également activé le mélange avec la même notation --p ab12ad3::2 cd34gl::1
Mélangez vos codes de personnalisation et de style avec ceux de vos amis et explorez de nouveaux espaces d’harmonie esthétique mutuelle !
⛵️📢 Enquête Midjourney récompensés par 2h de fast GPU
Nous lançons un nouveau projet de recherche sur les origines de la beauté… En gros, quand trouvons-nous quelque chose de beau collectivement et quand voyons-nous la beauté différemment ?
Pour ce faire, nous comparons les modèles personnalisés que les gens fabriquent aux réponses de plusieurs nouvelles enquêtes.
La première enquête porte sur les données démographiques : comment des facteurs tels que l’âge, le sexe, le pays, etc. influencent-ils ce que nous trouvons beau ?
Répondez à l’enquête ici : https://www.midjourney.com/surveys?survey=demographics
Elle prend ~5 minutes et chaque personne qui la complète reçoit 2 heures de gpu rapide en récompense.
Nous essaierons d’utiliser ces données pour partager de nouvelles connaissances approfondies sur l’esthétique humaine et peut-être même pour créer de nouvelles fonctionnalités qui vous permettront d’explorer ces connaissances vous-même ! Toutes les données sont privées, vous pouvez demander leur suppression à tout moment sur la page de votre compte, et vous pouvez sauter n’importe quelle question (vous recevrez des récompenses pour le pourcentage auquel vous répondez).
La prochaine enquête portera davantage sur la personnalité et devrait être publiée dans une semaine ou deux.
Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de la science. Nous avons hâte de partager les résultats avec vous et d’en explorer le sens ensemble ❤️
Nous avons apporté quelques modifications au site web afin d’en simplifier l’utilisation. Quelques changements à noter :
🔸Les outils ‘Pan’ et ‘Zoom’ sont désormais unifiés et s’appellent ‘Reframe‘
🔸L’outil ‘Remix’ se trouve désormais dans l’outil ‘Reframe‘. Cela vous permet de modifier le prompt lors d’un panoramique ou d’un zoom.
🔸L’outil « Vary Region » s’appelle désormais « Repaint« .
🔸Les messages d’erreur sont plus descriptifs et il n’est pas nécessaire de les survoler pour obtenir plus d’informations.
🔸La barre latérale est plus simple. Les fonctions « Rank Images » et « Rank Ideas » se trouvent désormais sur la page « Tasks« .
🔸La fonction « Signaler un bug » se trouve désormais dans le menu « Help« .
Nouvelles mises à jour du modèle :
🔸Amélioration du rendu du texte japonais.
🔸Le modèle peut maintenant bien rendre des textes courts en kana japonais et, dans certains cas, peut aussi rendre des textes qui incluent des caractères chinois simples.
🔸Amélioration des détails de l’image (comme la structure des yeux des animes).
🔸Correction de certains artefacts d’image qui affectaient auparavant un très petit nombre de générations.
Rappel :
🔸Vous pouvez activer Niji it en tapant /settings et en cliquant sur niji model 6 ou en tapant --niji
6 après les prompts.
🔸Vous pouvez montrer des images de Niji dans le salon #niji-showcase (sur discord)
🔸Il y a un serveur discord dédié à Niji ici (avec des canaux pour les non-anglophones).
https://discord.com/invite/nijijourney
Nous espérons que vous apprécierez ces mises à jour ! Restez à l’écoute pour plus d’infos la semaine prochaine.
🔶Nous ouvrons notre alpha web à tous ceux qui ont 100 générations ou plus (utilisez /info pour voir combien de travaux vous avez). Regardez ici : https://alpha.midjourney.com
Les principales différences entre ce site et notre site normal sont les suivantes :
🔹La possibilité de créer des images sur le web (cliquez sur « Créer »)
🔹 La possibilité d’aider à tester les premières salles publiques et de créer des images ensemble (cliquez sur « Rooms »).
La création de salles privées et personnalisées se fera dans les semaines à venir.
N’hésitez pas à nous faire part de votre avis dans la rubrique « Idées et fonctionnalités » (sur discord) .
🔶Nous offrons maintenant des copies gratuites du magazine Midjourney pour les écoles, les magasins et les groupes communautaires. Si vous vous reconnaissez dans cette offre, envoyez votre demande à https://mag.midjourney.com/distribution. Pour tous les autres, ne vous inquiétez pas, vous pouvez toujours obtenir des magazines pour 4$/mois sur https://mag.midjourney.com.
Nous testons de nouveaux algorithmes pour « explorer l’espace latent des styles visuels » et mettons à la disposition de tous un outil simple et amusant.
🔹Vous pouvez désormais taper --sref random
à la fin de vos prompts et obtenir des styles totalement aléatoires.
Par exemple, en dessous de ce post, il y a 64 itérations du prompt « /imagine a field of flowers --sref random
« .
Si vous aimez quelque chose que vous trouvez, utilisez --sref url
avec l’url de l’image pour en obtenir d’autres.
Il s’agit d’un test d’un algorithme sous-jacent pour lequel nous créerons des outils plus avancés à l’avenir.
Pour l’instant, nous espérons que vous vous amuserez !
🔶 Nous publions deux nouveaux algorithmes pour les références de style ainsi qu’une nouvelle fonctionnalité de « versioning ».
--sv
--sv 1
L’algorithme de référence de style original que nous avons publié avec--sv 2
L’algorithme par défaut jusqu’à aujourd’hui--sv 3
Une nouvelle version de sv1 avec de meilleures performances et plus « vibrant » que sv2--sv 4
Une nouvelle version de sv2 avec de meilleures performances (c’est la version par défaut)🔶 Nous revenons sur les heures de GPU gratuites pour l’évaluation des images.
Nous sortons aujourd’hui la version 2 de la fonctionnalité « référence de style ».
Elle devrait être beaucoup plus précise en ce qui concerne la compréhension du style et elle devrait être beaucoup plus efficace pour éviter les « fuites » d’éléments non stylistiques dans vos images. Nous avons également amélioré le fonctionnement du paramètre de poids –sw, afin qu’il soit plus significatif et qu’il ait une plus grande portée.
🔶Qu’est-ce qu’une référence de style ?
Les références de style vous permettent de référencer le style d’une autre image ou de conserver un style cohérent sur plusieurs images. Il s’agit d’un outil similaire aux prompts d’images, mais qui se concentre uniquement sur le style.
🔶Comment l’utiliser à nouveau ?
Pour utiliser une référence de style, tapez –sref URL après votre prompt avec l’url d’une image. Pour augmenter l’influence du style, appliquez un poids de style (–sw) proche de 1000. Pour diminuer la puissance du style, définissez le poids plus proche de –sw 0 (la valeur par défaut est 100). Vous pouvez également ajouter plusieurs références de style.
Voici un exemple bête et rapide utilisant un dessin au crayon de couleur comme référence. Quoi qu’il en soit, nous espérons que vous vous amuserez ! ❤️
Qu’est-ce que le Turbo mode ?
🔹Les travaux en mode turbo sont 3,5 fois plus rapides pour un coût deux fois plus élevé (~10 secondes contre ~35 secondes).
🔹Ils sont exécutés sur les machines GPU les plus rapides possibles (c’est pourquoi ils sont à la fois plus rapides et plus chers).
🔹C’est idéal pour les groupes, les événements publics, chaque fois que vous êtes pressé ou que vous avez besoin de rapidité.
Comment l’utiliser / comment ça marche
🔹Tapez /turbo et tous vos travaux /imagine seront 3,5 fois plus rapides (pour un coût en gpu de 2 fois supérieur au mode fast).
🔹On peut aussi indiquer --turbo
à la fin du prompt
🔹Le mode turbo prend actuellement en charge les travaux /imagine vary et remix (mais pas encore sref).
🔹Tous les travaux qui ne sont pas pris en charge par le mode turbo sont exécutés comme des travaux normaux (à un coût normal).
C’est assez fou d’avoir une V6 à 3,5 fois la vitesse. Profitez-en et amusez-vous bien !
commande /describe pour la V6.
A la base, midjourney passe normalement du texte à l’image et cette commande vous permet de passer de l’image au texte.
Nous sommes encore en train de peaufiner les choses, mais cette nouvelle version de describe est destinée à produire des messages plus longs et plus détaillés, spécialement adaptés à la V6.
Deux changements ont récemment été apportés à la version 6 :
🔸Un ajustement qui améliore légèrement les détails fins dans certains scénarios et réduit les textures répétitives non naturelles (dans des endroits comme le feuillage lointain, le sol, les textiles / tissu, la peau, les cheveux / la fourrure, etc.). Vous pourriez également remarquer un rendu de texte légèrement amélioré et un peu moins de problèmes d’anatomie/main.
- Il est possible que certains prompts pixelart se révèlent moins « propres » qu’auparavant, contenant maintenant du bruit ou du grain. Si vous voyez cela, essayez d’utiliser –q 0.5. Il est plus similaire aux paramètres précédents (et plus rapide!).
🔸Les upscalers v6 x2 agissent désormais de manière plus similaire aux upscalers Niji 6. Les Upscales subtils doivent être plus fidèles à l’image originale qu’avant, et moins susceptibles d’introduire de nouveaux artefacts indésirables.
Nous publions aujourd’hui nos premiers algorithmes de test pour les « styles persistants ». Nous appelons cette fonctionnalité « Références de style » (Style References). Elles fonctionnent de la même manière que les prompts d’images où vous donnez une URL à une ou plusieurs images qui « décrivent » le style cohérent sur lequel vous voulez travailler.
🔶Comment utiliser les références de style
🔹Tapez --sref
après votre prompt et mettez une (ou plusieurs) URL d’images comme ceci –sref urlA urlB urlC
🔹Le modèle d’image considérera les URL d’images comme des « références de style » et essaiera de créer quelque chose qui « corresponde » à leur esthétique.
🔹Définir les poids relatifs des styles comme ceci --sref
urlA::2 urlB::3 urlC::5
🔹Définir la force totale de la stylisation via --sw
100 (100 est la valeur par défaut, 0 est désactivé, 1000 est la valeur maximale).
🔹Les prompt d’images régulières doivent être placées avant --sref
comme ceci
/imagine cat ninja ImagePrompt1 ImagePrompt2 --sref
stylePrompt1 stylePrompt2
🔹Cela fonctionne pour V6 et Niji V6 (cela ne fonctionne pas avec les versions antérieures).
🔶Veuillez noter :
🔹Nous allons probablement mettre à jour ceci dans les prochaines semaines (et cela peut changer des choses, alors soyez prudent pendant que c’est encore en alpha).
🔹Si votre message tend vers le photoréalisme et que vous voulez un style divergent comme l’illustration, vous devrez peut-être ajouter un texte à votre message pour l’indiquer.
🔹Les références de style n’ont pas d’effet direct sur les prompts d’images, mais uniquement sur les travaux qui contiennent au moins un texte.
🔹Nous prévoyons d’ajouter ultérieurement une fonction « Personnage persistant » (Consistent Character) qui fonctionnera de la même manière avec l’argument --cref
.
Plus d’infos et des exemples dans mon article: Les Références de Style: le nouveau jouet de Midjourney.
🔶La V6 prend désormais en charge Pan / Zoom / Vary (région)
🔹 Ces options apparaissent sous les upscales du bot v6 et sur le site alpha (sauf vary region sur le web)
🔹 Pan agit maintenant plus comme un zoom. Il devrait être plus facile à utiliser et donner des résultats de meilleure qualité (avec plus de cohérence et moins de répétition des concepts)
🔹Pan fonctionne maintenant avec upscale/vary/remix mais n’augmente plus la résolution à l’infini.
🔶 http://alpha.midjourney.com (avec création d’image) est maintenant disponible pour le 5k-club
🔹Le 5000-club comprend tous ceux qui ont fait au moins 5000 images sur Midjourney
🔹Vérifiez le nombre d’images réalisées avec /info
🔹Vous pouvez accéder au site ici : http://alpha.midjourney.com
🔶 Nouvelle fonction de d’évaluation (avis): /feedback
🔹Cela vous permet de soumettre vos principales priorités à Midjourney pour qu’ils travaillent dessus.
🔹Vous pouvez également évaluer les priorités des autres
🔹Nous utilisons ces données pour faire une seule grande liste pour aider nos ingénieurs à déterminer sur quoi ils doivent se concentrer
🔹Nous examinerons la liste publiquement aux prochaines Office Hours et montrerons des visualisations intéressantes
🔹Veuillez mettre à jour vos priorités chaque fois que nous lançons de nouvelles fonctionnalités (comme avec le lancement du vary region ci-dessus)
Mises à jour importantes de la V6 alpha. Elles s’appliquent à tous les nouveaux travaux à compter de maintenant.
Note de mise à jour V6
🔹Les upscales sont maintenant deux fois plus rapides (et utilisent deux fois moins de minutes GPU)
🔹Amélioration de l’esthétique, de la cohérence, du respect des prompts et de la qualité d’image
🔹Amélioration du rendu du texte (vous devez mettre le texte entre « guillemets » dans votre prompt)
🔹Amélioration des performances pour les valeurs de –stylize élevées
(en termes de qualité d’image, d’esthétique, de rendu du texte et de précision du prompt)
Veuillez noter : Nous continuerons à pousser les améliorations au cours des prochaines semaines alors que nous nous dirigeons vers la phase bêta officielle de V6
Ouvert pour l’instant qu’aux utilisateurs ayant plus de 10.000 générations à l’adresse: https://alpha.midjourney.com/
- La possibilité de créer des images nativement sur le site (sans Discord).
- Il s’agit d’un test ALPHA, ce qui signifie que ce site est une zone de construction active.
- Les choses changeront MASSIVEMENT, sans préavis, chaque semaine pendant les prochains mois jusqu’à ce que nous soyons prêts pour une version publique ou une version bêta plus « stable ».
Quelques notes sur cet alpha
- Vous pouvez faire glisser des images dans la barre d’image pour les utiliser dans votre prompt.
- Le batch downloader (téléchargement par lot) n’est pas encore supporté sur ce site.
- La version mobile n’est pas au centre de ce cycle de développement.
- La version mobile de l’alpha sera en retard sur les fonctionnalités, il est buggué, et il y a des choses manquantes.
- Il n’y a pratiquement aucune fonctionnalité sociale dans cet alpha, mais elles apparaîtront au cours des prochains mois
- Autres fonctionnalités pas encore sur l’alpha : Variation (région), Style Tuner, Remix pour le zoom panoramique ou les variations fortes, zoom personnalisé (custom zoom), préférences personnalisées, suppression d’images et /describe.
Quelques exemples de choses sur lesquelles on travaille actuellement et auxquelles on pense
- De meilleurs contrôles d’action dans la Lightbox. Peut-être un mode de vue ‘grille’.
- Une barre /imagine différente. Une interface utilisateur/UX différente pour l’envoie d’images. Un panneau de paramètres en plein écran.
- Une nouvelle page d’exploration (explore page)
- Nous séparerons probablement l’affichage des travaux finis de celui des créations, et la vue des créations elle-même changera considérablement.
Plus d’infos sur mon article: Guide des sites Midjourney: Tour d’horizon des 4 versions!
Cette première version du Style Tuner va permettre de contrôler la personnalisation du style de vos rendus et de les réutiliser, les combiner et les partager.
Personnalisation de style avec la V1 du Style Tuner (Cliquez sur le lien pour plus d’infos)
– L’upscaler voit le jour avec les boutons Upscale (2x) et Upscale (4x) qui apparaissent une fois que vous avez agrandis votre image de la grille avec les boutons U1, U2, U3 ou U4. Il vous permet de doubler ou quadrupler la taille de vos images.
– Il est utilisable pour toutes les images générées depuis la V5 et NiJi 5. Pour en profiter sur des images précédant la mise à jour, utilisez la commande /show job_id.
– Il s’agit d’un upscaler subtile, c’est à dire qu’il respecte au maximum l’image originale.
Toutes les infos et tests ici: Midjourney Upscaler: Agrandir ses images ou dans la documentation midjourney.
– L’inpainting est enfin là, intégrer dans discord (version desktop et smartphone) à travers une fenêtre contextuelle lorsque l’on clique sur Vary (Region) sur les images agrandies (Upscale).
toutes les explications dans la documentation: Variations selectives.
– Nouvelle option pour faire des panoramiques, vous pouvez étendre votre image sur les cotés à la verticale ou à l’horizontale avec les flèches qui s’affichent sous les agrandissements.
La V5.2 est enfin disponible avec un peu de retard
– Nouveau système d’esthétique
– Fonction Stylize plus puissante
– Nouveau mode « Haute variation »
– Nouvelle commande /shorten
– Nouvelle fonction de zoom arrière
– Retour de la commande –video
La note de mise à jour complète : Midjourney V5.2 est enfin là !
Ajout d’un nouveau style à Nijijourney (le modèle Midjourney sur le thème de l’anime).
ce style est appelé « scénique » et est destiné à de beaux arrière-plans et des personnages dans de beaux environnements.
Pour l’utiliser, activez d’abord Niji v5 avec /settings puis choisissez votre style avec --style scenic
en fin de prompt.
On a évidement tester ce style pour vous : Mise à jour Niji 5 avec encore un nouveau style: scenic
Ajout de la fonction permutation qui permet de générer rapidement des variantes d’un prompt avec une seule requête.
Cette fonctionnalité est actuellement limitée aux abonnés ayant souscris au plan standard (à 30$/mois) ou au plan pro (à 60$/mois)
Présentation de la fonction de répétition (–repeat)
– Tapez --repeat
avec un nombre pour exécuter ce travail autant de fois que souhaitées.
– Par exemple /imagine cats --repeat 5
créera cinq grilles 2×2 de chats
La commande /describe permet d’envoyer une image au Bot, et vous permet d’obtenir 4 prompts textuels qui tentent de décrire l’image.
– Cliquez sur les boutons sous la commande pour générer des images pour chacune des invites.
Pour l’activer, tapez --v 5
après votre prompt ou sélectionnez « V5 » dans /settings
- Meilleure performance, plus de détails, une plus large gamme stylistique, moins d’artefacts et de texte indésirable.
- Prise en charge du paramètre
--tile
pour la réalisation de mosaïque. - Rapports d’aspect (ratio)
--ar
supérieurs à 2: 1. - Prise en charge du paramètre
--iw
pour donner du poids aux prompts d’image par rapport aux prompts textuels.
⛵️📢 Vitesse et qualité de rendu Midjourney v7
Nous lançons aujourd’hui les accélérations du modèle V7. Cela inclut la sortie du mode rapide par défaut (fast mode), qui rend V7 deux fois moins cher qu’avant (désormais à peu près au même prix qu’un rendu V6).
🔸Les optimisations du modèle signifient que les jobs prendront environ 40 secondes en mode rapide et 18 secondes en mode turbo.
🔸Le nouveau modèle devrait avoir une légère amélioration des mains, mais si vous souhaitez utiliser l’ancienne version, vous pouvez toujours le faire avec --q 2
.
🔸Nous avons également ajouté un nouveau mode expérimental --q 4
, qui pourrait offrir une meilleure cohérence et plus de détails.
🔸 À noter : les rendus avec --oref
coûtent encore 2x plus cher qu’un rendu normal en mode --fast
, et les rendus en mode draft ne changent pas.
Bon week-end !
⛵️🆕 3 Mises à jour Midjourney
Nous publions trois mises à jour rapides dès maintenant :
🔶 Nouvelle mise à jour du modèle d’image V7
🔹 Toutes les images devraient maintenant bénéficier d’une amélioration légère de la qualité d’image, de la précision du prompt, de la précision des mains et de la cohérence des corps
🔹 Cela s’applique à toutes les images générées maintenant avec --v 7
— vous n’avez rien à changer (vous pouvez même relancer d’anciennes images avec les mêmes seeds, elles pourraient être plus cohérentes mais de meilleure qualité)
🔶 Nouvelle interface de l’éditeur en lightbox
🔹 Lorsque vous cliquez sur “éditeur” dans le flux de création, une nouvelle interface améliorée s’affiche, basée sur les retours de la communauté
🔹 Cela réactive le fil d’images à droite, l’outil de déplacement par défaut, et ajoute la segmentation intelligente dans l’éditeur lightbox tout en vous gardant proche de votre flux de création
🔹 La nouvelle interface comprend maintenant les boutons “vary” et “upscale” ainsi qu’un accès facilité à diverses fonctionnalités
🔶 Nouveau paramètre --exp
🔹 Il s’agit d’un paramètre expérimental d’esthétique d’image
🔹 --exp
va de 0 à 100, 0 étant la valeur par défaut
🔹 Il est similaire à --stylize
(et peut être combiné avec lui) mais rend les images plus détaillées, potentiellement plus dynamiques, créatives, et avec un rendu plus “tone mapped”
🔹 La précision du prompt diminue à mesure que la valeur augmente, tout comme la diversité des images
🔹 Nous recommandons principalement les valeurs suivantes : 5, 10, 25, 50, 100
🔹 Vous verrez beaucoup de changements entre 5 et 50, et moins entre 50 et 100
🔹 À des valeurs très élevées (au-dessus de 25-50), le paramètre peut prendre le dessus sur --stylize
et --p
(nous recommandons des valeurs plus basses si vous les combinez avec d’autres paramètres)
🔜 Nous nous préparons aussi à publier omni-reference et fast-mode, mais quelques bugs pourraient retarder un peu les choses — restez à l’écoute pour de prochaines annonces.
⛵️📢 Mises à jour Midjourney v7
Nous annonçons quelques nouveautés aujourd’hui !
🔶Deux Fonctionnalités V6 Disponibles dans V7
🔹–tile : Tapez cette commande après votre prompt pour créer des images à pavage sans couture avec notre modèle le plus puissant à ce jour (voir la documentation ici : Lien vers la documentation).
🔹remix : Utilisez cette fonctionnalité pour modifier une image avec un nouveau prompt, apportant des changements subtils ou importants aux images originales (voir la documentation ici : Lien vers la documentation).
🔶Algorithmes V7 Améliorés
🔹Nous avons amélioré le bouton ‘enhance’ pour les travaux en mode brouillon (Draft Mode) afin qu’il augmente la qualité de votre image de base sans modifier beaucoup de détails (plus subtil qu’un ‘vary’ subtil mais avec une amélioration de la qualité de l’image de base).
🔶Nouvelle Barre de Prompt pour V7
🔹La nouvelle barre de prompt dispose désormais de boutons activables séparément pour la Personnalisation, le Mode Brouillon, le Mode Conversationnel (LLM) et le mode vocal.
🔹Vous pouvez maintenant utiliser une IA pour vous aider à formuler des prompts ou à itérer sur des prompts lorsque vous cliquez sur le bouton ‘mode conversationnel’ (les bulles de chat).
🔹Une fois en mode conversationnel, vous pouvez également cliquer sur un microphone pour activer le mode vocal.
🔹Ces modes sont maintenant séparés du mode brouillon, mais vous pouvez les utiliser ensemble aussi!
🔶Une Nouvelle Façon de Nous Aider à Améliorer V7 !
🔹Désormais, lorsque vous cliquez sur une image V7 que vous créez sur le site, vous pouvez nous donner votre avis sur l’image : si vous l’aimez, ne l’aimez pas ou êtes neutre.
🔹Veuillez évaluer autant d’images que possible, cela nous aidera à améliorer la qualité de nos images dans les semaines à venir ! Pour aller plus vite, nous avons fait en sorte que vous puissiez également utiliser les touches 1, 2, 3 de votre clavier ainsi que les touches fléchées pour parcourir et choisir rapidement le vote.
Nous espérons que vous apprécierez ces nouvelles fonctionnalités. Nous allons continuer à essayer de faire des mises à jour comme celle-ci chaque semaine pendant le mois à venir, alors que nous finalisons V7 et le faisons devenir notre modèle par défaut.
⛵️📢 Evaluation v7 – 3ème round
Nous en sommes à la 3ème étape des évaluations des images V7.
Ce tour nous aidera à calibrer nos systèmes de personnalisation esthétique.
Nous allons vous montrer deux paires d’images très différentes et nous voulons connaître votre opinion sur celle que vous trouvez la plus belle.
Rendez-vous à l’URL de vote et aidez-nous à classer les images ! https://www.midjourney.com/rank-v7
Instructions :
🔸Vous verrez deux images à la fois
🔸Sélectionnez celle que vous trouvez la plus belle (en fonction de vos goûts esthétiques personnels).
🔸Sur un ordinateur, vous pouvez utiliser les touches 1 et 2 pour sélectionner les images (1 est à gauche, 2 est à droite).
🔸Si vous n’êtes pas sûr de la meilleure image, appuyez sur « sauter » (ou sur la touche « 3 »).
🔸Ces images utilisent des prompts communautaires aléatoires. Si vous voyez quelque chose d’obscène, appuyez sur « Report Image » (Désolé !)
À Savoir :
🔸Ces images ne sont PAS représentatives du nouveau modèle que nous sortirons bientôt.
🔸Ces évaluations sont très sérieuses, merci de faire de votre mieux pour nous fournir de bonnes données.
Si vous pensez que l’une de ces images est cool, n’hésitez pas à la partager dans le salon rating-party sur discord.
Si vous n’avez jamais répondu à notre enquête démographique, nous vous en serions reconnaissants !
https://www.midjourney.com/surveys?survey=demographics
Cela nous aide à équilibrer notre esthétique par défaut entre tous les types de personnes de notre communauté.
Merci encore pour votre aide ! ❤️ ❤️ ❤️
⛵️📢 Evaluation v7
Nous mettons la dernière touche à la V7 et avons besoin de votre aide !
Rendez-vous sur http://midjourney.com/rank-v7 et aidez-nous à évaluer les images.
Instructions :
🔸Vous verrez deux images à la fois
Sélectionnez celle qui vous semble la plus belle (en fonction de vos goûts esthétiques personnels).
Sur un ordinateur, vous pouvez utiliser les touches 1 et 2 pour sélectionner les images (1 est à gauche, 2 est à droite).
🔸Si vous n’êtes pas sûr de la meilleure image, appuyez sur « sauter » (ou sur la touche « 3 »).
🔸Ces images utilisent des prompts communautaires aléatoires. Si vous voyez quelque chose d’obscène, appuyez sur « Signaler l’image » (Désolé !)
À savoir
🔸Veuillez noter que ces images ne sont PAS représentatives de la nouvelle version du site :
🔸Ces images ne sont PAS représentatives du nouveau modèle que nous sortirons bientôt.
🔸Ces images sont destinées à être simples/ennuyeuses/neutre et même mauvaises pour aider notre système à apprendre quelles sont les nouvelles choses que la communauté veut.
🔸Si vous vous inquiétez de la qualité des images, ne le faites pas ! Les images sont toujours gênantes lorsque nous faisons le premier classement
🔸Obtenir l’aide de tout le monde pour étiqueter la « camelote » est une partie très importante de notre processus.
🔸Ces évaluations sont très sérieuses et nous vous demandons de faire de votre mieux pour nous fournir de bonnes données.
Si vous pensez que l’une des images est cool, n’hésitez pas à la partager dans le salon rating-party sur discord.
Merci beaucoup pour votre aide ! Nous sommes impatients de partager la V7 avec vous ! ❤️ ❤️ ❤️
⛵️📢 Refonte de la documentation Midjourney
Nous sommes ravis de vous annoncer que notre documentation a été entièrement repensée avec un tout nouveau look ! Désormais, toutes nos ressources éducatives ainsi que les informations de support et de facturation sont pratiquement regroupées au même endroit : https://docs.midjourney.com/
🔸Nous introduisons également un nouveau chatbot alimenté par l’IA qui peut répondre à toutes les questions relatives à Midjourney en puisant directement dans notre documentation !
🔸Ce projet a été mené par une petite équipe dévouée chez Midjourney, avec beaucoup d’amour et de soin. Mais nous ne nous arrêtons pas là ! Nous avons encore de nombreuses améliorations à venir, notamment : un mode sombre pour une lecture plus facile, de nouvelles pages (comme une FAQ sur la modération), des ajustements continus pour rendre les articles plus clairs et plus utiles, et bien plus encore :hap:
🔸Nous aimerions connaître vos impressions—qu’il s’agisse de retours sur la nouvelle documentation, d’idées d’améliorations, ou d’exemples où le chatbot IA pourrait être plus utile. Déposez vos suggestions dans ideas-and-features 😊
Merci de faire partie de cette aventure— Bon apprentissage ! 🚀
📌 https://docs.midjourney.com
⛵️📢 Mix Moodboard / Sref
On peut désormais mixer plusieurs moodboards ensemble et on peut aussi les mixer avec des codes sref
Exemple: en utilisant deux srefs et 2 moodboards en même temps /imagine a cute cat –sref 34234234 680572301 –profile 2tnwgwe kwt7246
Bien sûr on peut aussi les mixer avec les codes de personnalisations
⛵️📢 Présentation de Patchwork, futur espace de travail collaboratif dédié à la narration
Bonjour à tous ! Aujourd’hui, nous lançons un aperçu de recherche d’un nouvel outil de construction de monde : Patchwork.
Patchwork est un canevas collaboratif et infini soutenu par l’IA pour créer des mondes fictifs. Il peut vous aider à passer d’idées d’histoires vagues à des idées plus complètes, à collaborer avec d’autres personnes pour construire ensemble un cadre cohérent, et même à assembler des histoires visuelles bizarres, sous forme de collage, à partir de petits bouts d’images et de texte.
À l’avenir, nous prévoyons que les personnages, les mondes et les autres éléments que vous créez dans Patchwork pourront être importés dans d’autres applications de narration. Cela pourrait vous permettre de donner vie à vos personnages dans des histoires interactives, de jouer gestuellement des scènes d’histoire entre eux pour guider la génération du texte de l’histoire, de réviser le texte de l’histoire dans de nouvelles interfaces basées sur LLM pour l’écriture créative, et bien d’autres choses encore.
Vous pouvez essayer Patchwork sur http://patchwork.midjourney.com. Nous avons ajouté au multivers de Patchwork quelques exemples de mondes qui pourraient vous inspirer pour vos propres créations.
N’oubliez pas qu’il s’agit d’un aperçu de recherche, il y aura donc des imperfections au fur et à mesure que nous le mettrons en place ! Vous devez avoir un compte Midjourney et vous connecter avec Google. Si vous vous êtes toujours connecté avec Discord, assurez-vous de lier votre compte Discord actif avec un compte Google sur votre page: Manage profile.
Pour en savoir plus sur l’utilisation de Patchwork, lisez le guide de l’utilisateur et regardez la vidéo de démonstration de la création d’un petit monde.
Nous sommes impatients de voir ce que vous allez construire ! :)
⛵️📢 Niji Retexture
La fonctionnalité de retexture est lancée sur l’éditeur web ! Il s’agit de la possibilité de transformer une image existante en une nouvelle image.
💡 L’éditeur web est actuellement en phase de test : Vous devez être abonné en continu depuis un an, avoir plus de 10 000 générations, ou avoir un abonnement annuel pour pouvoir l’utiliser !
📸 Transformez vos photos en anime
L’une des applications les plus populaires de cette fonctionnalité est la demande « Comment transformer mes photos en anime ». Nous avons créé un guide spécial sur la manière d’utiliser cette nouvelle fonctionnalité avec vos photos.
EN : https://nijijourney.com/blog/convert-your-photos-into-anime
JA : https://nijijourney.com/blog/convert-your-photos-into-anime
À l’approche des fêtes de fin d’année, la transformation d’une photo précieuse en œuvre d’art est un excellent moyen d’offrir un cadeau personnalisé et attentionné. Essayez-le !
⛄Niji Holiday Hours
Comme nous sommes une petite équipe, il se peut que vous subissiez des retards dans les demandes de service lorsque nos membres prennent des vacances vers la fin de l’année. Nous nous excusons par avance pour ce désagrément et vous remercions de votre patience !
Comme toujours, merci pour votre soutien dans cette aventure !
⛵️📢 Concours éditeur web
Hey tout le monde, nous organisons un concours communautaire pour les images faites avec le nouvel éditeur. Veuillez partager vos exemples les plus cool de ce que vous avez fait avec l’éditeur (les retextures ne comptent pas) et nous donnerons de grosses récompenses en Fast Hours à tous ceux dont les images ont été choisies pour être montrées au public.
Liens pour soumettre vos images: https://tally.so/r/mJk4Gz
Merci d’avance ! ❤️
⛵️📢 Nouvel éditeur externe et retexturing (control Depth) Dispossur le site web
Nous espérons que vous vous amuserez à tester ces systèmes et que vous verrez la magie de Midjourney se répandre dans le monde. Nous espérons qu’il vous inspirera à apporter de la beauté à votre environnement, qu’il s’agisse de réaménager votre salon ou d’imaginer de nouveaux types de mode basés sur votre modèle personnalisé et les styles que vous aimez.
Et quelques exemples de la fonction de retexturation.
À noter :
🔸Si vous faites une esquisse ombrée, cela devrait fonctionner assez bien
🔸Si vous réalisez des modèles non texturés, le résultat devrait également être satisfaisant.
🔸Essayez-le également avec les intérieurs si vous souhaitez une transformation totale.
🔶la personnalisation du modèle Niji (anime) est disponible dès aujourd’hui !
Si vous évaluez au moins 200 images sur midjourney.com/rank-niji et que vous ajoutez --p
après votre prompt --niji
, vous pouvez obtenir des résultats personnalisés pour le modèle Niji. Cette personnalisation ne change pas seulement le style, mais modifie tous les éléments des images pour les adapter à vos goûts. Si vous êtes un utilisateur de modèles Niji, vous devriez essayer ceci. Nous sommes sûrs que vous allez adorer !
Si vous n’êtes pas un utilisateur du modèle Niji, vous pouvez personnaliser votre modèle Midjourney à tout moment en évaluant au moins 200 images sur https://www.midjourney.com/rank et en ajoutant --p
à la fin de votre prompt.
N’ayez pas peur d’évaluer ! Cela ne prend que 5 minutes pour 200 images.
Amusez-vous bien ! Pour en savoir plus sur la personnalisation du Niji, consultez le blog・niji
Attention, nous n’offrons des crédits d’essai gratuits aux nouveaux utilisateurs que jusqu’à 17 heures (heure du Pacifique) aujourd’hui.
Les crédits d’essai gratuits expireront dimanche à minuit. Nous espérons que tout le monde apprécie le site web !
⛵️📢 éditeur d’image, synchronisation discord/web, Ouverture du site
🔶 Nous sortons un nouvel éditeur web aujourd’hui !
Il combine recadrer / repaint / vary region / pan / zoom en une seule interface unifiée. Nous pensons que cela rend l’édition de vos images MJ beaucoup plus transparente qu’auparavant et que c’est un grand pas en avant.
Voici une vidéo montrant le fonctionnement de l’éditeur :
🔶Synchronisation des salles
Nous synchronisons désormais les images et les messages entre les salons sur le web et les canaux sur le serveur Discord. Cela signifie que les messages et les images dans certaines salles/canaux sont répercutés sur Discord et vice-versa.
Les canaux et salles avec miroir de messages sont :
- #daily-theme <-> Daily Theme
- #prompt-craft <-> Prompt Craft
- #general-1 <-> General Chaos
- #superusers-create <-> Superusers (pour les personnes ayant au moins 1000 générations)
🔶Ouvrir la création sur le web
Tous ceux qui ont réalisé au moins 10 générations d’images sur Midjourney peuvent créer sur le web
Rendez-vous sur midjourney.com/imagine pour commencer à créer !
Avec le --p
, nous pouvons remplacer le style de midjourney par défaut par des préférences apprises à partir de nos classements de paires d’images et de quelques « likes ».
Votre code --p
évoluera au fil du temps.
🔹Au fur et à mesure que vous classerez ou « aimerez » plus d’images, vous verrez un nouveau code.
🔹Il s’agit d’un « instantané » de votre style actuel.
🔹Vous pouvez enregistrer ces codes instantanés, les réutiliser et les partager.
🔹Utilisez le code --p
pour continuer à utiliser le même style de personnalisation.
🔹Oubliez le code et utilisez --p
seul pour déclencher un nouvel instantané, s’il y en a un de disponible.
🔹Utilisez la commande /list_personalize_codes pour afficher tous les codes d’instantané jusqu’à présent.
Quelles sont les commandes, que puis-je taper, comment ça marche ?
🔹Tapez --p
après votre prompt pour utiliser l’instantané actuel.
🔹Tapez --p
code après votre prompt pour utiliser un code spécifique.
🔹Tapez /list_personalize_codes pour afficher tous vos codes de personnalisation de modèle.
🔹Notez que --p
ne fonctionne pas encore avec --niji
.
🔹Pour activer la personnalisation de façon permanente (vous n’avez donc pas à continuer de taper –p),
tapez /settings et sélectionnez le bouton [🙋 Personalization].
🔹Si vous utilisez l’application web Midjourney, recherchez ‘Personnalisation : [ON] [OFF]’.
🔹Si vous voulez utiliser le code de quelqu’un d’autre, utilisez --p
code.
🔹Dans les canaux de création publique de Discord, vous pouvez utiliser --p
@nom à la place. (Ne fonctionnera pas dans les DM)
🔹Utilisez plusieurs codes de p à la fois pour mélanger différents styles personnels.
Exemple : --p
1uwjacn 1yjtfcj
⚠️ Sur le Web, n’utilisez que des nombres entiers ou naturels. L’utilisation de décimales entraînera une erreur.
🔹L’ordre n’a pas d’importance.
🔹La personnalisation (--p
) est un --style
, tout comme le --style raw
(avec lequel il est entièrement compatible). Cela signifie que vous pouvez contrôler son influence en utilisant --style
qui est de 100 par défaut. La valeur de 0 est sa plus faible influence, et la valeur 1000 est son influence maximale.
🔹Si votre prompt utilise --style raw
--p
(les deux) ils sont mélangés et --s
modifie l’amalgame.
⛵️📢 Mises à jour du site web
🔶Création :
🔶Aide :
🔶Salles :
🔶Général :
⛵️📖Magazine Premium à couverture rigide qui retrace 1 an de midjourney, Disponible!
Nous ouvrons les commandes pour « Midjourney Year One » – un livre qui présente les explorations de notre communauté et le développement de Midjourney au cours de l’année écoulée.
C’est un bel instantané physique de l’année écoulée ainsi qu’une fusion des nombreux numéros du magazine officiel Midjourney que vous avez peut-être manqués.
Commandez un exemplaire ici : https://mag.midjourney.com/product/year-one
⛵️📢 Mise à Jour Midjourney: Personnalisation de modèle
nous lançons aujourd’hui une version test de la personnalisation des modèles, voici comment cela fonctionne
🔶Qu’est-ce que la personnalisation des modèles ?
🔹Chaque fois que vous écrivez un prompt, il y a beaucoup de choses qui restent « inexprimées ». Nos algorithmes remplissent généralement le vide avec leurs propres « préférences », qui sont en fait les préjugés et les préférences combinés de notre communauté.
🔹Mais bien sûr, tout le monde est différent ! La personnalisation du modèle apprend ce que vous aimez, de sorte qu’il est plus probable qu’elle remplisse les blancs avec vos goûts.
🔶Exigences en matière de personnalisation des modèles
🔹Pour l’instant, la personnalisation du modèle apprend à partir des votes dans le classement par paires et des images que vous aimez sur la page d’exploration.
🔹Vous devez avoir environ 200 évaluations de paires / likes pour que la fonctionnalité fonctionne
🔹Vous pouvez voir combien d’évaluations vous avez sur la page ci-dessus ou en tapant /info
🔶Comment utiliser la personnalisation des modèles ?
🔹Tapez simplement --p
après votre prompt, ou activez la personnalisation pour tous les prompts dans les /settings
ou le bouton de paramétrage des prompts sur le site web.
🔹Lorsque vous activez la personnalisation, vous obtenez un « code » ajouté après vos prompts, vous pouvez partager ce code pour partager l’effet de personnalisation appliqué à cette image.
🔹Vous pouvez contrôler l’intensité de l’effet de personnalisation en utilisant --s 100
(0 est désactivé, 1000 est le maximum et 100 est la valeur par défaut).
VEUILLEZ NOTER : La personnalisation n’est pas une fonction stable pour le moment, elle changera au fur et à mesure que vous ferez des évaluations par paires (subtilement) et nous pourrions faire des mises à jour d’algorithme au cours des prochaines semaines. Il s’agit donc d’une « fonctionnalité amusante en constante évolution »
Il s’agit d’une toute nouvelle frontière pour la synthèse d’images. Nous espérons que nous découvrirons beaucoup de choses au cours de ce processus et nous serions ravis d’entendre vos idées dans le salon #ideas-and-features (sur discord) ou de partager les images que vous créez dans le cadre de la #personalization.
Amusez-vous bien !
Nous testons actuellement des « salons de création privées » (pour tous les membres MJ ayant au moins 100 générations).
Comment ça marche ?
🔸En gros, vous cliquez sur ‘rooms’ puis sur ‘create room’ et vous remplissez tous les champs.
Maintenant et pour l’avenir:
🔸Pour l’instant, nous ne permettons qu’aux gens de créer des salons privés (qui sont des salons protégés par un mot de passe pour vos amis / votre lieu de travail).
🔸À l’avenir, nous permettrons aux gens de créer des salons publics sans protection par mot de passe et avec une galerie globale.
🔶Nous avons amélioré le design des « salles » et nous ouvrons la salle de test principale à tous ceux qui ont au moins 1000 images (club 1k et plus).
🔹Le design a été mis à jour :
🔸Vous pouvez maintenant faire des favoris dans les salles et voir les favoris des autres.
🔸Nous gérons mieux les images en cours pour que ce soit plus propre pour un plus grand nombre de personnes.
🔸Nous avons peaufiné un certain nombre de choses au niveau du design.
Plans de salles (la semaine prochaine, j’espère) : Nous allons ajouter un système d’atténuation du bruit par l’IA pour le chat vocal, puis nous allons essayer d’ajouter quelques salles supplémentaires et enfin nous allons ouvrir les salles à un plus grand nombre de personnes.
À plus long terme : Nous laisserons les gens créer des salons privés, puis nous laisserons les gens créer des salons publics.
🔶 Quand vous faites –sref random, cela vous donne maintenant un code numérique dans votre prompt que vous pouvez utiliser pour reproduire le style à partir de maintenant.
En gros, si vous tapez –sref random, il le remplacera par quelque chose comme –sref 123456 (avec un nombre aléatoire) et si vous tapez à nouveau ce nombre aléatoire comme –sref 123456 , vous pourrez revenir à ce style.
🔶 Nous avons publié un nouvel algorithme pour le classement des idées de la communauté qui mesure non seulement la valeur de la communauté pour une idée mais aussi une mesure quantitative de sa « controverse » https://midjourney.com/ideas?type=leaderboard.
En gros, « 100 de controverse » correspond à la moyenne, 50 signifie que l’idée est deux fois moins controversée que la moyenne, 200 signifie qu’elle est deux fois plus controversée que la moyenne. Nous définissons la « controverse » comme la différence d’importance entre les « enthousiastes » et les « sceptiques ».
Nous allons procéder aujourd’hui à des tests préliminaires de nos « salles de création » sur le web et nous aimerions que vous nous aidiez !
(nous commençons avec le club des 10 000 et nous passerons à d’autres sous peu).
🔶Les points forts de ce prototype de salle
🔹Il y a un chat textuel et un chat vocal
🔹Le texte est séparé des images afin que la création n’affecte pas le chat.
🔹Vous pouvez créer des images ensemble ou ne voir que les vôtres (boutons de filtrage en haut).
🔹Vous pouvez facilement faire glisser des images dans le chat pour en parler
🔹Vous pouvez redimensionner les colonnes de chat et d’images en survolant puis en faisant glisser l’espace entre les deux.
Remarque : si vous créez des images en mode furtif dans un salon, d’autres personnes peuvent les voir (comme dans Discord).
🔶Quels sont les objectifs de ce test ?
🔹Nous voulons voir combien de personnes nous pouvons faire entrer dans une pièce jusqu’à ce qu’elle commence à s’effondrer ou à se sentir mal à l’aise.
🔹Nous voulons voir quelles sortes de choses fonctionnent bien / mal dans la nouvelle interface utilisateur.
(puisqu’elle est différente de Discord et de tout ce qui existe)
🔹Obtenir des retours sur les bugs ou des idées de la part de la communauté.
🔶Quelques plans de haut niveau en ce moment autour des salles en tant que contexte (???)
🔹Nous prévoyons de faire en sorte que tout le monde puisse créer des salles de création publiques et privées sur le site web.
🔹Il y aura un hall d’accueil pour les salles publiques et la possibilité de créer un lien direct vers les salles privées.
🔹En observant les salles aujourd’hui, nous réfléchirons à la possibilité d’ouvrir le site au club des 1 000 personnes afin d’augmenter le nombre de participants.
🔹Nous pourrions créer d’autres salles si l’une d’entre elles devenait trop bondée ou trop frénétique.
🔹Après avoir observé un petit nombre de salles pendant un certain temps, nous ouvrirons la possibilité de créer des salles par soi-même.
Nous espérons que vous vous amuserez à tester les salles aujourd’hui. Pour l’instant, c’est DESKTOP WEB (alpha) ONLY (le mobile est une priorité secondaire pour nous et viendra plus tard).
Découverte d’un bug majeur avec le nouveau sref pour Niji, sur lequel a été rétabli l’ancienne version.
Le nouveau Style Reference (v2) est toujours disponible pour la v6 de Midjourney.
Nous testons aujourd’hui une nouvelle fonction de « Référence de personnage ».
Cette fonction est similaire à la fonction « Référence de style », sauf qu’au lieu de correspondre à un style de référence, elle tente de faire correspondre le personnage à une image de « Référence de personnage ».
🔶Comment cela fonctionne-t-il ?
🔹Tapez –cref URL après votre prompt avec l’URL d’une image d’un personnage.
🔹Vous pouvez utiliser –cw pour modifier la « force » de la référence de 100 à 0
🔹La force 100 (–cw 100) est la valeur par défaut et utilise le visage, les cheveux et les vêtements.
🔹A force 0 (–cw 0), il se concentre uniquement sur le visage (bon pour changer de tenue, de cheveux, etc.).
🔶A quoi cela sert-il ?
🔹Cette fonction fonctionne mieux lorsque l’on utilise des personnages créés à partir d’images Midjourney.
🔹Elle n’est pas conçue pour les personnes réelles ou les photos (et les déformera probablement comme le font les images normales).
🔹Cref fonctionne de la même manière que les prompts d’images classiques, sauf qu’il se concentre sur les traits du personnages.
🔹La précision de cette technique est limitée, elle ne copiera pas exactement les fossettes, les taches de rousseur ou les logos de t-shirts.
🔹Cref fonctionne pour les modèles Niji et MJ normaux.
🔶Fonctionnalités avancées
🔹Vous pouvez utiliser plus d’une URL pour mélanger les informations/caractères de plusieurs images comme ceci –cref URL1 URL2 (c’est similaire aux prompt d’images ou aux styles de référence multiples)
🔶Comment cela fonctionne-t-il sur le web alpha ?
🔹Glissez ou collez une image dans la barre d’image, elle a maintenant trois icônes. La sélection de ces icônes détermine s’il s’agit d’un prompt d’image, d’une référence de style ou d’une référence de personnage.
🔹Shift+sélectionner une option pour utiliser une image pour plusieurs catégories
N’oubliez pas que MJ V6 est en phase alpha et que cette fonctionnalité et d’autres peuvent changer soudainement, mais la version bêta officielle de MJ V6 sera bientôt disponible.
Partagez vos premiers tests et impressions ! 🙏
Mise à jour NiJi 6 alpha:
🔹Prise en charge de l’inpainting (Vary Region), Pan et Zoom.
Note de version complète: https://sizigi.notion.site/Advanced-Vary-Region-Techniques-4532397e813740d680c3076e4e872830
Mises à jour Midjourney
🔹 Midjourney v6 Alpha passe en version par défaut
🔸Amélioration des détails
🔸Amélioration de l’upscaler
🔹L’Upscaler subtil (x2) de la V6 est maintenant plus subtil; les résultats devraient préserver plus de détails de l’image originale avec des rendus moins lisses
🔸Mise à jour de la commande /Feedback
Ce système nécessite plus de travail pour soumettre / évaluer les idées, mais il nous donnera beaucoup plus d’informations et si cela semble bon, nous essaierons d’ajouter un classement global des idées pour Midjourney peu de temps après (ce sera alors permanant pour toute la communauté)
Quoi qu’il en soit, avant de rendre cela officiel dans les annonces, nous aimerions que vous essayiez, que vous soumettiez / évaluiez de nouvelles idées et que vous nous disiez ce que vous pensez dans le salon # alpha-ideas-and-features
Comment ça marche:
🔹Soumettre des idées sur l’onglet « Submit ideas »
🔹Évaluez les idées à l’onglet « Rate ideas ».
🔹Voir les évaluations de vos idées par les autres personnes sur l’onglet « My ideas »
💡Pour info pour avoir tester le feedback dans sa première version, évaluer des idées donne droit à des fast hours GPU gratuites (à voir si c’est toujours le cas, aucune com n’a été faite la dessus)
🔸Barre de recherche (Alpha)
🔹 Mise à jour de la barre de recherche sur la page d’exploration alpha, elle devrait être 10x plus rapide et afficher les images v6 maintenant
À compter de maintenant, si vous avez fait au moins 1 000 images dans Midjourney, vous pouvez maintenant mettre à l’essai notre site Web de création d’images à https://alpha.midjourney.com
Remarque :
🔸Vous pouvez vérifier combien d’images vous avez faites en tapant /info
🔸C’est une version alpha. Elle peut être quelque peu instable et les fonctionnalités sont amenés à changer soudainement et sans préavis.
🔸Cette alpha est axée sur l’utilisation depuis un ordinateur. Elle fonctionne sur Mobile, mais a des problèmes d’interface utilisateur / UX + bugs et n’est pas une priorité jusqu’à ce que la version de bureau soit aboutie.
Au fur et à mesure que le site se stabilisera, nous ouvrirons l’accès à plus de membres existants, puis (à terme) à de nouveaux membres.
Discord continuera d’être pris en charge à long terme, et nous espérons que vous utiliserez les deux (en particulier pour la communauté, les événements, le support, les commentaires et les serveurs privés)
Nous sommes heureux d’annoncer la version alpha de niji v6! Vous pouvez l’activer en utilisant la commande /settings pour sélectionner niji version 6 sur le bot niji ou en utilisant la commande --niji
6 à la fin de vos prompts
Notes de version :
🔸Vous pouvez essayer des prompts plus longs et plus difficiles (p. ex., une fille avec un œil vert et un œil bleu, hétérochromie).
🔸Vous pouvez écrire un texte simple en le mettant dans des citations! (par exemple: konosuba aqua holding a sign that says « cixelyn » while jumping in the air)
🔸Si vous n’aimez pas l’utilisation d’anime --niji
6 --style raw
🔸Lancement complet ( Vary (région)) + événement prévu dans le mois à venir!
Full devlog ici :https://sizigi.notion.site/Welcome-to-Niji-V6-47b0769d73b8494f8618a70bd4384f20
Note de version et premières impressions: https://geniart.fr/midjourney/niji-v6-alpha-en-temps-et-en-heure/
🔶Changements dans la page d’exploration :
🔹Nouveaux états de survol pour la page d’exploration
🔹Améliorations supplémentaires du contenu de la page d’exploration
🔹Ajout de la fonction « hot/top/random » à la page d’exploration
🔹Recherche d’images similaires (cliquer sur la loupe)
🔶Modifications de la page Créer
🔹Le survol des images permet désormais d’afficher des boutons de variation
🔹Passez la souris sous l’invite pour afficher d’autres boutons d’option.
🔹Nouveau bouton « Hide » (c’est plus comme un emoji de vomi mais vous voyez l’idée et c’est facile), ce n’est pas un substitut pour le mode furtif.
(il n’y a pas encore de bouton « Unhide » mais vous pouvez voir les éléments cachés dans les archives sous les filtres)
🔶Modifications de la page d’archive
🔹Nouvelle fonction ‘timeline’, déplacez la souris sur la barre de défilement pour voir / parcourir les dates.
Midjourney V6 Alpha!
(vous devez écrire votre texte en « guillemets » et –style raw ou une valeur de –stylize peu élevée)
Style et prompting pour la V6
Le Style Tuner disponible sur NiJi pour pouvoir créer vos propres styles.
Fonctionne comme celui de Midjourney, à savoir tout de même que les --styles
expressive, scenic et cute ne sont pas utilisables pour la création de style.
La phase 1 du nouveau site Midjourney accessible en beta. (Cliquez sur le lien pour plus d’infos)
Première version de l’appli mobile Niji · journey
Possibilité de générer des images depuis l’app, feed, galerie Niji.
– Mise à niveau du cluster GPU. Les utilisateurs Pro et Mega devraient voir des accélérations de ~1,5x (/imagine de ~50 secondes à ~30 secondes).
Ces rendus devraient également être environ 1,5 fois moins chers.
Toute capacité GPU supplémentaire accélérera aléatoirement les actions pour les autres plans d’abonnement.
– Nouveau paramètre –weird. Permet de rajouter un coté « bizarre » à votre image (valeur entre 1 et 3000)
– Nouveau plan d’abonnement à 120$/mois
– Mode /turbo génère vos images 4x plus vite pour 2x le prix
La V5.1 est plus opiniâtre (comme la V4) et est BEAUCOUP plus facile à utiliser avec des prompt courts
– Il existe un mode « sans opinion » pour la V5.1 (similaire à la V5.0 par défaut) appelé « Mode RAW »
– Ne vous inquiétez pas, la V5 est toujours disponible (comme avant)
Autres changements dans la V5.1 par rapport à la V5.0
– Meilleure cohérence
– Plus de précision par rapport aux textes des prompts
– Moins de bordures indésirables ou d’artefacts de texte
– Amélioration de la netteté
Comment activer V5.1 :
– Allez dans /settings
et cliquez sur « V5.1 » (sur la deuxième ligne) ou tapez --v 5.1
après votre prompt
– Pour le mode RAW, cliquez sur le bouton Mode RAW dans les /settings
(après avoir cliqué sur V5.1) ou tapez --style raw
Autres petites mises à jour:
- Le modérateur de l’IA est désormais en « Appels automatiques »
– Nous constatons qu’il y a très peu de prompt signalés comme « dangereux », nous les envoyons donc automatiquement via le deuxième processus de contestation de l’IA, plus puissant maintenant
– Cela devrait entraîner moins rejets et une expérience plus fluide (pas besoin d’appuyer sur « faire appel » (Appeal))
– Si vous constatez que votre prompt est toujours rejeté de manière incorrecte, appuyez sur le bouton « Notifier le développeur » sous le message de rejet pour nous aider à améliorer notre système - Répétitions et permutations maintenant disponibles pour les membres à 10 $
– Pour les abonnements de base, nous autorisons désormais les commandes uniques qui démarrent jusqu’à 4 tâches
– Pour la commande de répétition qui ressemble à--repeat 4
– Pour une permutation qui ressemble àun {chien, chat} in the style of {vaporwave, art déco}
– Les limites d’adhésion Standard / Pro restent les mêmes qu’avantSi vous avez un abonnement de 10 $, faites attention à ne pas utiliser toutes vos heures de cette façon ! Ceci est principalement destiné à permettre à chacun d’expérimenter les fonctionnalités et d’obtenir une productivité maximale lorsque vous en avez besoin.
Ajout de deux nouveaux styles de NijiJourney (le modèle Midjourney sur le thème de l’anime)
Pour les utiliser, activez d’abord Niji v5 dans les paramètres avec /settings puis choisissez votre style avec --style cute
ou --style expressive
;
Le style cute est assez mignon! L’expressif est légèrement plus 3D et occidentalisé.
Voila pour ce qui est de l’annonce officielle de la part de Midjourney, du coup on a testé ici.
Vous pouvez l’activer en tapant /settings et en cliquant sur niji version 5 ou en tapant --niji 5
à la fin de vos prompts.
Le style de ce modèle est plus fort que le modèle par défaut, donc si vous voulez augmenter ou diminuer l’intensité de la stylisation, veuillez utiliser la commande --stylize
(ou --s
pour faire court); --s 100
est la valeur par défaut et elle va de --s 0
au plus bas à --s 1000
au plus haut.
En raison d’une combinaison de demandes extraordinaires et d’abus d’essais, Midjourney désactive temporairement les essais gratuits jusqu’à ce que de prochaines améliorations du système soient déployées
⛵️📢 Vitesse et qualité de rendu Midjourney v7
Nous lançons aujourd’hui les accélérations du modèle V7. Cela inclut la sortie du mode rapide par défaut (fast mode), qui rend V7 deux fois moins cher qu’avant (désormais à peu près au même prix qu’un rendu V6).
🔸Les optimisations du modèle signifient que les jobs prendront environ 40 secondes en mode rapide et 18 secondes en mode turbo.
🔸Le nouveau modèle devrait avoir une légère amélioration des mains, mais si vous souhaitez utiliser l’ancienne version, vous pouvez toujours le faire avec --q 2
.
🔸Nous avons également ajouté un nouveau mode expérimental --q 4
, qui pourrait offrir une meilleure cohérence et plus de détails.
🔸 À noter : les rendus avec --oref
coûtent encore 2x plus cher qu’un rendu normal en mode --fast
, et les rendus en mode draft ne changent pas.
Bon week-end !
⛵️📢 Omni Référence (--oref
) dispo sur Midjourney V7
Aujourd’hui, nous commençons les tests d’un nouveau système de référence d’image appelé Omni-Reference. Ce système peut reproduire une grande partie des fonctionnalités précédemment utilisées avec les “références de personnage” (--cref
) dans la V6, mais il est aussi capable de BEAUCOUP plus.
🔶 Qu’est-ce que l’Omni-Reference ?
🔹 Omni-Reference peut être vu comme un système permettant de dire : “mets ÇA dans mon image”
🔹 Il fonctionne pour les personnages, objets, véhicules ou créatures non humaines
🔶 Comment utiliser l’Omni-Reference
🔹 Sur le Web : glissez une image dans la barre de prompt. Déposez-la dans la zone indiquée “omni-reference”. Une icône curseur permet de contrôler l’intensité.
🔹 Sur Discord : tapez --oref
url (où url est le lien de l’image), et utilisez --ow
pour contrôler la force d’application.
🔶 À propos de la pondération de l’Omni-Reference
🔹 Il existe un paramètre appelé --ow
(“omni-weight”) avec un curseur dans l’interface Web, qui contrôle la rigueur avec laquelle l’image de référence est suivie.
🔹 Ce paramètre va de 0 à 100 à 1000 (100 est la valeur par défaut).
🔹 Si vous souhaitez changer le style de l’image (ex. : photo vers anime), vous devez réduire le poids (ex. : --ow
25).
🔹 Si vous souhaitez que le visage d’un personnage soit très visible (ou que ses vêtements soient conservés), utilisez une valeur plus élevée, comme --ow
400.
🔹 Les paramètres --stylize
et --exp
influencent également l’image, en compétition avec omni-reference, donc si vous avez une valeur élevée de stylize ou exp, vous devrez probablement utiliser un poids omni plus élevé.
🔹 Exemple :
a person --stylize
1000 --ow
1000 --exp
100 --oref
person.png
🔹 Note importante : si vous n’utilisez pas de valeurs élevées pour stylize ou exp, vous ne devriez probablement jamais dépasser des valeurs modérées comme –ow 400, sinon cela pourrait dégrader le résultat.
🔶 Plus d’infos sur l’utilisation de l’Omni-Reference
🔹 Omni-Reference fonctionne avec la personnalisation, la stylisation, les références de style et les moodboards.
🔹 Si vous voulez qu’un personnage tienne une épée, assurez-vous de le dire explicitement dans le prompt :
a character holding a sword --oref
sword.png
🔹 Si vous voulez faire un style transfer avec un faible poids, spécifiez clairement les éléments du personnage à préserver :
an anime woman with blonde hair and red suspenders --oref
url --ow 25
🔹 C’est encore peu testé, mais si vous avez deux personnages (ou objets/personnages, etc.) dans votre image de référence (dans la même image ou deux images côte à côte) et que vous les mentionnez tous les deux dans votre prompt, vous pouvez souvent les retrouver dans l’image générée.
🔹 Omni-Reference ne fonctionne pas en mode draft pour le moment, désolé !
Nous savons que tout cela est encore expérimental. Honnêtement, il existe TELLEMENT de façons différentes d’utiliser cette fonctionnalité. C’est difficile pour nous de savoir ce qui fonctionne bien, ce qui fonctionne mal, et ce que les gens veulent utiliser ou améliorer le plus.
⛵️🆕 3 Mises à jour Midjourney
Nous publions trois mises à jour rapides dès maintenant :
🔶 Nouvelle mise à jour du modèle d’image V7
🔹 Toutes les images devraient maintenant bénéficier d’une amélioration légère de la qualité d’image, de la précision du prompt, de la précision des mains et de la cohérence des corps
🔹 Cela s’applique à toutes les images générées maintenant avec --v 7
— vous n’avez rien à changer (vous pouvez même relancer d’anciennes images avec les mêmes seeds, elles pourraient être plus cohérentes mais de meilleure qualité)
🔶 Nouvelle interface de l’éditeur en lightbox
🔹 Lorsque vous cliquez sur “éditeur” dans le flux de création, une nouvelle interface améliorée s’affiche, basée sur les retours de la communauté
🔹 Cela réactive le fil d’images à droite, l’outil de déplacement par défaut, et ajoute la segmentation intelligente dans l’éditeur lightbox tout en vous gardant proche de votre flux de création
🔹 La nouvelle interface comprend maintenant les boutons “vary” et “upscale” ainsi qu’un accès facilité à diverses fonctionnalités
🔶 Nouveau paramètre --exp
🔹 Il s’agit d’un paramètre expérimental d’esthétique d’image
🔹 --exp
va de 0 à 100, 0 étant la valeur par défaut
🔹 Il est similaire à --stylize
(et peut être combiné avec lui) mais rend les images plus détaillées, potentiellement plus dynamiques, créatives, et avec un rendu plus “tone mapped”
🔹 La précision du prompt diminue à mesure que la valeur augmente, tout comme la diversité des images
🔹 Nous recommandons principalement les valeurs suivantes : 5, 10, 25, 50, 100
🔹 Vous verrez beaucoup de changements entre 5 et 50, et moins entre 50 et 100
🔹 À des valeurs très élevées (au-dessus de 25-50), le paramètre peut prendre le dessus sur --stylize
et --p
(nous recommandons des valeurs plus basses si vous les combinez avec d’autres paramètres)
🔜 Nous nous préparons aussi à publier omni-reference et fast-mode, mais quelques bugs pourraient retarder un peu les choses — restez à l’écoute pour de prochaines annonces.
⛵️🆕Editeur web Midjourney et fonctionnalité weird v7
🔶Beaucoup de mises à jour de l’éditeur
🔹 Nous avons rafraîchi toute l’interface utilisateur
🔹 Nous avons combiné l’expérience d’édition des images MJ et des images externes (vous pouvez y accéder via le bouton « edit » sur la gauche ou via le bouton « edit » dans la visionneuse)
🔹 Édition multi-couches (calques)
🔹 Sélection intelligente
🔹 Modération IA plus intelligente
🔹 Nous avons également ouvert l’éditeur à tous les niveaux d’abonnement
🔶Paramètre Weird ajouté à la V7
🔹 Nous avons réintroduit la commande --weird
dans la V7
🔹 Elle va principalement de 0 à 1000, mais nous autorisons jusqu’à 3000 comme auparavant
🔹 Personnellement, j’aime la combiner avec des valeurs élevées de –stylize
🔹 L’objectif principal est de vous offrir une commande qui permet de sortir de l’esthétique normale pour aller vers des choses plus nouvelles ou étranges, selon ce que vous recherchez
⛵️📢 Mises à jour Midjourney v7
Nous annonçons quelques nouveautés aujourd’hui !
🔶Deux Fonctionnalités V6 Disponibles dans V7
🔹–tile : Tapez cette commande après votre prompt pour créer des images à pavage sans couture avec notre modèle le plus puissant à ce jour (voir la documentation ici : Lien vers la documentation).
🔹remix : Utilisez cette fonctionnalité pour modifier une image avec un nouveau prompt, apportant des changements subtils ou importants aux images originales (voir la documentation ici : Lien vers la documentation).
🔶Algorithmes V7 Améliorés
🔹Nous avons amélioré le bouton ‘enhance’ pour les travaux en mode brouillon (Draft Mode) afin qu’il augmente la qualité de votre image de base sans modifier beaucoup de détails (plus subtil qu’un ‘vary’ subtil mais avec une amélioration de la qualité de l’image de base).
🔶Nouvelle Barre de Prompt pour V7
🔹La nouvelle barre de prompt dispose désormais de boutons activables séparément pour la Personnalisation, le Mode Brouillon, le Mode Conversationnel (LLM) et le mode vocal.
🔹Vous pouvez maintenant utiliser une IA pour vous aider à formuler des prompts ou à itérer sur des prompts lorsque vous cliquez sur le bouton ‘mode conversationnel’ (les bulles de chat).
🔹Une fois en mode conversationnel, vous pouvez également cliquer sur un microphone pour activer le mode vocal.
🔹Ces modes sont maintenant séparés du mode brouillon, mais vous pouvez les utiliser ensemble aussi!
🔶Une Nouvelle Façon de Nous Aider à Améliorer V7 !
🔹Désormais, lorsque vous cliquez sur une image V7 que vous créez sur le site, vous pouvez nous donner votre avis sur l’image : si vous l’aimez, ne l’aimez pas ou êtes neutre.
🔹Veuillez évaluer autant d’images que possible, cela nous aidera à améliorer la qualité de nos images dans les semaines à venir ! Pour aller plus vite, nous avons fait en sorte que vous puissiez également utiliser les touches 1, 2, 3 de votre clavier ainsi que les touches fléchées pour parcourir et choisir rapidement le vote.
Nous espérons que vous apprécierez ces nouvelles fonctionnalités. Nous allons continuer à essayer de faire des mises à jour comme celle-ci chaque semaine pendant le mois à venir, alors que nous finalisons V7 et le faisons devenir notre modèle par défaut.
⛵️🆕 La v7 de midjourney enfin là!
Salut @everyone @here, nous allons permettre à la communauté de tester une version alpha de notre V7 dès maintenant.
🔸V7 est un modèle incroyable : il est bien plus intelligent avec les prompts textuels, les prompts d’images sont superbes, la qualité des images est nettement supérieure avec de magnifiques textures, et les corps, mains et objets de toutes sortes sont beaucoup plus cohérents dans les moindres détails.
🔸V7 est le premier modèle à activer la personnalisation par défaut. Vous devez déverrouiller votre personnalisation pour l’utiliser. Cela prend environ 5 minutes. Vous pouvez l’activer ou la désactiver à tout moment. Nous pensons que la personnalisation élève vraiment notre capacité à comprendre ce que vous voulez et ce que vous trouvez beau.
🔸Notre prochaine fonctionnalité phare s’appelle « Draft Mode » ou « Mode Brouillon ». Le mode brouillon coûte deux fois moins cher et génère des images 10 fois plus vite. C’est tellement rapide que nous transformons la barre de prompt en « mode conversationnel » lorsque vous l’utilisez sur le web. Dites-lui de remplacer un chat par une chouette ou de passer à la nuit, et il ajustera automatiquement le prompt et lancera un nouveau job. Cliquez sur « Draft Mode » puis sur le bouton micro pour activer le « mode vocal » – où vous pouvez penser à voix haute et laisser les images couler sous vos yeux comme des rêves liquides.
Si vous souhaitez lancer un job en mode brouillon de manière explicite, vous pouvez aussi ajouter `–draft` après votre prompt. Cela peut être amusant pour des permutations ou avec `–repeat` et plus encore.
🔸Nous pensons que le mode brouillon est la meilleure façon jamais inventée pour itérer sur des idées. Si vous aimez quelque chose, cliquez sur « enhance » ( améliorer ) ou « vary » ( varier ) sur l’image, et elle sera re-générée en qualité maximale. Attention : les images en mode brouillon sont de qualité inférieure au mode standard – mais le comportement et l’esthétique sont très cohérents – donc c’est un moyen fidèle d’explorer des variations.
🔸V7 se lance en deux modes : Turbo et Relax. Notre mode de vitesse standard a encore besoin d’optimisations, que nous espérons publier bientôt. Rappel : les jobs en mode turbo coûtent 2 fois plus qu’un job normal en V6, et les jobs en mode brouillon deux fois moins.
🔸Autres fonctionnalités : l’agrandissement (upscaler), l’inpainting (retouche) et la retexture utilisent pour l’instant les modèles V6. Nous les mettrons à jour prochainement. Les moodboards et SREF fonctionnent, et leurs performances s’amélioreront au fil des mises à jour.
🔸Feuille de route : attendez-vous à de nouvelles fonctionnalités toutes les une à deux semaines pendant les 60 prochains jours. La plus grosse fonctionnalité à venir sera une nouvelle référence de personnage et d’objet pour V7.
🔸En attendant – amusons-nous ! Montrez ce que vous créez dans le salon `v7-showcase` sur discord et dites-nous ce que vous en pensez dans `ideas-and-features`. À mesure que le modèle gagnera en maturité, nous organiserons une session communautaire pour prioriser la feuille de route ensemble.
🔸À noter : Il s’agit d’un tout nouveau modèle avec des forces uniques – et probablement quelques faiblesses. Nous voulons apprendre de vous ce qu’il fait bien ou moins bien, mais gardez à l’esprit qu’il peut nécessiter des styles de prompt différents. Donc, amusez-vous à expérimenter.
Merci encore à toutes et à tous pour votre aide pendant la session de notation anticipée de la V7, et un immense merci pour faire partie de Midjourney. Amusez-vous bien et partez à la découverte des merveilles dans cette vaste mer d’imagination partagée.
Voici une vidéo amusante sur le Draft Mode
⛵️📢 Evaluation v7 – 3ème round
Nous en sommes à la 3ème étape des évaluations des images V7.
Ce tour nous aidera à calibrer nos systèmes de personnalisation esthétique.
Nous allons vous montrer deux paires d’images très différentes et nous voulons connaître votre opinion sur celle que vous trouvez la plus belle.
Rendez-vous à l’URL de vote et aidez-nous à classer les images ! https://www.midjourney.com/rank-v7
Instructions :
🔸Vous verrez deux images à la fois
🔸Sélectionnez celle que vous trouvez la plus belle (en fonction de vos goûts esthétiques personnels).
🔸Sur un ordinateur, vous pouvez utiliser les touches 1 et 2 pour sélectionner les images (1 est à gauche, 2 est à droite).
🔸Si vous n’êtes pas sûr de la meilleure image, appuyez sur « sauter » (ou sur la touche « 3 »).
🔸Ces images utilisent des prompts communautaires aléatoires. Si vous voyez quelque chose d’obscène, appuyez sur « Report Image » (Désolé !)
À Savoir :
🔸Ces images ne sont PAS représentatives du nouveau modèle que nous sortirons bientôt.
🔸Ces évaluations sont très sérieuses, merci de faire de votre mieux pour nous fournir de bonnes données.
Si vous pensez que l’une de ces images est cool, n’hésitez pas à la partager dans le salon rating-party sur discord.
Si vous n’avez jamais répondu à notre enquête démographique, nous vous en serions reconnaissants !
https://www.midjourney.com/surveys?survey=demographics
Cela nous aide à équilibrer notre esthétique par défaut entre tous les types de personnes de notre communauté.
Merci encore pour votre aide ! ❤️ ❤️ ❤️
⛵️📢 V7 Midjourney, deuxième tour des évaluations.
« Nous en sommes maintenant au DEUXIÈME TOUR de l’évaluation des images V7.
Le cycle précédent était plus axé sur l’apprentissage de ce qui est « mauvais » et maintenant le cycle 2 est axé sur l’apprentissage de ce qui est « bon »
Rendez-vous sur l’URL de vote et aidez-nous à classer les images ! https://www.midjourney.com/rank-v7
Instructions :
🔸Vous verrez deux images à la fois
🔸Choisissez celle qui vous semble la plus belle (en fonction de vos goûts esthétiques personnels).
🔸Sur un ordinateur, vous pouvez utiliser les touches 1 et 2 pour sélectionner les images (1 est à gauche, 2 est à droite).
🔸Si vous n’êtes pas sûr de la meilleure image, appuyez sur « skip » (ou sur la touche « 3 ») pour passer.
🔸Ces images utilisent des prompts communautaires aléatoires. Si vous voyez quelque chose d’obscène (NSFW), appuyez sur « Report Image » (Désolé !) pour Signaler l’image.
À savoir:
🔸Ces images ne sont PAS représentatives du nouveau modèle que nous sortirons bientôt.
🔸Ces évaluations sont très sérieuses, merci de faire de votre mieux pour nous fournir de bonnes données.
Si vous pensez que l’une de ces images est cool, n’hésitez pas à la partager dans le salon rating-party sur discord.
Merci encore pour votre aide ! ❤️❤️❤️ »
⛵️📢 Evaluation v7
Nous mettons la dernière touche à la V7 et avons besoin de votre aide !
Rendez-vous sur http://midjourney.com/rank-v7 et aidez-nous à évaluer les images.
Instructions :
🔸Vous verrez deux images à la fois
Sélectionnez celle qui vous semble la plus belle (en fonction de vos goûts esthétiques personnels).
Sur un ordinateur, vous pouvez utiliser les touches 1 et 2 pour sélectionner les images (1 est à gauche, 2 est à droite).
🔸Si vous n’êtes pas sûr de la meilleure image, appuyez sur « sauter » (ou sur la touche « 3 »).
🔸Ces images utilisent des prompts communautaires aléatoires. Si vous voyez quelque chose d’obscène, appuyez sur « Signaler l’image » (Désolé !)
À savoir
🔸Veuillez noter que ces images ne sont PAS représentatives de la nouvelle version du site :
🔸Ces images ne sont PAS représentatives du nouveau modèle que nous sortirons bientôt.
🔸Ces images sont destinées à être simples/ennuyeuses/neutre et même mauvaises pour aider notre système à apprendre quelles sont les nouvelles choses que la communauté veut.
🔸Si vous vous inquiétez de la qualité des images, ne le faites pas ! Les images sont toujours gênantes lorsque nous faisons le premier classement
🔸Obtenir l’aide de tout le monde pour étiqueter la « camelote » est une partie très importante de notre processus.
🔸Ces évaluations sont très sérieuses et nous vous demandons de faire de votre mieux pour nous fournir de bonnes données.
Si vous pensez que l’une des images est cool, n’hésitez pas à la partager dans le salon rating-party sur discord.
Merci beaucoup pour votre aide ! Nous sommes impatients de partager la V7 avec vous ! ❤️ ❤️ ❤️
Nous ajoutons aujourd’hui un nouveau système de dossiers et d’organisation au site web. Regardez la vidéo ci-dessous pour une bonne vue d’ensemble.
Quelques points forts (sous forme de texte)
🔸Un nouveau menu « Dossiers » est disponible sur les pages « Créer » et « Organiser ».
🔸Lorsque vous visualisez un dossier, toutes les images que vous créez sont ajoutées à ce dossier.
🔸Les dossiers peuvent être regroupés pour vous permettre de trier des projets ou des idées connexes.
🔸Vous pouvez visualiser tous les dossiers dans lesquels se trouve une image dans la lightbox.
🔸Il est désormais possible de télécharger toutes les images d’un dossier en cliquant dessus avec le bouton droit de la souris et en choisissant « Télécharger ».
🔸Vous pouvez ajouter des images à des dossiers en cliquant avec le bouton droit de la souris sur une image, ou en faisant glisser des images dans des dossiers, ou vous pouvez les ajouter à des dossiers en cliquant sur le bouton « Dossier » dans la lightbox.
Nous espérons que ces outils vous permettront de gérer des projets de plus en plus importants au fur et à mesure que vous prendrez plaisir à utiliser Midjourney.
Nous sommes ravis de vous annoncer que notre documentation a été entièrement repensée avec un tout nouveau look ! Désormais, toutes nos ressources éducatives ainsi que les informations de support et de facturation sont pratiquement regroupées au même endroit : https://docs.midjourney.com/
🔸Nous introduisons également un nouveau chatbot alimenté par l’IA qui peut répondre à toutes les questions relatives à Midjourney en puisant directement dans notre documentation !
🔸Ce projet a été mené par une petite équipe dévouée chez Midjourney, avec beaucoup d’amour et de soin. Mais nous ne nous arrêtons pas là ! Nous avons encore de nombreuses améliorations à venir, notamment : un mode sombre pour une lecture plus facile, de nouvelles pages (comme une FAQ sur la modération), des ajustements continus pour rendre les articles plus clairs et plus utiles, et bien plus encore :hap:
🔸Nous aimerions connaître vos impressions—qu’il s’agisse de retours sur la nouvelle documentation, d’idées d’améliorations, ou d’exemples où le chatbot IA pourrait être plus utile. Déposez vos suggestions dans ideas-and-features 😊
Merci de faire partie de cette aventure— Bon apprentissage ! 🚀
📌 https://docs.midjourney.com
⛵️📢 Mise à jour Midjourney : Describe sur le web + mélange de Moodboard
🔶Vous pouvez désormais « décrire » les images sur le web
🔹Si vous ne trouvez pas les mots justes pour transformer une image en prompt, vous pouvez désormais utiliser la fonction describe sur le web !
🔹Pour l’utiliser, cliquez avec le bouton droit de la souris sur n’importe quelle image et sélectionnez « Describe », ou faites glisser une image de votre bureau vers la zone de description (sous la barre imagine). Vous verrez quatre prompts générées à partir de l’image en haut de votre page « Create ».
🔹Pour que votre flux de création reste propre, ces messages disparaîtront lorsque vous actualiserez la page.
🔶Mélange de moodboards et de références de style
🔹Vous pouvez désormais mélanger plusieurs moodboards ainsi que des moodboards avec des références de style. Il suffit d’ajouter plusieurs codes comme « –sref 142710498 –profile drgmjoi 2jrqbw6 »
🔹Retrouvez tous vos moodboards sur la page « Personalize ». Vous pouvez toujours mélanger les moodboards et les références de style avec vos profils de personnalisation pour les adapter à vos préférences.
🔹Si vous souhaitez partager vos moodboards avec vos amis, deux options s’offrent à vous. Vous pouvez partager un lien vers le moodboard pour permettre aux gens de voir les images et d’utiliser la dernière version au fur et à mesure que vous apportez des modifications, ou vous pouvez partager un instantané du moodboard avec un code (par exemple –profile 2jrqbw6).
⛵️📢 Mix Moodboard / Sref
On peut désormais mixer plusieurs moodboards ensemble et on peut aussi les mixer avec des codes sref
Exemple: en utilisant deux srefs et 2 moodboards en même temps /imagine a cute cat –sref 34234234 680572301 –profile 2tnwgwe kwt7246
Bien sûr on peut aussi les mixer avec les codes de personnalisations
⛵️📢 Profils multiples de personnalisation de modèle & Moodboard
Nous lançons aujourd’hui une version préliminaire de notre nouvelle infrastructure de personnalisation des modèles.
🔶Fonctionnalités principales
🔹Vous pouvez désormais avoir plusieurs profils de personnalisation.
🔹La configuration de la personnalisation est désormais beaucoup plus rapide (jusqu’à 5 fois plus rapide).
🔹Vous pouvez personnaliser les modèles à l’aide de « moodboards » composés d’images téléchargées.
🔶Autres fonctionnalités / Informations
🔹Les profils de personnalisation « convergent » plus rapidement et nécessitent moins d’éléments pour commencer.
(40 évaluations suffisent pour démarrer, relativement stable à 200. Vous remarquerez toujours une amélioration à 2000 évaluations, mais 10 000 ne devraient plus être nécessaires dans la pratique).
🔹Les moodboards s’inspirent des images que vous ajoutez. En ajoutant des images plus variées, le modèle commencera à les remixer de manière plus complexe.
🔹Vous pouvez nommer les profils de modèles et en sélectionner un ou plusieurs comme profils par défaut.
🔹Vous pouvez consulter toutes les images créées avec des profils particuliers.
Nous espérons que ces fonctionnalités permettront à tout le monde d’utiliser la personnalisation, que vous travailliez sur plusieurs projets ou avec plusieurs personnes.
Commencez ici : https://www.midjourney.com/personalize
⛵️📢 Présentation de Patchwork, futur espace de travail collaboratif dédié à la narration
Bonjour à tous ! Aujourd’hui, nous lançons un aperçu de recherche d’un nouvel outil de construction de monde : Patchwork.
Patchwork est un canevas collaboratif et infini soutenu par l’IA pour créer des mondes fictifs. Il peut vous aider à passer d’idées d’histoires vagues à des idées plus complètes, à collaborer avec d’autres personnes pour construire ensemble un cadre cohérent, et même à assembler des histoires visuelles bizarres, sous forme de collage, à partir de petits bouts d’images et de texte.
À l’avenir, nous prévoyons que les personnages, les mondes et les autres éléments que vous créez dans Patchwork pourront être importés dans d’autres applications de narration. Cela pourrait vous permettre de donner vie à vos personnages dans des histoires interactives, de jouer gestuellement des scènes d’histoire entre eux pour guider la génération du texte de l’histoire, de réviser le texte de l’histoire dans de nouvelles interfaces basées sur LLM pour l’écriture créative, et bien d’autres choses encore.
Vous pouvez essayer Patchwork sur http://patchwork.midjourney.com. Nous avons ajouté au multivers de Patchwork quelques exemples de mondes qui pourraient vous inspirer pour vos propres créations.
N’oubliez pas qu’il s’agit d’un aperçu de recherche, il y aura donc des imperfections au fur et à mesure que nous le mettrons en place ! Vous devez avoir un compte Midjourney et vous connecter avec Google. Si vous vous êtes toujours connecté avec Discord, assurez-vous de lier votre compte Discord actif avec un compte Google sur votre page: Manage profile.
Pour en savoir plus sur l’utilisation de Patchwork, lisez le guide de l’utilisateur et regardez la vidéo de démonstration de la création d’un petit monde.
Nous sommes impatients de voir ce que vous allez construire ! :)
⛵️📢 Évaluation d’idées
Nous avons besoin de votre aide pour évaluer les idées sur les priorités de Midjourney pour les 6 prochains mois (ces idées ont été soumises par la communauté et les membres de l’équipe au cours des 45 derniers jours).
🔶Comment ça marche ?
🔹Notre système « d’allocation des ressources » vous donnera 25 points à répartir entre 5 idées aléatoires.
🔹Attribuez les points comme vous pensez que nous devrions prioriser les fonctionnalités avec des ressources limitées.
🔹En examinant les points attribués par des milliers de personnes, nous obtenons une « valeur » absolue pour chaque idée
🔹Nous calculons également une note de controverse pour chaque idée (amusant !)
🔹Vous pouvez suivre tous ces chiffres (comme nous) au fur et à mesure que les évaluations arrivent via le tableau de classement du site.
Commencez à évaluer ici : https://www.midjourney.com/ideas
Merci beaucoup pour votre aide ! Cet outil poursuit notre travail de recherche de nouvelles méthodes pour tirer parti de l’intelligence de la communauté afin de déterminer les plus grandes priorités pour Midjourney. Nous espérons que ces outils seront mis à la disposition d’autres projets à l’avenir (qu’il s’agisse d’un programme de subvention ou de laboratoires d’intelligence artificielle).
Nous sommes impatients de voir les fonctionnalités que vous choisirez.
⛵️📢 Niji Retexture
La fonctionnalité de retexture est lancée sur l’éditeur web ! Il s’agit de la possibilité de transformer une image existante en une nouvelle image.
💡 L’éditeur web est actuellement en phase de test : Vous devez être abonné en continu depuis un an, avoir plus de 10 000 générations, ou avoir un abonnement annuel pour pouvoir l’utiliser !
📸 Transformez vos photos en anime
L’une des applications les plus populaires de cette fonctionnalité est la demande « Comment transformer mes photos en anime ». Nous avons créé un guide spécial sur la manière d’utiliser cette nouvelle fonctionnalité avec vos photos.
EN : https://nijijourney.com/blog/convert-your-photos-into-anime
JA : https://nijijourney.com/blog/convert-your-photos-into-anime
À l’approche des fêtes de fin d’année, la transformation d’une photo précieuse en œuvre d’art est un excellent moyen d’offrir un cadeau personnalisé et attentionné. Essayez-le !
⛄Niji Holiday Hours
Comme nous sommes une petite équipe, il se peut que vous subissiez des retards dans les demandes de service lorsque nos membres prennent des vacances vers la fin de l’année. Nous nous excusons par avance pour ce désagrément et vous remercions de votre patience !
Comme toujours, merci pour votre soutien dans cette aventure !
⛵️📢 Disponibilité de l’éditeur web pour Niji
⛵️📢 Concours éditeur web
Hey tout le monde, nous organisons un concours communautaire pour les images faites avec le nouvel éditeur. Veuillez partager vos exemples les plus cool de ce que vous avez fait avec l’éditeur (les retextures ne comptent pas) et nous donnerons de grosses récompenses en Fast Hours à tous ceux dont les images ont été choisies pour être montrées au public.
Liens pour soumettre vos images: https://tally.so/r/mJk4Gz
Merci d’avance ! ❤️
⛵️📢 Enquête sur les futures évolutions de midjourney
Nous réalisons une nouvelle enquête cette semaine pour recueillir des idées qui nous aideront à planifier notre feuille de route au cours des 12 prochains mois
Une fois que nous aurons recueilli vos idées, nous les mettrons toutes ensemble (avec nos propres idées) dans une grande liste et les placerons ensuite au vote pour avoir une idée de ce que tout le monde trouverait le plus utile.
Vous pouvez faire le sondage ici : https://tally.so/r/wkRJz1
Nous demandons des idées de diverses façons, mais toutes les questions sur les suggestions d’idées sont facultatives et toutes les idées que vous nous donnez sont grandement appréciées.
Merci
⛵️📢 Nouvel éditeur externe et retexturing (control Depth) Dispos sur le site web
Nous espérons que vous vous amuserez à tester ces systèmes et que vous verrez la magie de Midjourney se répandre dans le monde. Nous espérons qu’il vous inspirera à apporter de la beauté à votre environnement, qu’il s’agisse de réaménager votre salon ou d’imaginer de nouveaux types de mode basés sur votre modèle personnalisé et les styles que vous aimez.
Et quelques exemples de la fonction de retexturation.
À noter :
🔸Si vous faites une esquisse ombrée, cela devrait fonctionner assez bien
🔸Si vous réalisez des modèles non texturés, le résultat devrait également être satisfaisant.
🔸Essayez-le également avec les intérieurs si vous souhaitez une transformation totale.
⛵️📢 Annonce Officielle Midjourney: Nouvel éditeur d’images
Nous prévoyons de publier un nouvel éditeur d’images sur le web au début de la semaine prochaine.
Ce nouvel éditeur d’images vous permettra d’éditer n’importe quelle image téléchargée / web en utilisant Midjourney.
Retexturer les images (via le réseau de contrôle de profondeur), ce qui signifie qu’il conserve la structure de la scène / de l’objet mais repeint toutes les textures / couleurs / détails en fonction de votre demande.
Parce que ces nouvelles fonctionnalités sont si puissantes, nous allons restreindre leur déploiement à un sous-ensemble de la communauté actuelle et augmenter notre modération humaine sur les résultats (il y a aussi de nouveaux modérateurs IA plus avancés qui, nous le pensons, feront un excellent travail).
Honnêtement, nous ne sommes pas sûrs de savoir comment restreindre précisément le déploiement de cette fonctionnalité, c’est pourquoi nous voulons lancer un sondage et recueillir vos opinions. Nous utiliserons ces résultats pour calculer le pourcentage de la base d’utilisateurs que nous atteindrons avec différentes restrictions et nous essaierons de trouver un équilibre entre l’accessibilité et le volume.
Voici le lien de l’enquête : https://o9q981dirmk.typeform.com/to/jBKzMoWt
Merci de nous aider ! ❤️
🔶la personnalisation du modèle Niji (anime) est disponible dès aujourd’hui !
Si vous évaluez au moins 200 images sur midjourney.com/rank-niji et que vous ajoutez --p
après votre prompt --niji
, vous pouvez obtenir des résultats personnalisés pour le modèle Niji. Cette personnalisation ne change pas seulement le style, mais modifie tous les éléments des images pour les adapter à vos goûts. Si vous êtes un utilisateur de modèles Niji, vous devriez essayer ceci. Nous sommes sûrs que vous allez adorer !
Si vous n’êtes pas un utilisateur du modèle Niji, vous pouvez personnaliser votre modèle Midjourney à tout moment en évaluant au moins 200 images sur https://www.midjourney.com/rank et en ajoutant --p
à la fin de votre prompt.
N’ayez pas peur d’évaluer ! Cela ne prend que 5 minutes pour 200 images.
Amusez-vous bien ! Pour en savoir plus sur la personnalisation du Niji, consultez le blog・niji
⛵️📢 Des tests et questionnaires pour du GPU gratuit
Nous avons deux petites nouveautés aujourd’hui :
- Nous publions un test de personnalité pour aider à comprendre les origines de la beauté… En gros, quel est le lien entre notre personnalité et ce que nous trouvons beau et comment nous voyons la beauté différemment ?
Faites le test sur https://midjourney.com/surveys?survey=personality-ambi
Le test devrait prendre environ 15 minutes et vous donnera une TONNE de résultats amusants sur vous-même à la fin. Il contribuera également à nos recherches de pointe. Aucun abonnement n’est nécessaire pour faire le test, mais les abonnés recevront 2 heures de gpu gratuites après l’avoir fait.
- Nous ajoutons de nouveaux tests de classement par paires pour permettre à la communauté d’améliorer la précision des prompts et les modèles Niji :
Classez la précision des messages ici : http://midjourney.com/rank-accuracy
Classer les images de Niji (anime) ici : http://midjourney.com/rank-niji
Les 2000 meilleurs classeurs de paires obtiennent 1 heure de Gpu gratuit par jour.
Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de nos modèles et de la science ! Nous sommes impatients de partager les résultats avec vous et d’en explorer le sens ensemble.
(Voici un petit exemple de quelques dizaines d’éléments parmi les 200 mesurés par le test).
Attention, nous n’offrons des crédits d’essai gratuits aux nouveaux utilisateurs que jusqu’à 17 heures (heure du Pacifique) aujourd’hui.
Les crédits d’essai gratuits expireront dimanche à minuit. Nous espérons que tout le monde apprécie le site web !
⛵️📢 Essais gratuits et ouverture du site!
Aujourd’hui, nous ouvrons la création d’images sur le web à tout le monde !
Tout le monde peut maintenant aller sur notre site web et commencer à créer des images.
Pour permettre aux gens de jouer avec le nouveau site, nous avons temporairement mis en place des essais gratuits (~25 images).
Attention
🔸Vous devez toujours vous connecter avec votre compte discord sur le site web si vous voulez avoir l’historique de vos images créées sur discord.
🔸Vous pouvez fusionner vos comptes discord et Google dans votre onglet « compte » si vous souhaitez pouvoir vous connecter avec l’un ou l’autre à l’avenir.
🔸Les nouveaux utilisateurs peuvent s’inscrire en utilisant leur compte Google ou leur compte Discord.
⛵️📢 éditeur d’image, synchronisation discord/web, Ouverture du site
🔶 Nous sortons un nouvel éditeur web aujourd’hui !
Il combine recadrer / repaint / vary region / pan / zoom en une seule interface unifiée. Nous pensons que cela rend l’édition de vos images MJ beaucoup plus transparente qu’auparavant et que c’est un grand pas en avant.
Voici une vidéo montrant le fonctionnement de l’éditeur :
🔶Synchronisation des salles
Nous synchronisons désormais les images et les messages entre les salons sur le web et les canaux sur le serveur Discord. Cela signifie que les messages et les images dans certaines salles/canaux sont répercutés sur Discord et vice-versa.
Les canaux et salles avec miroir de messages sont :
- #daily-theme <-> Daily Theme
- #prompt-craft <-> Prompt Craft
- #general-1 <-> General Chaos
- #superusers-create <-> Superusers (pour les personnes ayant au moins 1000 générations)
🔶Ouvrir la création sur le web
Tous ceux qui ont réalisé au moins 10 générations d’images sur Midjourney peuvent créer sur le web
Rendez-vous sur midjourney.com/imagine pour commencer à créer !
⛵️📢 Nous publions aujourd’hui la version 6.1 de nos modèles d’images Midjourney.
🔶Quelles sont les nouveautés de la V6.1 ?
🔹Plus d’images cohérentes (bras, jambes, mains, corps, plantes, animaux, etc)
🔹Une bien meilleure qualité d’image (réduction des artefacts de pixels, amélioration des textures, de la peau, rétro 8bit, etc.)
🔹Caractéristiques des petites images plus précises, détaillées et correctes (yeux, petits visages, mains éloignées, etc.)
🔹Nouveaux upscalers avec une bien meilleure qualité d’image et de texture
🔹Environ 25 % plus rapide pour les travaux d’image standard
🔹Amélioration de la précision du texte (lors du dessin de mots par le biais de « citations » dans les prompts)
🔹Un nouveau modèle de personnalisation avec plus de nuances, de surprise et de précision
🔹Versioning du code de personnalisation (utilisez n’importe quel code de personnalisation d’un ancien travail pour utiliser le modèle de personnalisation et les données de ce travail).
🔹Un nouveau mode –q 2 qui prend 25 % de temps en plus pour ajouter (parfois) plus de texture au prix d’une réduction de la cohérence de l’image.
🔹Les choses devraient être « généralement plus belles » dans l’ensemble.
🔶Autres notes importantes :
🔹La V6.1 n’a pas encore de nouveau modèle d’inpainting/outpainting, donc si vous utilisez zoom/reframe/repainting/vary region, vous reviendrez au modèle de la V6.0.
🔹Si vous voulez revenir à la V6, allez dans /settings et cliquez sur V6 ou tapez --v 6
après votre travail (ou cliquez sur le panneau des paramètres sur le site web).
Projets futurs : Nous sortirons probablement un modèle V6.2 dans le mois à venir avec d’autres améliorations, mais nous devons d’abord rassembler autant de données que possible sur les utilisateurs de la V6.1. Ainsi, à partir d’aujourd’hui, nous ne nous contentons pas de sortir la V6.1, mais nous en faisons le modèle par défaut sur Midjourney pour tous les utilisateurs.
Nous espérons que cette nouvelle version plaira à tout le monde ! Amusez-vous bien ! ❤️
Avec le --p
, nous pouvons remplacer le style de midjourney par défaut par des préférences apprises à partir de nos classements de paires d’images et de quelques « likes ».
Votre code --p
évoluera au fil du temps.
🔹Au fur et à mesure que vous classerez ou « aimerez » plus d’images, vous verrez un nouveau code.
🔹Il s’agit d’un « instantané » de votre style actuel.
🔹Vous pouvez enregistrer ces codes instantanés, les réutiliser et les partager.
🔹Utilisez le code --p
pour continuer à utiliser le même style de personnalisation.
🔹Oubliez le code et utilisez --p
seul pour déclencher un nouvel instantané, s’il y en a un de disponible.
🔹Utilisez la commande /list_personalize_codes pour afficher tous les codes d’instantané jusqu’à présent.
Quelles sont les commandes, que puis-je taper, comment ça marche ?
🔹Tapez --p
après votre prompt pour utiliser l’instantané actuel.
🔹Tapez --p
code après votre prompt pour utiliser un code spécifique.
🔹Tapez /list_personalize_codes pour afficher tous vos codes de personnalisation de modèle.
🔹Notez que --p
ne fonctionne pas encore avec --niji
.
🔹Pour activer la personnalisation de façon permanente (vous n’avez donc pas à continuer de taper –p),
tapez /settings et sélectionnez le bouton [🙋 Personalization].
🔹Si vous utilisez l’application web Midjourney, recherchez ‘Personnalisation : [ON] [OFF]’.
🔹Si vous voulez utiliser le code de quelqu’un d’autre, utilisez --p
code.
🔹Dans les canaux de création publique de Discord, vous pouvez utiliser --p
@nom à la place. (Ne fonctionnera pas dans les DM)
🔹Utilisez plusieurs codes de p à la fois pour mélanger différents styles personnels.
Exemple : --p
1uwjacn 1yjtfcj
⚠️ Sur le Web, n’utilisez que des nombres entiers ou naturels. L’utilisation de décimales entraînera une erreur.
🔹L’ordre n’a pas d’importance.
🔹La personnalisation (--p
) est un --style
, tout comme le --style raw
(avec lequel il est entièrement compatible). Cela signifie que vous pouvez contrôler son influence en utilisant –stylize qui est de 100 par défaut. La valeur de 0 est sa plus faible influence, et la valeur 1000 est son influence maximale.
🔹Si votre prompt utilise --style raw
--p
(les deux) ils sont mélangés et --s
modifie l’amalgame.
nous ajoutons aujourd’hui des options plus avancées pour --sref
(références de style) et --p
(personnalisation du modèle)
Nouvelles fonctionnalités pour les références de style
🔸Vous pouvez maintenant mélanger plusieurs codes --sref
ensemble (par exemple --sref
123 456)
🔸Vous pouvez maintenant mélanger les urls des images de référence de style et les codes aléatoires sref (par exemple --sref
123 url).
🔸Vous pouvez pondérer des codes ou des urls individuels comme suit --sref 123::2 456::1
Nouveau mélange de personnalisation de modèle
🔸Vous pouvez maintenant mélanger plusieurs codes de personnalisation de modèle comme --p ab12ad3 cd34gl
🔸Nous avons également activé le mélange avec la même notation --p ab12ad3::2 cd34gl::1
Mélangez vos codes de personnalisation et de style avec ceux de vos amis et explorez de nouveaux espaces d’harmonie esthétique mutuelle !
⛵️📢 Mises à jour du site web
🔶Création :
🔶Aide :
🔶Salles :
🔶Général :
⛵️📢 Enquête Midjourney récompensés par 2h de fast GPU
Nous lançons un nouveau projet de recherche sur les origines de la beauté… En gros, quand trouvons-nous quelque chose de beau collectivement et quand voyons-nous la beauté différemment ?
Pour ce faire, nous comparons les modèles personnalisés que les gens fabriquent aux réponses de plusieurs nouvelles enquêtes.
La première enquête porte sur les données démographiques : comment des facteurs tels que l’âge, le sexe, le pays, etc. influencent-ils ce que nous trouvons beau ?
Répondez à l’enquête ici : https://www.midjourney.com/surveys?survey=demographics
Elle prend ~5 minutes et chaque personne qui la complète reçoit 2 heures de gpu rapide en récompense.
Nous essaierons d’utiliser ces données pour partager de nouvelles connaissances approfondies sur l’esthétique humaine et peut-être même pour créer de nouvelles fonctionnalités qui vous permettront d’explorer ces connaissances vous-même ! Toutes les données sont privées, vous pouvez demander leur suppression à tout moment sur la page de votre compte, et vous pouvez sauter n’importe quelle question (vous recevrez des récompenses pour le pourcentage auquel vous répondez).
La prochaine enquête portera davantage sur la personnalité et devrait être publiée dans une semaine ou deux.
Merci beaucoup d’avoir donné de votre temps pour nous aider à repousser les limites de la science. Nous avons hâte de partager les résultats avec vous et d’en explorer le sens ensemble ❤️
⛵️📖Magazine Premium à couverture rigide qui retrace 1 an de midjourney, Disponible!
Nous ouvrons les commandes pour « Midjourney Year One » – un livre qui présente les explorations de notre communauté et le développement de Midjourney au cours de l’année écoulée.
C’est un bel instantané physique de l’année écoulée ainsi qu’une fusion des nombreux numéros du magazine officiel Midjourney que vous avez peut-être manqués.
Commandez un exemplaire ici : https://mag.midjourney.com/product/year-one
Nous avons apporté quelques modifications au site web afin d’en simplifier l’utilisation. Quelques changements à noter :
🔸Les outils ‘Pan’ et ‘Zoom’ sont désormais unifiés et s’appellent ‘Reframe‘
🔸L’outil ‘Remix’ se trouve désormais dans l’outil ‘Reframe‘. Cela vous permet de modifier le prompt lors d’un panoramique ou d’un zoom.
🔸L’outil « Vary Region » s’appelle désormais « Repaint« .
🔸Les messages d’erreur sont plus descriptifs et il n’est pas nécessaire de les survoler pour obtenir plus d’informations.
🔸La barre latérale est plus simple. Les fonctions « Rank Images » et « Rank Ideas » se trouvent désormais sur la page « Tasks« .
🔸La fonction « Signaler un bug » se trouve désormais dans le menu « Help« .
⛵️📢 Mise à Jour Midjourney: Personnalisation de modèle
nous lançons aujourd’hui une version test de la personnalisation des modèles, voici comment cela fonctionne
🔶Qu’est-ce que la personnalisation des modèles ?
🔹Chaque fois que vous écrivez un prompt, il y a beaucoup de choses qui restent « inexprimées ». Nos algorithmes remplissent généralement le vide avec leurs propres « préférences », qui sont en fait les préjugés et les préférences combinés de notre communauté.
🔹Mais bien sûr, tout le monde est différent ! La personnalisation du modèle apprend ce que vous aimez, de sorte qu’il est plus probable qu’elle remplisse les blancs avec vos goûts.
🔶Exigences en matière de personnalisation des modèles
🔹Pour l’instant, la personnalisation du modèle apprend à partir des votes dans le classement par paires et des images que vous aimez sur la page d’exploration.
🔹Vous devez avoir environ 200 évaluations de paires / likes pour que la fonctionnalité fonctionne
🔹Vous pouvez voir combien d’évaluations vous avez sur la page ci-dessus ou en tapant /info
🔶Comment utiliser la personnalisation des modèles ?
🔹Tapez simplement --p
après votre prompt, ou activez la personnalisation pour tous les prompts dans les /settings
ou le bouton de paramétrage des prompts sur le site web.
🔹Lorsque vous activez la personnalisation, vous obtenez un « code » ajouté après vos prompts, vous pouvez partager ce code pour partager l’effet de personnalisation appliqué à cette image.
🔹Vous pouvez contrôler l’intensité de l’effet de personnalisation en utilisant --s 100
(0 est désactivé, 1000 est le maximum et 100 est la valeur par défaut).
VEUILLEZ NOTER : La personnalisation n’est pas une fonction stable pour le moment, elle changera au fur et à mesure que vous ferez des évaluations par paires (subtilement) et nous pourrions faire des mises à jour d’algorithme au cours des prochaines semaines. Il s’agit donc d’une « fonctionnalité amusante en constante évolution »
Il s’agit d’une toute nouvelle frontière pour la synthèse d’images. Nous espérons que nous découvrirons beaucoup de choses au cours de ce processus et nous serions ravis d’entendre vos idées dans le salon #ideas-and-features (sur discord) ou de partager les images que vous créez dans le cadre de la #personalization.
Amusez-vous bien !
Nous sortons aujourd’hui une nouvelle version de notre modèle Niji (Niji est notre modèle spécialement conçu pour l’esthétique orientale / anime).
Nouvelles mises à jour du modèle :
🔸Amélioration du rendu du texte japonais.
🔸Le modèle peut maintenant bien rendre des textes courts en kana japonais et, dans certains cas, peut aussi rendre des textes qui incluent des caractères chinois simples.
🔸Amélioration des détails de l’image (comme la structure des yeux des animes).
🔸Correction de certains artefacts d’image qui affectaient auparavant un très petit nombre de générations.
Rappel :
🔸Vous pouvez activer Niji it en tapant /settings et en cliquant sur niji model 6 ou en tapant --niji 6
après les prompts.
🔸Vous pouvez montrer des images de Niji dans le salon #niji-showcase (sur discord)
🔸Il y a un serveur discord dédié à Niji ici (avec des canaux pour les non-anglophones).
https://discord.com/invite/nijijourney
Nous espérons que vous apprécierez ces mises à jour ! Restez à l’écoute pour plus d’infos la semaine prochaine.
Nous testons actuellement des « salons de création privées » (pour tous les membres MJ ayant au moins 100 générations).
Comment ça marche ?
🔸En gros, vous cliquez sur ‘rooms’ puis sur ‘create room’ et vous remplissez tous les champs.
Maintenant et pour l’avenir:
🔸Pour l’instant, nous ne permettons qu’aux gens de créer des salons privés (qui sont des salons protégés par un mot de passe pour vos amis / votre lieu de travail).
🔸À l’avenir, nous permettrons aux gens de créer des salons publics sans protection par mot de passe et avec une galerie globale.
🔶Nous avons amélioré le design des « salles » et nous ouvrons la salle de test principale à tous ceux qui ont au moins 1000 images (club 1k et plus).
🔹Le design a été mis à jour :
🔸Vous pouvez maintenant faire des favoris dans les salles et voir les favoris des autres.
🔸Nous gérons mieux les images en cours pour que ce soit plus propre pour un plus grand nombre de personnes.
🔸Nous avons peaufiné un certain nombre de choses au niveau du design.
Plans de salles (la semaine prochaine, j’espère) : Nous allons ajouter un système d’atténuation du bruit par l’IA pour le chat vocal, puis nous allons essayer d’ajouter quelques salles supplémentaires et enfin nous allons ouvrir les salles à un plus grand nombre de personnes.
À plus long terme : Nous laisserons les gens créer des salons privés, puis nous laisserons les gens créer des salons publics.
🔶 Quand vous faites –sref random, cela vous donne maintenant un code numérique dans votre prompt que vous pouvez utiliser pour reproduire le style à partir de maintenant.
En gros, si vous tapez –sref random, il le remplacera par quelque chose comme –sref 123456 (avec un nombre aléatoire) et si vous tapez à nouveau ce nombre aléatoire comme –sref 123456 , vous pourrez revenir à ce style.
🔶 Nous avons publié un nouvel algorithme pour le classement des idées de la communauté qui mesure non seulement la valeur de la communauté pour une idée mais aussi une mesure quantitative de sa « controverse » https://midjourney.com/ideas?type=leaderboard.
En gros, « 100 de controverse » correspond à la moyenne, 50 signifie que l’idée est deux fois moins controversée que la moyenne, 200 signifie qu’elle est deux fois plus controversée que la moyenne. Nous définissons la « controverse » comme la différence d’importance entre les « enthousiastes » et les « sceptiques ».
Nous testons de nouveaux algorithmes pour « explorer l’espace latent des styles visuels » et mettons à la disposition de tous un outil simple et amusant.
🔹Vous pouvez désormais taper --sref random
à la fin de vos prompts et obtenir des styles totalement aléatoires.
Par exemple, en dessous de ce post, il y a 64 itérations du prompt « /imagine a field of flowers --sref random
« .
Si vous aimez quelque chose que vous trouvez, utilisez --sref url
avec l’url de l’image pour en obtenir d’autres.
Il s’agit d’un test d’un algorithme sous-jacent pour lequel nous créerons des outils plus avancés à l’avenir.
Pour l’instant, nous espérons que vous vous amuserez !
Nous allons procéder aujourd’hui à des tests préliminaires de nos « salles de création » sur le web et nous aimerions que vous nous aidiez !
(nous commençons avec le club des 10 000 et nous passerons à d’autres sous peu).
🔶Les points forts de ce prototype de salle
🔹Il y a un chat textuel et un chat vocal
🔹Le texte est séparé des images afin que la création n’affecte pas le chat.
🔹Vous pouvez créer des images ensemble ou ne voir que les vôtres (boutons de filtrage en haut).
🔹Vous pouvez facilement faire glisser des images dans le chat pour en parler
🔹Vous pouvez redimensionner les colonnes de chat et d’images en survolant puis en faisant glisser l’espace entre les deux.
Remarque : si vous créez des images en mode furtif dans un salon, d’autres personnes peuvent les voir (comme dans Discord).
🔶Quels sont les objectifs de ce test ?
🔹Nous voulons voir combien de personnes nous pouvons faire entrer dans une pièce jusqu’à ce qu’elle commence à s’effondrer ou à se sentir mal à l’aise.
🔹Nous voulons voir quelles sortes de choses fonctionnent bien / mal dans la nouvelle interface utilisateur.
(puisqu’elle est différente de Discord et de tout ce qui existe)
🔹Obtenir des retours sur les bugs ou des idées de la part de la communauté.
🔶Quelques plans de haut niveau en ce moment autour des salles en tant que contexte (???)
🔹Nous prévoyons de faire en sorte que tout le monde puisse créer des salles de création publiques et privées sur le site web.
🔹Il y aura un hall d’accueil pour les salles publiques et la possibilité de créer un lien direct vers les salles privées.
🔹En observant les salles aujourd’hui, nous réfléchirons à la possibilité d’ouvrir le site au club des 1 000 personnes afin d’augmenter le nombre de participants.
🔹Nous pourrions créer d’autres salles si l’une d’entre elles devenait trop bondée ou trop frénétique.
🔹Après avoir observé un petit nombre de salles pendant un certain temps, nous ouvrirons la possibilité de créer des salles par soi-même.
Nous espérons que vous vous amuserez à tester les salles aujourd’hui. Pour l’instant, c’est DESKTOP WEB (alpha) ONLY (le mobile est une priorité secondaire pour nous et viendra plus tard).
🔶 Nous publions deux nouveaux algorithmes pour les références de style ainsi qu’une nouvelle fonctionnalité de « versioning ».
--sv
--sv 1
L’algorithme de référence de style original que nous avons publié avec--sv 2
L’algorithme par défaut jusqu’à aujourd’hui--sv 3
Une nouvelle version de sv1 avec de meilleures performances et plus « vibrant » que sv2--sv 4
Une nouvelle version de sv2 avec de meilleures performances (c’est la version par défaut)🔶 Nous revenons sur les heures de GPU gratuites pour l’évaluation des images.
Découverte d’un bug majeur avec le nouveau sref pour Niji, sur lequel a été rétabli l’ancienne version.
Le nouveau Style Reference (v2) est toujours disponible pour la v6 de Midjourney.
Nous sortons aujourd’hui la version 2 de la fonctionnalité « référence de style ».
Elle devrait être beaucoup plus précise en ce qui concerne la compréhension du style et elle devrait être beaucoup plus efficace pour éviter les « fuites » d’éléments non stylistiques dans vos images. Nous avons également amélioré le fonctionnement du paramètre de poids –sw, afin qu’il soit plus significatif et qu’il ait une plus grande portée.
🔶Qu’est-ce qu’une référence de style ?
Les références de style vous permettent de référencer le style d’une autre image ou de conserver un style cohérent sur plusieurs images. Il s’agit d’un outil similaire aux prompts d’images, mais qui se concentre uniquement sur le style.
🔶Comment l’utiliser à nouveau ?
Pour utiliser une référence de style, tapez –sref URL après votre prompt avec l’url d’une image. Pour augmenter l’influence du style, appliquez un poids de style (–sw) proche de 1000. Pour diminuer la puissance du style, définissez le poids plus proche de –sw 0 (la valeur par défaut est 100). Vous pouvez également ajouter plusieurs références de style.
Voici un exemple bête et rapide utilisant un dessin au crayon de couleur comme référence. Quoi qu’il en soit, nous espérons que vous vous amuserez ! ❤️
Nous testons aujourd’hui une nouvelle fonction de « Référence de personnage ».
Cette fonction est similaire à la fonction « Référence de style », sauf qu’au lieu de correspondre à un style de référence, elle tente de faire correspondre le personnage à une image de « Référence de personnage ».
🔶Comment cela fonctionne-t-il ?
🔹Tapez --cref URL
après votre prompt avec l’URL d’une image d’un personnage.
🔹Vous pouvez utiliser --cw
pour modifier la « force » de la référence de 100 à 0
🔹La force 100 (--cw 100
) est la valeur par défaut et utilise le visage, les cheveux et les vêtements.
🔹A force 0 (--cw 0
), il se concentre uniquement sur le visage (bon pour changer de tenue, de cheveux, etc.).
🔶A quoi cela sert-il ?
🔹Cette fonction fonctionne mieux lorsque l’on utilise des personnages créés à partir d’images Midjourney.
🔹Elle n’est pas conçue pour les personnes réelles ou les photos (et les déformera probablement comme le font les images normales).
🔹Cref fonctionne de la même manière que les prompts d’images classiques, sauf qu’il se concentre sur les traits du personnages.
🔹La précision de cette technique est limitée, elle ne copiera pas exactement les fossettes, les taches de rousseur ou les logos de t-shirts.
🔹Cref fonctionne pour les modèles Niji et MJ normaux.
🔶Fonctionnalités avancées
🔹Vous pouvez utiliser plus d’une URL pour mélanger les informations/caractères de plusieurs images comme ceci –cref URL1 URL2 (c’est similaire aux prompt d’images ou aux styles de référence multiples)
🔶Comment cela fonctionne-t-il sur le web alpha ?
🔹Glissez ou collez une image dans la barre d’image, elle a maintenant trois icônes. La sélection de ces icônes détermine s’il s’agit d’un pormpt d’image, d’une référence de style ou d’une référence de personnage. 🔹Shift+sélectionner une option pour utiliser une image pour plusieurs catégories
N’oubliez pas que MJ V6 est en phase alpha et que cette fonctionnalité et d’autres peuvent changer soudainement, mais la version bêta officielle de MJ V6 sera bientôt disponible.
Partagez vos premiers tests et impressions ! 🙏
Qu’est-ce que le Turbo mode ?
🔹Les travaux en mode turbo sont 3,5 fois plus rapides pour un coût deux fois plus élevé (~10 secondes contre ~35 secondes).
🔹Ils sont exécutés sur les machines GPU les plus rapides possibles (c’est pourquoi ils sont à la fois plus rapides et plus chers).
🔹C’est idéal pour les groupes, les événements publics, chaque fois que vous êtes pressé ou que vous avez besoin de rapidité.
Comment l’utiliser / comment ça marche
🔹Tapez /turbo et tous vos travaux /imagine seront 3,5 fois plus rapides (pour un coût en gpu de 2 fois supérieur au mode fast).
🔹On peut aussi indiquer --turbo
à la fin du prompt
🔹Le mode turbo prend actuellement en charge les travaux /imagine vary et remix (mais pas encore sref).
🔹Tous les travaux qui ne sont pas pris en charge par le mode turbo sont exécutés comme des travaux normaux (à un coût normal).
C’est assez fou d’avoir une V6 à 3,5 fois la vitesse. Profitez-en et amusez-vous bien !
commande /describe pour la V6.
A la base, midjourney passe normalement du texte à l’image et cette commande vous permet de passer de l’image au texte.
Nous sommes encore en train de peaufiner les choses, mais cette nouvelle version de describe est destinée à produire des messages plus longs et plus détaillés, spécialement adaptés à la V6.
Mise à jour NiJi 6 alpha:
🔹Prise en charge de l’inpainting (Vary Region), Pan et Zoom.
Note de version complète: https://sizigi.notion.site/Advanced-Vary-Region-Techniques-4532397e813740d680c3076e4e872830
Mises à jour Midjourney
🔹 Midjourney v6 Alpha passe en version par défaut
🔸Amélioration des détails
🔸Amélioration de l’upscaler
🔹L’Upscaler subtil (x2) de la V6 est maintenant plus subtil; les résultats devraient préserver plus de détails de l’image originale avec des rendus moins lisses
🔸Mise à jour de la commande /Feedback
Ce système nécessite plus de travail pour soumettre / évaluer les idées, mais il nous donnera beaucoup plus d’informations et si cela semble bon, nous essaierons d’ajouter un classement global des idées pour Midjourney peu de temps après (ce sera alors permanant pour toute la communauté)
Quoi qu’il en soit, avant de rendre cela officiel dans les annonces, nous aimerions que vous essayiez, que vous soumettiez / évaluiez de nouvelles idées et que vous nous disiez ce que vous pensez dans le salon # alpha-ideas-and-features
Comment ça marche:
🔹Soumettre des idées sur l’onglet « Submit ideas »
🔹Évaluez les idées à l’onglet « Rate ideas ».
🔹Voir les évaluations de vos idées par les autres personnes sur l’onglet « My ideas »
💡Pour info pour avoir tester le feedback dans sa première version, évaluer des idées donne droit à des fast hours GPU gratuites (à voir si c’est toujours le cas, aucune com n’a été faite la dessus)
🔸Barre de recherche (Alpha)
🔹 Mise à jour de la barre de recherche sur la page d’exploration alpha, elle devrait être 10x plus rapide et afficher les images v6 maintenant
Deux changements ont récemment été apportés à la version 6 :
🔸Un ajustement qui améliore légèrement les détails fins dans certains scénarios et réduit les textures répétitives non naturelles (dans des endroits comme le feuillage lointain, le sol, les textiles / tissu, la peau, les cheveux / la fourrure, etc.). Vous pourriez également remarquer un rendu de texte légèrement amélioré et un peu moins de problèmes d’anatomie/main.
- Il est possible que certains prompts pixelart se révèlent moins « propres » qu’auparavant, contenant maintenant du bruit ou du grain. Si vous voyez cela, essayez d’utiliser –q 0.5. Il est plus similaire aux paramètres précédents (et plus rapide!).
🔸Les upscalers v6 x2 agissent désormais de manière plus similaire aux upscalers Niji 6. Les Upscales subtils doivent être plus fidèles à l’image originale qu’avant, et moins susceptibles d’introduire de nouveaux artefacts indésirables.
À compter de maintenant, si vous avez fait au moins 1 000 images dans Midjourney, vous pouvez maintenant mettre à l’essai notre site Web de création d’images à https://alpha.midjourney.com
Remarque :
🔸Vous pouvez vérifier combien d’images vous avez faites en tapant /info
🔸C’est une version alpha. Elle peut être quelque peu instable et les fonctionnalités sont amenés à changer soudainement et sans préavis.
🔸Cette alpha est axée sur l’utilisation depuis un ordinateur. Elle fonctionne sur Mobile, mais a des problèmes d’interface utilisateur / UX + bugs et n’est pas une priorité jusqu’à ce que la version de bureau soit aboutie.
Au fur et à mesure que le site se stabilisera, nous ouvrirons l’accès à plus de membres existants, puis (à terme) à de nouveaux membres.
Discord continuera d’être pris en charge à long terme, et nous espérons que vous utiliserez les deux (en particulier pour la communauté, les événements, le support, les commentaires et les serveurs privés)
Nous publions aujourd’hui nos premiers algorithmes de test pour les « styles persistants ». Nous appelons cette fonctionnalité « Références de style » (Style References). Elles fonctionnent de la même manière que les prompts d’images où vous donnez une URL à une ou plusieurs images qui « décrivent » le style cohérent sur lequel vous voulez travailler.
🔶Comment utiliser les références de style
🔹Tapez --sref
après votre prompt et mettez une (ou plusieurs) URL d’images comme ceci –sref urlA urlB urlC
🔹Le modèle d’image considérera les URL d’images comme des « références de style » et essaiera de créer quelque chose qui « corresponde » à leur esthétique.
🔹Définir les poids relatifs des styles comme ceci --sref
urlA::2 urlB::3 urlC::5
🔹Définir la force totale de la stylisation via --sw
100 (100 est la valeur par défaut, 0 est désactivé, 1000 est la valeur maximale).
🔹Les prompt d’images régulières doivent être placées avant --sref
comme ceci
/imagine cat ninja ImagePrompt1 ImagePrompt2 --sref
stylePrompt1 stylePrompt2
🔹Cela fonctionne pour V6 et Niji V6 (cela ne fonctionne pas avec les versions antérieures).
🔶Veuillez noter :
🔹Nous allons probablement mettre à jour ceci dans les prochaines semaines (et cela peut changer des choses, alors soyez prudent pendant que c’est encore en alpha).
🔹Si votre message tend vers le photoréalisme et que vous voulez un style divergent comme l’illustration, vous devrez peut-être ajouter un texte à votre message pour l’indiquer.
🔹Les références de style n’ont pas d’effet direct sur les prompts d’images, mais uniquement sur les travaux qui contiennent au moins un texte.
🔹Nous prévoyons d’ajouter ultérieurement une fonction « Personnage persistant » (Consistent Character) qui fonctionnera de la même manière avec l’argument --cref
.
Plus d’infos et des exemples dans mon article: Les Références de Style: le nouveau jouet de Midjourney.
--niji 6
à la fin de vos prompts
Notes de version :
🔸Vous pouvez essayer des prompts plus longs et plus difficiles (p. ex., une fille avec un œil vert et un œil bleu, hétérochromie).
🔸Vous pouvez écrire un texte simple en le mettant dans des citations! (par exemple: konosuba aqua holding a sign that says « cixelyn » while jumping in the air)
🔸Si vous n’aimez pas l’utilisation d’anime –niji 6 –style raw
🔸Lancement complet ( Vary (région)) + événement prévu dans le mois à venir!
Full devlog ici :https://sizigi.notion.site/Welcome-to-Niji-V6-47b0769d73b8494f8618a70bd4384f20
Note de version et premières impressions: https://geniart.fr/midjourney/niji-v6-alpha-en-temps-et-en-heure/
🔶La V6 prend désormais en charge Pan / Zoom / Vary (région)
🔹 Ces options apparaissent sous les upscales du bot v6 et sur le site alpha (sauf vary region sur le web)
🔹 Pan agit maintenant plus comme un zoom. Il devrait être plus facile à utiliser et donner des résultats de meilleure qualité (avec plus de cohérence et moins de répétition des concepts)
🔹Pan fonctionne maintenant avec upscale/vary/remix mais n’augmente plus la résolution à l’infini.
🔶 http://alpha.midjourney.com (avec création d’image) est maintenant disponible pour le 5k-club
🔹Le 5000-club comprend tous ceux qui ont fait au moins 5000 images sur Midjourney
🔹Vérifiez le nombre d’images réalisées avec /info
🔹Vous pouvez accéder au site ici : http://alpha.midjourney.com
🔶 Nouvelle fonction de d’évaluation (avis): /feedback
🔹Cela vous permet de soumettre vos principales priorités à Midjourney pour qu’ils travaillent dessus.
🔹Vous pouvez également évaluer les priorités des autres
🔹Nous utilisons ces données pour faire une seule grande liste pour aider nos ingénieurs à déterminer sur quoi ils doivent se concentrer
🔹Nous examinerons la liste publiquement aux prochaines Office Hours et montrerons des visualisations intéressantes
🔹Veuillez mettre à jour vos priorités chaque fois que nous lançons de nouvelles fonctionnalités (comme avec le lancement du vary region ci-dessus)
🔶Changements dans la page d’exploration :
🔹Nouveaux états de survol pour la page d’exploration
🔹Améliorations supplémentaires du contenu de la page d’exploration
🔹Ajout de la fonction « hot/top/random » à la page d’exploration
🔹Recherche d’images similaires (cliquer sur la loupe)
🔶Modifications de la page Créer
🔹Le survol des images permet désormais d’afficher des boutons de variation
🔹Passez la souris sous l’invite pour afficher d’autres boutons d’option.
🔹Nouveau bouton « Hide » (c’est plus comme un emoji de vomi mais vous voyez l’idée et c’est facile), ce n’est pas un substitut pour le mode furtif.
(il n’y a pas encore de bouton « Unhide » mais vous pouvez voir les éléments cachés dans les archives sous les filtres)
🔶Modifications de la page d’archive
🔹Nouvelle fonction ‘timeline’, déplacez la souris sur la barre de défilement pour voir / parcourir les dates.
Mises à jour importantes de la V6 alpha. Elles s’appliquent à tous les nouveaux travaux à compter de maintenant.
Note de mise à jour V6
🔹Les upscales sont maintenant deux fois plus rapides (et utilisent deux fois moins de minutes GPU)
🔹Amélioration de l’esthétique, de la cohérence, du respect des prompts et de la qualité d’image
🔹Amélioration du rendu du texte (vous devez mettre le texte entre « guillemets » dans votre prompt)
🔹Amélioration des performances pour les valeurs de –stylize élevées
(en termes de qualité d’image, d’esthétique, de rendu du texte et de précision du prompt)
Veuillez noter : Nous continuerons à pousser les améliorations au cours des prochaines semaines alors que nous nous dirigeons vers la phase bêta officielle de V6
Midjourney V6 Alpha!
(vous devez écrire votre texte en « guillemets » et –style raw ou une valeur de –stylize peu élevée)
Style et prompting pour la V6
Ouvert pour l’instant qu’aux utilisateurs ayant plus de 10.000 générations à l’adresse: https://alpha.midjourney.com/
- La possibilité de créer des images nativement sur le site (sans Discord).
- Il s’agit d’un test ALPHA, ce qui signifie que ce site est une zone de construction active.
- Les choses changeront MASSIVEMENT, sans préavis, chaque semaine pendant les prochains mois jusqu’à ce que nous soyons prêts pour une version publique ou une version bêta plus « stable ».
Quelques notes sur cet alpha
- Vous pouvez faire glisser des images dans la barre d’image pour les utiliser dans votre prompt.
- Le batch downloader (téléchargement par lot) n’est pas encore supporté sur ce site.
- La version mobile n’est pas au centre de ce cycle de développement.
- La version mobile de l’alpha sera en retard sur les fonctionnalités, il est buggué, et il y a des choses manquantes.
- Il n’y a pratiquement aucune fonctionnalité sociale dans cet alpha, mais elles apparaîtront au cours des prochains mois
- Autres fonctionnalités pas encore sur l’alpha : Variation (région), Style Tuner, Remix pour le zoom panoramique ou les variations fortes, zoom personnalisé (custom zoom), préférences personnalisées, suppression d’images et /describe.
Quelques exemples de choses sur lesquelles on travaille actuellement et auxquelles on pense
- De meilleurs contrôles d’action dans la Lightbox. Peut-être un mode de vue ‘grille’.
- Une barre /imagine différente. Une interface utilisateur/UX différente pour l’envoie d’images. Un panneau de paramètres en plein écran.
- Une nouvelle page d’exploration (explore page)
- Nous séparerons probablement l’affichage des travaux finis de celui des créations, et la vue des créations elle-même changera considérablement.
Plus d’infos sur mon article: Guide des sites Midjourney: Tour d’horizon des 4 versions!
Le Style Tuner disponible sur NiJi pour pouvoir créer vos propres styles.
Fonctionne comme celui de Midjourney, à savoir tout de même que les –styles expressive, scenic et cute ne sont pas utilisables pour la création de style.
Cette première version du Style Tuner va permettre de contrôler la personnalisation du style de vos rendus et de les réutiliser, les combiner et les partager.
Personnalisation de style avec la V1 du Style Tuner (Cliquez sur le lien pour plus d’infos)
La phase 1 du nouveau site Midjourney accessible en beta. (Cliquez sur le lien pour plus d’infos)
– L’upscaler voit le jour avec les boutons Upscale (2x) et Upscale (4x) qui apparaissent une fois que vous avez agrandis votre image de la grille avec les boutons U1, U2, U3 ou U4. Il vous permet de doubler ou quadrupler la taille de vos images.
– Il est utilisable pour toutes les images générées depuis la V5 et NiJi 5. Pour en profiter sur des images précédant la mise à jour, utilisez la commande /show job_id.
– Il s’agit d’un upscaler subtile, c’est à dire qu’il respecte au maximum l’image originale.
Toutes les infos et tests ici: Midjourney Upscaler: Agrandir ses images ou dans la documentation midjourney.
Première version de l’appli mobile Niji · journey
Possibilité de générer des images depuis l’app, feed, galerie Niji.
– L’inpainting est enfin là, intégrer dans discord (version desktop et smartphone) à travers une fenêtre contextuelle lorsque l’on clique sur Vary (Region) sur les images agrandies (Upscale).
toutes les explications dans la documentation: Variations selectives.
– Mise à niveau du cluster GPU. Les utilisateurs Pro et Mega devraient voir des accélérations de ~1,5x (/imagine de ~50 secondes à ~30 secondes).
Ces rendus devraient également être environ 1,5 fois moins chers.
Toute capacité GPU supplémentaire accélérera aléatoirement les actions pour les autres plans d’abonnement.
– Nouvelle option pour faire des panoramiques, vous pouvez étendre votre image sur les cotés à la verticale ou à l’horizontale avec les flèches qui s’affichent sous les agrandissements.
– Nouveau paramètre –weird. Permet de rajouter un coté « bizarre » à votre image (valeur entre 1 et 3000)
– Nouveau plan d’abonnement à 120$/mois
– Mode /turbo génère vos images 4x plus vite pour 2x le prix
La V5.2 est enfin disponible avec un peu de retard
– Nouveau système d’esthétique
– Fonction Stylize plus puissante
– Nouveau mode « Haute variation »
– Nouvelle commande /shorten
– Nouvelle fonction de zoom arrière
– Retour de la commande –video
La note de mise à jour complète : Midjourney V5.2 est enfin là !
La V5.1 est plus opiniâtre (comme la V4) et est BEAUCOUP plus facile à utiliser avec des prompt courts
– Il existe un mode « sans opinion » pour la V5.1 (similaire à la V5.0 par défaut) appelé « Mode RAW »
– Ne vous inquiétez pas, la V5 est toujours disponible (comme avant)
Autres changements dans la V5.1 par rapport à la V5.0
– Meilleure cohérence
– Plus de précision par rapport aux textes des prompts
– Moins de bordures indésirables ou d’artefacts de texte
– Amélioration de la netteté
Comment activer V5.1 :
– Allez dans /settings
et cliquez sur « V5.1 » (sur la deuxième ligne) ou tapez --v 5.1
après votre prompt
– Pour le mode RAW, cliquez sur le bouton Mode RAW dans les /settings
(après avoir cliqué sur V5.1) ou tapez --style raw
Autres petites mises à jour:
- Le modérateur de l’IA est désormais en « Appels automatiques »
– Nous constatons qu’il y a très peu de prompt signalés comme « dangereux », nous les envoyons donc automatiquement via le deuxième processus de contestation de l’IA, plus puissant maintenant
– Cela devrait entraîner moins rejets et une expérience plus fluide (pas besoin d’appuyer sur « faire appel » (Appeal))
– Si vous constatez que votre prompt est toujours rejeté de manière incorrecte, appuyez sur le bouton « Notifier le développeur » sous le message de rejet pour nous aider à améliorer notre système - Répétitions et permutations maintenant disponibles pour les membres à 10 $
– Pour les abonnements de base, nous autorisons désormais les commandes uniques qui démarrent jusqu’à 4 tâches
– Pour la commande de répétition qui ressemble à--repeat 4
– Pour une permutation qui ressemble àun {chien, chat} in the style of {vaporwave, art déco}
– Les limites d’adhésion Standard / Pro restent les mêmes qu’avantSi vous avez un abonnement de 10 $, faites attention à ne pas utiliser toutes vos heures de cette façon ! Ceci est principalement destiné à permettre à chacun d’expérimenter les fonctionnalités et d’obtenir une productivité maximale lorsque vous en avez besoin.
Ajout d’un nouveau style à Nijijourney (le modèle Midjourney sur le thème de l’anime).
ce style est appelé « scénique » et est destiné à de beaux arrière-plans et des personnages dans de beaux environnements.
Pour l’utiliser, activez d’abord Niji v5 avec /settings puis choisissez votre style avec --style scenic
en fin de prompt.
On a évidement tester ce style pour vous : Mise à jour Niji 5 avec encore un nouveau style: scenic
Ajout de deux nouveaux styles de NijiJourney (le modèle Midjourney sur le thème de l’anime)
Pour les utiliser, activez d’abord Niji v5 dans les paramètres avec /settings puis choisissez votre style avec --style cute
ou --style expressive
;
Le style cute est assez mignon! L’expressif est légèrement plus 3D et occidentalisé.
Voila pour ce qui est de l’annonce officielle de la part de Midjourney, du coup on a testé ici.
Ajout de la fonction permutation qui permet de générer rapidement des variantes d’un prompt avec une seule requête.
Cette fonctionnalité est actuellement limitée aux abonnés ayant souscris au plan standard (à 30$/mois) ou au plan pro (à 60$/mois)
Présentation de la fonction de répétition (–repeat)
– Tapez --repeat
avec un nombre pour exécuter ce travail autant de fois que souhaitées.
– Par exemple /imagine cats --repeat 5
créera cinq grilles 2×2 de chats
Vous pouvez l’activer en tapant /settings et en cliquant sur niji version 5 ou en tapant --niji 5
à la fin de vos prompts.
Le style de ce modèle est plus fort que le modèle par défaut, donc si vous voulez augmenter ou diminuer l’intensité de la stylisation, veuillez utiliser la commande --stylize
(ou --s
pour faire court); --s 100
est la valeur par défaut et elle va de --s 0
au plus bas à --s 1000
au plus haut.
La commande /describe permet d’envoyer une image au Bot, et vous permet d’obtenir 4 prompts textuels qui tentent de décrire l’image.
– Cliquez sur les boutons sous la commande pour générer des images pour chacune des invites.
En raison d’une combinaison de demandes extraordinaires et d’abus d’essais, Midjourney désactive temporairement les essais gratuits jusqu’à ce que de prochaines améliorations du système soient déployées
Pour l’activer, tapez --v 5
après votre prompt ou sélectionnez « V5 » dans /settings
- Meilleure performance, plus de détails, une plus large gamme stylistique, moins d’artefacts et de texte indésirable.
- Prise en charge du paramètre
--tile
pour la réalisation de mosaïque. - Rapports d’aspect (ratio)
--ar
supérieurs à 2: 1. - Prise en charge du paramètre
--iw
pour donner du poids aux prompts d’image par rapport aux prompts textuels.
Derniers Articles
La v7 de midjourney est enfin là!
La v7 a enfin débarqué avec son lot de déceptions et de bonnes surprises. Comme à chaque sortie de nouveau modèle beaucoup restent sur leur faim, espérant des résultats incroyables au premier prompt, et sont déçus après une attente qui a semblé interminable. On a ce phénomène quasiment à chaque fois. Je voulais donc faire un point vraiment important
La v7 de midjourney montre le bout de son nez
J'étais déjà agréablement surpris après un premier tour d'évaluation samedi et les prémisses d'un aperçu de ce que pourrait être les rendus de la v7 tant attendue. Mes premières impressions sont plutôt positives: on a corrigé les problèmes de visages déformés et mal définis en arrière plan on voit qu'il y a moins d'artefact parasites et d'incohérence dans les
Créer des photos hyperréalistes avec Midjourney
Si vous utilisez MidJourney, vous avez sûrement remarqué que l’IA a une tendance naturelle à produire des images très esthétiques, avec des compositions léchées, une lumière dramatique et un rendu quasi cinématographique. Que ce soit pour un portrait, un paysage ou une scène de rue, l’algorithme embellit souvent ses créations, donnant des résultats spectaculaires, mais parfois trop parfaits pour
Les moodboards de midjourney un outil de plus pour créer avec style
Midjourney a lancé mi-décembre une fonctionnalité inspirée des LoRa de Flux et Stable Diffusion: les Moodboards. Cette nouveauté permet aux utilisateurs de personnaliser les images générées par l'IA en utilisant des collections d'images spécifiques comme source d'inspiration directe. Ces images vont servir de guide visuel à Midjourney en définissant ainsi une ambiance, un style ou une tonalité mais il
L’éditeur Web sur Midjourney: un outil qui change la donne
Cette mise à jour majeure offre aux utilisateurs la possibilité de modifier des images, qu'elles aient été générées par Midjourney ou importées depuis internet ou votre ordinateur. L'éditeur web inclut également une fonctionnalité de retexture, ouvrant un nouveau champ de possibilités. L'éditeur web de Midjourney : un outil polyvalent L'éditeur web de Midjourney, accessible via un onglet "Edit"
Trouver ou créer son style BD avec midjourney
La création de bandes dessinées est un art qui exige une maîtrise minutieuse du style et de l’atmosphère, deux éléments clés pour immerger pleinement le lecteur dans l’univers narratif. Midjourney est un outil idéal pour explorer des styles variés et originaux en utilisant des styles de référence aléatoires (sref random). Dans cet article, je vous présente une selection de