KI-Bildgenerator DALL-E 2: OpenAIs erste Retrospektive auf 3 Millionen Bilder

Un bon mois après la sortie de DALL-E 2, OpenAI publie les premiers chiffres des images publiées. Le système d’IA crée des images basées sur des descriptions et est actuellement disponible pour un groupe limité de personnes qui ont créé un total de 3 millions d’images. L’enquête se concentre sur les mesures de précaution pour empêcher le système de générer des images au contenu répréhensible.

Outre le développement ultérieur des méthodes d’apprentissage automatique pour créer et modifier les images, OpenAI a pris des précautions supplémentaires pour DALL-E 2. Les modèles génératifs comportent toujours des risques : ils peuvent adopter des préjugés répandus et les utilisateurs peuvent essayer de les manipuler de manière ciblée. manière ou les utiliser pour un contenu glorifiant la violence, par exemple.

Pour DALL-E 2, OpenAI a filtré l’ensemble de formation afin qu’il ne fournisse pas de modèles de contenu violent, haineux ou sexuel. De plus, la politique de contenu de l’entreprise interdit la génération de tels contenus. Sur le plan technique, un filtre pour la saisie de texte et les images téléchargées est destiné à éviter les abus du système. Enfin, OpenAI utilise des techniques pour empêcher la création de contenu photoréaliste basé sur de vraies personnes.

OpenAI a maintenant publié quelques chiffres pour montrer que les mesures de précaution ont largement fait effet. Cependant, la société ne divulgue pas le nombre de personnes qui ont participé à la première phase de test fermée. Au total, les premiers utilisateurs ont créé 3 millions d’images.

Le système a marqué seulement 0,05 % des images téléchargées ou partagées publiquement comme une violation potentielle des directives de contenu. Les examinateurs humains ont confirmé les violations pour 30 %, après quoi OpenAI a bloqué les comptes associés.

Les utilisateurs du test ont été explicitement informés de ne pas créer d’images photo-réalistes avec des visages. Ils doivent également signaler les images générées par DALL-E qu’ils considèrent comme problématiques.



DALL-E 2 a probablement créé pour la plupart des images inoffensives comme ce résultat de la description “Un astronaute chevauchant un cheval dans le style d’Andy Warhol”.

(Image : OpenAI)

Au cours des prochains mois, OpenAI souhaite étendre le programme et permettre à davantage d’utilisateurs de développer davantage les mesures de sécurité. Au départ, jusqu’à 1000 nouvelles personnes par semaine devraient avoir accès à DALL-E. Si vous souhaitez y accéder, vous pouvez vous inscrire sur la liste d’attente.

La première version de DALL-E, publiée par OpenAI en janvier 2021, est basée sur le modèle de langage GPT-3, qui provient également d’OpenAI. Alors que ce dernier puise ses connaissances de base dans une large collection de textes, OpenAI a formé DALL-E et ses successeurs avec de nombreuses images et descriptions associées. Le système utilise la base pour générer, par exemple, un astronaute de style Andy Warhol sur un cheval. Le nom DALL-E est un portemanteau du nom de famille de l’artiste espagnol Salvador Dali et du titre du film Pixar “WALL-E”.

DALL-E 2 combine deux techniques développées par OpenAI depuis la sortie de la première variante : CLIP (Contrastive Language-Image Pre-training), un réseau de neurones artificiels qui convertit les concepts visuels en catégories, et GLIDE (Guided Language to Image Diffusion for Generation and Editing), un modèle de diffusion guidé par le texte qui, selon un article, a surpassé DALL-E principalement dans les domaines du photoréalisme et de la description appropriée.



DALL-E 2 crée des variations du “Baiser” de Gustav Klimt

(Image : OpenAI)

Contrairement à son prédécesseur, DALL-E 2 peut ensuite modifier les images et ajouter du contenu lié au contexte. De plus, le système peut reconcevoir des images existantes. La page du projet présente des variations d’œuvres d’art bien connues telles que “La jeune fille à la perle” de Jan Vermeer van Delft ou “Le Baiser” de Gustav Klimt.


(rm)

Vers la page d’accueil

Leave a Comment