Auparavant, cette fonctionnalité n'était pas disponible pour les utilisateurs en raison du danger d'utilisation abusive de la technologie, mais après avoir amélioré le travail des filtres pour supprimer les images contenant du contenu à caractère sexuel ou politique, ainsi que des scènes de violence, OpenAI a décidé de rendre cette outil accessible au public - du moins pour ceux qui sont entrés dans le cercle de l'élite, admis à travailler avec le réseau de neurones DALL-E.
La nouvelle fonctionnalité permet aux utilisateurs d'éditer des images de différentes manières. Par exemple, vous pouvez télécharger une photo de n'importe quelle personne et modifier les traits du visage, les vêtements ou la coiffure. Sans aucun doute, l'outil deviendra populaire parmi les artistes, photographes et autres représentants des professions créatives.
"Grâce aux améliorations de la sécurité, DALL-E est désormais prêt à prendre en charge ces fonctionnalités fascinantes et importantes - tout en minimisant le risque potentiel de deepfakes", lit-on dans une lettre envoyée par la direction d'OpenAI aux clients.
La décision faisait partie d'une discussion en cours entre les créateurs d'IA et les utilisateurs sur l'utilisation abusive potentielle de la technologie. Rappelons que DALL-E est un produit de l'organisation à but non lucratif OpenAI, un puissant réseau de neurones qui génère des images sur demande verbale. Il est en mode bêta-test.
Jusqu'à présent, l'entreprise a adopté une approche plutôt prudente, mais récemment, des concurrents, peu scrupuleux en la matière, ont commencé à contourner OpenAI et à braconner les utilisateurs. Ainsi, Stable Diffusion vous permet déjà de créer de fausses images réalistes de célébrités, écrit Verge.
Maintenant, OpenAI a implémenté des filtres dans DALL-E qui vous permettent d'utiliser la fonctionnalité d'édition de visage dans les photos et les vidéos sans enfreindre les lois et les règles de décence. Les conditions d'utilisation du programme interdisent de télécharger des images de personnes sans leur consentement, bien qu'il soit presque impossible d'appliquer cette clause de l'accord dans le cadre du modèle d'accès actuel dans la pratique. Cependant, aucun filtre n'est parfait et il existe de nombreuses formes d'abus plus subtiles que la pornographie directe sans le consentement de la personne représentée.
L'intelligence artificielle DALLE-2 crée des images réalistes à partir d'une description textuelle, mais la manière exacte dont elle et des réseaux de neurones similaires obtiennent le résultat est, pour la plupart, inconnue. Au début de l'été, les développeurs d'OpenAI ont fait une affirmation intrigante : leur modèle avait inventé son propre langage secret pour parler des objets représentés.
2022-09-22 16:45:40
Auteur: Vitalii Babkin