Le risque légal derrière l’utilisation de ChatGPT et Dall-E 2

0

De plus en plus d’entreprises s’adonnent à la génération de contenu par IA avec DALL-E 2 et ChatGPT pour le marketing, la communication, la publicité. Mais la prudence est de mise, car ces médias synthétiques soulèvent de nombreuses questions de propriété intellectuelle encore loin d’être résolues.

Les créateurs de contenus, les équipes marketing, les blogueurs d’entreprise se précipitent pour tirer avantage des très à la mode médias synthétiques générés par IA. Et on comprend pourquoi. Les œuvres ainsi créées représentent une solution plus flexible et originale que les habituelles banques d’images qu’elles pourraient bien rendre obsolètes. D’autant que ces générateurs de contenus par IA rédigent des publications de blogs ou des annonces marketing et publicitaires décentes en quelques secondes seulement.

On parle principalement du générateur d’images par IA à partir d’une description en langage naturel DALL-E 2 et du chatbot ChatGPT capable de tenir une conversation naturelle sur n’importe quel sujet, car depuis fin 2022, des millions d’internautes dans le monde se sont mis à utiliser ces outils confidentiels encore quelques mois avant.  C’est l’entreprise privée OpenAI basée à San Francisco et propriété de l’association à but non lucratif éponyme qui est à l’origine des deux systèmes. Et ce n’est pas un détail. En effet, parmi ses fondateurs se trouvent Elon Musk (Tesla, Space X, Twitter, etc.), Peter Thiel (Paypal, Palantir), Reid Hoffman (Linkedin), AWS et Infosys. Qui plus est, Microsoft a investi 1 md$ dans l’aventure. Et si des centaines de solutions ont émergé ces dernières semaines pour faciliter l’utilisation de ces outils de base, OpenAI reste au cœur de toutes.

La tentation de la triche

Sans surprises, cette tendance soulève de nombreuses questions et inquiétudes. Et il en est une qui reste encore rarement abordée et qui pourrait s’avérer critique avec le développement croissant des usages. Dans un article sur Facebook, Darren Hick, professeur de philosophie à l’université de Furman (Caroline du Sud) a par exemple averti ses collègues enseignants du flot de devoirs écrits avec l’aide de ChatGPT qui allait les inonder.

Mais la triche augmentée par l’IA n’est pas l’apanage de quelques étudiants paresseux. Il faut s’attendre à ce que les créateurs de contenu professionnels se laissent aussi tenter. Et pour cause. DALL-E 2 et ChatGPT créent plus rapidement et pour moins cher. De plus en plus d’entreprises les utilisent déjà pour publier dans les médias sociaux ou sur des blogs ou pour des réponses automatiques aux internautes.

Les médias synthétiques préfigurent un avenir très proche dans lequel l’IA générera des publicités personnalisées pour chaque client, répondront par téléphone de façon réaliste aux consommateurs même en PME et créeront toute l’iconographie marketing, publicitaire et business des entreprises à la place des photographes et graphistes professionnels. Ces outils devraient aussi démocratiser l’écriture de code, le SEO ou la publication sans intervention humaine.

La propriété intellectuelle, côté obscur de ChatGPT

Reste cependant un point crucial encore peu pris en compte : l’impact légal de ces méthodes. Si une entreprise décide par exemple de mettre en avant sa direction dans l’onglet « à propos » de son site web, son équipe de communication peut récupérer des selfies de ses dirigeants, choisir le style d’images qu’il souhaite et injecter les originaux dans un outil de génération de fausses photos professionnelles. Elles auront l’air d’avoir été prises dans le même studio, avec le même éclairage et la même palette de couleurs. Cependant, le style choisi par l’entreprise résulte souvent d’un traitement par l’IA d’images existantes dont la propriété intellectuelle appartient à des photographes ou à des artistes (on parle ici de copyright au sens états-unien du terme). S’agit-il d’un cas de violation de la propriété intellectuelle ? Difficile de trancher aujourd’hui. L’entreprise prend aussi le risque de publier des éléments semblables ou identiques à du contenu déjà généré par ChatGPT et publié ailleurs ! Au mieux, celui-ci sera déclassé dans Google Search pour duplication et au pire, la société sera poursuivie pour plagiat.

Qui copie qui ?

Autre question : si une entreprise utilise ce type de générateurs pour écrire un article de blog et ne modifie que très peu le résultat avant de le publier, le copyright protège-t-il ou non cette publication, y compris les parties générées par IA. Et si un concurrent décide plus tard de demander à ChatGPT de rédiger un autre article sur le même thème et qu’il crée un texte avec des expressions similaires au précédent avec des changements mineurs, qui copie qui ? Qui détient les droits sur les parties de texte identiques ? OpenAI ? La première entreprise ? Les deux ? Techniquement, si le premier n’a pas vu le second, ce ne serait probablement pas considéré comme du plagiat. Mais dans ce cas, des centaines de publications quasi identiques se retrouveraient en ligne sur des sites différents avec des éléments de langage issus de ChatGPT sans pour autant que, techniquement, personne ne copie personne.

Adobe, par exemple, accepte la soumission d’œuvres d’art générées par IA pour les vendre dans sa banque d’image. L’éditeur en revendique alors la propriété intellectuelle avec l’intention d’éviter que d’autres personnes les copient ou les utilisent sans payer. Mais devraient-ils avoir le droit de propriété sur ces images ? En particulier, si leur style provient du travail publié à l’origine par un autre artiste ou photographe qui a servi à entraîner l’IA ?

Quand l’IA transgresse, qui est responsable ?

L’un des risques légaux les plus importants pourrait cependant tout simplement venir des erreurs contenues dans les textes générés. Ou encore de la création de contenus diffamatoires, offensants ou qui violent la vie privée. Alors quand l’IA transgresse, qui est responsable ?

ChatGPT autorise l’utilisation de tout ce qu’il crée à condition de signaler qu’il s’agit de contenu généré par IA. Mais le copyright est à double tranchant. Comme toutes les IA, plus ces outils disposent d’informations de base, plus le résultat de leur « travail » est précis. La plupart des textes qu’ils génèrent sont ainsi plutôt génériques et anodins que les sources sur le sujet traité sont multiples. Mais lorsque le thème est confidentiel et rarement abordé en ligne, ChatGPT peut lui-même enfreindre le copyright. Un internaute lambda qui veut que l’outil lui décrive son activité professionnelle peut récupérer une description parfaite de celle-ci utilisant ses propres mots et expressions. Et dans un tel cas, quand les conditions d’utilisation de ChatGPT autorisent l’utilisation de ce qu’il génère, il autorise en réalité l’utilisation du contenu rédigé par un internaute qui, lui, n’a donné aucune permission telle à OpenAI ni à ses utilisateurs.

Il est urgent d’attendre

Sans doute entre autres pour échapper à ces discussions sur la propriété intellectuelle, l’éditeur de ChatGPT présente son système comme une expérience que ses utilisateurs contribuent à développer en l’alimentant. Reste que de plus en plus d’entreprises l’exploitent déjà pour des usages professionnels réels. Les lois et les jurisprudences majeures destinées à gérer ces questions n’existent pas encore. Mais ce dont les sociétés qui utilisent déjà ChatGPT doivent prendre conscience, c’est que lorsqu’elles arriveront, elles s’appliqueront bel et bien aussi aux médias synthétiques publiés aujourd’hui.

La réflexion sur le sujet émerge. Le bureau états-unien du copyright (USCO) a par exemple considéré que la bande dessinée Zarya of the Dawn n’était pas éligible au copyright, car créée par une IA. L’artiste Kris Kashtanova l’a en effet générée avec la solution Midjourney basée sur ChatGPT. Le choix de l’USCO de l’exclure du copyright n’est ni une loi ni une décision de justice, mais il crée clairement un précédent. OpenAI a donné le feu vert aux usages commerciaux de DALL-E et ChatGPT. Mais ce faisant, il transfère tout le fardeau légal sur les épaules des utilisateurs, séduits en priorité par la pertinence d’usage de l’outil. Les médias synthétiques générés par l’IA transformeront sans doute un jour certaines activités professionnelles. Mais pour l’instant, pour les entreprises, il est probablement plus prudent de se contenter de les tester, mais de ne rien publier pour l’instant.

 Mike Elgan, IDG NS (adapté par Emmanuelle Delsol)

 

A lire sur le même sujet

L’arrivée massive des médias de synthèse créés par l’IA va bouleverser le marketing

 

Partager