OpenAI a instruit ChatGPT sans se soucier du droit d’auteur
Les modèles d’OpenAI, et notamment GPT-4, sont entraînés sur de nombreux livres, protégés en partie par le droit d’auteur. Une équipe de chercheurs de l’Université de Berkeley livre ses premières conclusions.
Pour produire des résultats cohérents et précis, les intelligences artificielles passent par une phase d’apprentissage intense (deep learning). Au cours de cette étape, les ingénieurs en charge de l’IA fournissent des ressources textuelles diverses et complexes.
Ainsi, lorsqu’on interroge ChatGPT sur ses données d’entraînement, le chatbot assure avoir emmagasiné des articles de journaux, de nombreux sites web, des corpus de textes spécifiques (universitaire ou collaboratif notamment), des conversations réelles (apprentissage par renforcement) ou encore des livres.
Pour mieux comprendre le processus d’apprentissage et ses conséquences sur les réponses générées par l’IA, une équipe de chercheurs de l’Université de Californie à Berkeley (Kent Chang, Mackenzie Cramer, Sandeep Soni, et David Bamman) ont étudié la liste probable des livres connus par ChatGPT et GPT-4.
« Nous avons découvert que les modèles d’OpenAI ont mémorisé une vaste collection de matériaux protégés par le droit d’auteur et que le degré de mémorisation est lié à la fréquence à laquelle des extraits de ces livres apparaissent sur le web », expliquent les universitaires au sein d’un article scientifique publié