Sortie des cales
Intelligence artificielle. Des oeuvres d’art sans artiste
Fin 2022, tout le monde semblait avoir mobilisé des dizaines, voire des centaines d’artistes à la fois, pour se faire tirer le portrait. Le bât blesse lorsqu’on réalise qu’aucun·e artiste n’avait été compensé·e, crédité·e.
Si vous avez passé quelque temps en ligne avant les fêtes, vous avez probablement été bombardé·es de photos de vos proches transformé·es en différents styles artistiques, des plus classiques à la Van Gogh au plus moderne des dernières tendances de l’art numérique. Amusante et colorée, certes, cette mode a cependant relancé le débat sur l’éthique de l’intelligence artificielle (IA), mais aussi sur la propriété intellectuelle, sur l’usage de données personnelles en ligne, voire sur ce qui constitue l’art en soi.
S’approprier des signatures artistiques
Pour comprendre l’amplitude du débat, revenons au cas d’école : Lensa. Lensa est une application de retouche photographique lancée en 2018 par Prisma Lab et qui a connu un élan de popularité en novembre 2022. En effet, son nombre de téléchargements a explosé à plus de 5 millions et elle s’est classée en tête des applications les plus populaires à la fin de 2022. Pourtant, des applications de retouche photo ou même de génération d’avatar à partir de selfies, il en existe par paquets. Ce qui va créer l’engouement pour Lensa est une option bien spécifique appelée « magic avatar ». Le principe est simple : en tant qu’usager·ère, vous téléversez des photos de vous et, en fonction du tarif choisi, le logiciel transforme des dizaines, jusqu’à des centaines de vos selfies en œuvres d’art.
Si certaines sont clairement modelées selon des figures classiques considérées comme du domaine public, d’autres, au contraire, reproduisent des styles d’artistes modernes qui n’ont jamais consenti à ce que leur art soit utilisé de la sorte. Plusieurs artistes vont donc dénoncer Lensa et parler de vol, d’appropriation et de non-respect de la propriété intellectuelle. Pour autant, leurs recours légaux sont limités et le débat va même s’enliser dans la dimension éthique de l’affaire. Tout cela dû, notamment, au mode de fonctionnement même de l’application.
Lensa s’appuie sur le travail d’un organisme à but non lucratif nommé Laion. Laion a créé d’énormes masses de données récupérées à travers tout le Web (une méthode appelée scraping), stockées puis rendues accessibles publiquement et gratuitement pour le développement de programmes d’IA, entre autres. Leur dernier projet est la base de données Laion5B, qui amasse plus de 6 milliards d’images et descriptions d’images récupérées sur le Web. C’est ce qu’utilise Lensa, dont le logiciel d’IA examine cette masse de données afin de les restituer en transformant les selfies que les usager·ères téléversent. Ce faisant, Lensa utilise une zone grise de non-droits, prévalente sur le Net, qui lui permet de générer énormément de profits tout en soulevant une masse d’enjeux légaux et éthiques.
Quel consentement ?
Laion est très claire quant à ses conditions d’utilisation. Elle rassemble toutes ces données, mais n’en tire aucun profit direct. Pour autant, un premier enjeu de consentement est soulevé : les usager·ères du Web n’ont pas massivement consenti à ce que leurs images et informations soient stockées par un projet de recherche de développement d’IA, et ce même si aucun profit n’est réalisé sur le coup. Qu’à cela ne tienne, le fonctionnement d’Internet étant ce qu’il est, la base de données existe.
Maintenant, le fait que Lensa se serve de la base de données de Laion pour réaliser un profit devient un autre enjeu. Bon nombre d’artistes, qui ont pu reconnaître leur style dans la création d’images générées par Lensa, ont tiré la sonnette d’alarme. Problème : sur quel droit peut-on se baser pour faire reconnaître le vol, dans la mesure où le logiciel utilise une base de données préexistante, gratuite et publique ? De plus, si l’artiste a déposé d’iel-même des reproductions de son art en ligne, n’a-t-iel pas consenti à renoncer à ses droits sur ce que ses œuvres deviendraient sur le Web ? Certain·es sont même allé·es plus loin dans les contre-arguments : doit-on compenser l’artiste pour l’image finale, ou faudrait-il plutôt compenser les personnes ayant codé le logiciel, ou encore les créateur·rices de la base de données qui « nourrit » l’IA ? D’ailleurs, qui possède les droits de ce qu’une IA crée ? Doit-on reconnaître le droit de propriété à cette intelligence ? D’autres ont argumenté que si on ne reconnaît pas qu’une IA est capable de faire de l’art, qui resterait l’apanage de l’être humain, alors les artistes ne devraient pas se sentir inquiété·es, mais au contraire devraient la considérer comme un outil de plus dans la palette des possibilités créatives. Cela a mené jusqu’aux grandes questions philosophiques : qu’est-ce que l’art ? Si, de nos jours, un·e artiste peut créer une œuvre entièrement en ligne, à partir de logiciels, dont certaines commandes sont préexistantes à l’usage, à quel point l’œuvre finale est-elle encore le résultat du génie humain ?
Les débats autour de ces questions sont féroces. Même au sein de la communauté des artistes concerné·es par l’affaire Lensa se trouvent absolument tous les points de vue. Néanmoins, une majorité s’accorde sur le fait que Lensa a franchi une certaine limite éthique. La preuve étant que des œuvres générées par l’IA possèdent même la copie de signatures des artistes en bas à droite des images. En effet, le logiciel n’avait pas automatiquement compris que les signatures artistiques ne font pas partie de l’art, mais sont censées être des preuves d’authenticité. D’où l’erreur quelque peu accablante.
Des dérives inquiétantes
De mon point de vue, qui n’est pas celui d’une artiste et ni d’une philosophe, mais celui d’une sociologue issue de communautés minoritaires, ce no man’s land de droits entourant l’IA est terrifiant. Si on se base sur l’histoire de l’humanité, nous avons clairement un très mauvais historique en termes de marchandisation à outrance, de dévalorisation de la créativité, de pratiques de rémunération et d’attribution de crédit. Déjà, le fait qu’un logiciel soit en mesure de produire en quelques secondes des centaines de styles artistiques esquisse la menace de la production de masse. Et qui dit production de masse dit perte de valeur. Pourquoi une entreprise paierait plusieurs artistes pour des styles qu’iels ont mis des années à développer, si une application peut le faire pour moins de 10 $ ? Dans un domaine où il est déjà difficile de faire carrière, cela pose une nouvelle barrière supplémentaire. À long terme, cela signifie que moins de personnes seront en mesure de se consacrer à une carrière artistique. Ce qui va avoir des conséquences importantes, inévitablement, sur les communautés les plus marginalisées.
Les inégalités vont donc être renforcées, ce qui est malheureusement un trait commun du déploiement de plusieurs logiciels d’IA. Ces derniers ont en effet tendance à amplifier des schémas prédéfinis. Il n’est pas étonnant, par exemple, qu’il n’ait suffi que de quelques heures sur Twitter pour qu’un logiciel de conversation basé sur l’IA (un chatbot) émette des propos racistes. De plus, l’homogénéité des programmeurs de ce type de logiciel – massivement hommes, blancs, cis et hétéros – a mené à d’énormes biais dans la mise en place de programmes. On a l’exemple de voitures automatiques qui ne s’arrêtent pas en détectant qu’une enfant traverse la route lorsque l’enfant n’est pas blanc. Les développeur·euses du programme n’avaient tout simplement pas pris en compte les nuances de couleurs de la peau. Ce type de biais, aux conséquences potentiellement tragiques, est également largement dénoncé.
En somme, l’IA a la capacité de se nourrir du pire de l’humanité, et ce, en quelques clics et microsecondes. Si l’être humain est loin d’être prêt·e pour ce qu’elle va en produire, d’autres ont déjà commencé à en tirer d’immenses profits. L’argent avant l’éthique, comme toujours. Et finalement, j’ai peut-être mis le doigt sur une nouvelle différence fondamentale entre l’IA et l’être humain : l’IA apprend de ses erreurs constamment, mais pas nous.