Le "fabricant de fausses informations" est-il le destin inévitable de l'IA générative ?
Les chercheurs ont découvert que la plupart des cas d'abus de l'IA générative sont en fait une utilisation normale du système, sans "évasion", et que ce type d'opérations "routinières" représente 90% des cas.
Comme l'expliquent les chercheurs plus loin dans l'article, la large disponibilité, l'accessibilité et le caractère surréaliste de l'IA générative permettent des formes d'abus de bas niveau émergentes et variées - le coût de génération de fausses informations est tout simplement trop faible !
Après avoir lu cet article, vous pourriez avoir le sentiment involontaire que les gens n'abusent pas de l'IA générative, mais l'utilisent simplement normalement selon sa conception.
Les gens utilisent l'IA générative pour produire de grandes quantités de faux contenus parce qu'elle est naturellement très douée pour cette tâche.
Beaucoup de faux contenus n'ont souvent ni intention malveillante évidente, ni violation claire des politiques de contenu ou des conditions d'utilisation de ces outils, mais leurs dommages potentiels sont énormes.
Cette observation est cohérente avec les précédents reportages de 404 Media.
La plupart des personnes qui utilisent l'IA pour usurper l'identité d'autres personnes, amplifier l'échelle et la diffusion de contenus indésirables, ou créer des images intimes non consensuelles (NCII), n'ont pas piraté ou manipulé les outils de génération d'IA qu'ils utilisent, ils les utilisent dans les limites autorisées.
Deux exemples simples peuvent être cités :
Les "barrières" des outils d'IA peuvent être habilement contournées avec certaines invites, rien n'empêche les utilisateurs d'utiliser l'outil de clonage vocal IA d'ElevenLabs pour imiter de manière très réaliste la voix de collègues ou de célébrités.
Les utilisateurs de Civitai peuvent créer des images de célébrités générées par IA, et bien que la plateforme ait une politique interdisant les NCII, rien n'empêche les utilisateurs d'utiliser des outils open source sur GitHub (comme Automatic1111 ou ComfyUI) sur leurs propres machines pour générer des NCII.
Publier ces contenus générés par IA sur Facebook peut violer les politiques de la plateforme, mais l'acte de génération lui-même ne viole pas les politiques des générateurs d'images IA qu'ils utilisent.
Médias : L'abus de l'IA générative n'est que la partie émergée de l'iceberg
Comme les matériaux de recherche de Google proviennent largement de reportages médiatiques, cela soulève une question : cela ne risque-t-il pas de biaiser les conclusions de la recherche avec les préjugés des médias ? Après tout, les médias, en tant que projecteurs, ont leurs propres orientations dans le choix des sujets et des reportages.
Les événements sensationnels sont plus susceptibles d'être rapportés, ce qui pourrait biaiser l'ensemble de données vers certains types d'abus.
404 Media a répondu à cela : bien que les médias ne puissent rapporter que les incidents qu'ils peuvent vérifier, une chose est certaine, c'est qu'il y a encore beaucoup d'abus de l'IA générative dont nous n'avons pas encore conscience et qui n'ont pas été rapportés.
Même dans le cas mentionné ci-dessus de la génération d'images pornographiques de célébrités par IA, qui a été largement exposé par les médias, il existe toujours un problème de sous-déclaration.
Premièrement, parce que ce sujet reste tabou, de nombreuses publications sont réticentes à en parler.
Deuxièmement, parce que les médias ne peuvent saisir que des cas individuels et ne peuvent pas toujours suivre l'ensemble et les suites des événements, un éditeur de 404 Media a écrit :
Avant que je ne contacte Patreon pour une réponse officielle (après quoi le porte-parole a fermé son compte), j'avais écrit un article sur un utilisateur qui gagnait de l'argent sur Patreon grâce aux NCII, ayant créé 53 190 images de célébrités sans consentement. Cet article mentionnait également deux autres créateurs de NCII, et j'en ai découvert d'autres depuis. Les images nues générées par IA de Taylor Swift qui sont devenues virales sur Twitter ont été partagées pour la première fois dans les communautés Telegram et 4chan, qui étaient très actives avant et après l'éclatement de cet article en janvier, et depuis, elles publient des NCII quotidiennement. Moi et d'autres journalistes ne rapportons pas chaque image et créateur, car si nous le faisions, nous n'aurions pas le temps de faire autre chose.
Quand les fausses informations prolifèrent, il devient facile de rejeter la faute sur l'IA
Faisons une projection, que se passera-t-il lorsque l'internet sera inondé de contenus générés par l'IA ?
La conséquence la plus directe est que le chaos sur internet mettra à rude épreuve la capacité des gens à distinguer le vrai du faux, nous serons plongés dans un doute constant, "Est-ce vrai ?"
À l'époque où internet venait d'apparaître, une phrase populaire était "Vous ne savez pas si c'est un homme ou un chien de l'autre côté du câble", maintenant cette tendance s'est intensifiée, les gens sont submergés par de faux contenus générés par l'IA et sont de plus en plus fatigués d'y faire face.
Si ce problème n'est pas résolu, la pollution des données publiques par les contenus générés par l'IA pourrait également entraver la recherche d'informations et déformer la compréhension collective des réalités sociopolitiques ou du consensus scientifique.
De plus, cela pourrait devenir un "bouclier" pour certaines personnalités connues qui, dans certaines situations, pourraient expliquer les preuves défavorables à leur encontre comme étant générées par l'IA, déplaçant ainsi habilement la charge de la preuve.
Google a joué un rôle dans la prolifération des faux contenus générés par l'IA générative, on pourrait même dire qu'il en est l'instigateur, la balle tirée il y a de nombreuses années a finalement frappé son propre front aujourd'hui.
Références :
https://arxiv.org/abs/2406.13843
https://futurism.com/the-byte/google-researchers-paper-ai-internet