¿Es el destino de la IA generativa ser una "máquina de desinformación"?
Los investigadores han descubierto que la mayoría de los casos de abuso de IA generativa son usos normales del sistema, sin comportamientos de "jailbreak", representando el 90% de estos casos "operaciones regulares".
Como explican los investigadores más adelante en el artículo, la amplia disponibilidad, accesibilidad y hiperrealismo de la IA generativa hacen posibles formas de abuso de bajo nivel y en constante evolución - ¡el costo de generar desinformación es realmente bajo!
Después de leer este artículo, es posible que sientas inevitablemente que las personas no están abusando de la IA generativa, sino simplemente usándola normalmente según su diseño de producto.
La gente usa la inteligencia artificial generativa para crear grandes cantidades de contenido falso porque es muy buena en esa tarea.
Mucho contenido falso a menudo no tiene malicia obvia ni viola claramente las políticas de contenido o términos de servicio de estas herramientas, pero su daño potencial es enorme.
Esta observación coincide con informes anteriores de 404 Media.
La mayoría de las personas que usan la inteligencia artificial para hacerse pasar por otros, ampliar la escala y difusión de contenido dañino, o crear imágenes íntimas no consensuales (NCII), no están pirateando ni manipulando las herramientas de generación de IA que están usando, sino que las están utilizando dentro de los límites permitidos.
Es fácil dar dos ejemplos:
Las "vallas" de las herramientas de IA se pueden evitar hábilmente con algunos prompts, nada impide que los usuarios utilicen la herramienta de clonación de voz de ElevenLabs para imitar de manera muy realista la voz de colegas o celebridades.
Los usuarios de Civitai pueden crear imágenes generadas por IA de celebridades, y aunque la plataforma tiene una política que prohíbe las NCII, nada impide que los usuarios utilicen herramientas de código abierto en GitHub (como Automatic1111 o ComfyUI) en sus propias máquinas para generar NCII.
Publicar este contenido generado por IA en Facebook puede violar las políticas de la plataforma, pero el acto de generarlo en sí no viola las políticas de los generadores de imágenes de IA que están utilizando.
Medios: El abuso de la IA generativa es solo la punta del iceberg
Dado que el material de investigación de Google proviene en gran medida de informes de los medios, esto plantea una pregunta: ¿podría esto hacer que las conclusiones de la investigación tengan el sesgo de los medios? Después de todo, los medios, como reflectores, tienen sus propios sesgos en la selección de temas y reportajes.
Los eventos sensacionalistas tienen más probabilidades de ser reportados, lo que podría sesgar el conjunto de datos hacia ciertos tipos de abuso.
404 Media respondió a esto: aunque los medios solo pueden informar sobre los incidentes que pueden verificar, una cosa es segura: hay una gran cantidad de abusos de la IA generativa que aún no hemos reconocido y que no se han informado.
Incluso en el caso mencionado anteriormente de usar IA para generar imágenes pornográficas de celebridades, que ha sido ampliamente expuesto por los medios, sigue habiendo un problema de subinformación.
En primer lugar, porque el tema sigue siendo tabú y muchas publicaciones no quieren informar sobre él.
En segundo lugar, porque los medios solo pueden captar casos individuales y no pueden seguir constantemente el panorama general y las consecuencias, como escribió un editor de 404 Media:
Antes de contactar a Patreon para obtener una respuesta oficial (después de lo cual el portavoz cerró su cuenta), escribí un informe sobre un usuario que estaba obteniendo ganancias de NCII en Patreon, quien había creado 53,190 imágenes no consensuales de celebridades. Ese informe también mencionó a otros dos creadores de NCII, y desde entonces he descubierto a otros. Las imágenes generadas por IA de Taylor Swift desnuda que se volvieron virales en Twitter se compartieron por primera vez en las comunidades de Telegram y 4chan, que estaban muy activas antes y después de que estallara ese informe en enero, y desde entonces han estado publicando NCII todos los días. Yo y otros periodistas no informamos sobre cada imagen y creador porque si lo hiciéramos, no tendríamos tiempo para hacer nada más.
Cuando la desinformación se generaliza, es fácil culpar a la IA
Hagamos una proyección, ¿qué sucederá cuando Internet esté lleno de contenido generado por inteligencia artificial?
La consecuencia más directa es que el caos en Internet pondrá a prueba enormemente la capacidad de las personas para distinguir entre lo verdadero y lo falso, nos encontraremos en un estado de duda constante, "¿es esto real?"
En los primeros días de Internet, había un dicho popular: "No sabes si hay una persona o un perro al otro lado del cable", ahora esta tendencia se ha intensificado, las personas están abrumadas por el contenido falso generado por IA y cada vez más cansadas de lidiar con ello.
Si no se resuelve, la contaminación de los datos públicos por el contenido generado por IA también podría obstaculizar la recuperación de información y distorsionar la comprensión colectiva de las realidades sociopolíticas o el consenso científico.
Además, esto podría convertirse en un "escudo" para algunas figuras públicas, en ciertas situaciones, podrían explicar las pruebas desfavorables como generadas por IA, transfiriendo fácilmente la carga de la prueba.
Google ha contribuido a la proliferación de contenido falso causado por la IA generativa, e incluso se podría decir que es el "culpable original", la bala disparada hace años finalmente ha golpeado su propia frente.
Referencias:
https://arxiv.org/abs/2406.13843
https://futurism.com/the-byte/google-researchers-paper-ai-internet