O "fabricante de desinformação" é o destino da GenAI?
Pesquisadores descobriram que a maioria dos casos de uso indevido de GenAI são usos normais do sistema, sem comportamento de "fuga da prisão", e essas "operações de rotina" representam 90% dos casos.
Como os pesquisadores explicaram posteriormente no artigo, a ampla disponibilidade, acessibilidade e hiper-realismo da GenAI tornaram possíveis formas emergentes e de baixo nível de uso indevido - o custo de gerar desinformação é simplesmente muito baixo!
Depois de ler este artigo, você pode inevitavelmente sentir que as pessoas não estão abusando da GenAI, mas apenas usando-a normalmente de acordo com o design do produto.
As pessoas usam inteligência artificial generativa para produzir grandes quantidades de conteúdo falso porque ela é muito boa em realizar essa tarefa.
Muito conteúdo falso geralmente não tem malícia óbvia nem viola claramente as políticas de conteúdo ou termos de serviço dessas ferramentas, mas seu dano potencial é enorme.
Esta observação está alinhada com relatórios anteriores da 404 Media.
Aqueles que usam inteligência artificial para se passar por outras pessoas, ampliar a escala e o alcance de conteúdo prejudicial ou criar imagens íntimas não consensuais (NCII) geralmente não invadem ou manipulam as ferramentas de geração de IA que estão usando, eles as usam dentro dos limites permitidos.
É fácil dar dois exemplos:
As "cercas" das ferramentas de IA podem ser contornadas habilmente com alguns prompts, nada impede os usuários de usar a ferramenta de clonagem de voz AI da ElevenLabs para imitar de forma altamente realista a voz de colegas ou celebridades.
Os usuários do Civitai podem criar imagens de celebridades geradas por IA, e embora a plataforma tenha uma política que proíbe NCII, nada impede os usuários de usar ferramentas de código aberto no GitHub (como Automatic1111 ou ComfyUI) em suas próprias máquinas para gerar NCII.
Postar esse conteúdo gerado por IA no Facebook pode violar as políticas da plataforma, mas o ato de gerá-lo em si não viola as políticas dos geradores de imagens de IA que eles estão usando.
Mídia: O uso indevido da GenAI é apenas a ponta do iceberg
Como o material de pesquisa do Google vem em grande parte de reportagens da mídia, isso levanta uma questão: isso tornaria as conclusões da pesquisa tendenciosas pela mídia? Afinal, a mídia, como um holofote, tem seus próprios vieses na seleção de tópicos e reportagens.
Eventos sensacionalistas são mais propensos a serem relatados, o que pode levar o conjunto de dados a se inclinar para certos tipos de uso indevido.
A 404 Media respondeu a isso: embora a mídia só possa relatar os incidentes que pode verificar, uma coisa é certa: há muito uso indevido de inteligência artificial generativa que ainda não percebemos e que não foi relatado.
Mesmo o caso mencionado acima de usar IA para gerar imagens pornográficas de celebridades, que foi amplamente exposto pela mídia, ainda sofre de subnotificação.
Primeiro, porque o tópico ainda é tabu, e muitas publicações não querem relatá-lo.
Em segundo lugar, porque a mídia só pode capturar casos individuais e não pode sempre focar no quadro geral e no acompanhamento dos eventos. Um editor da 404 Media escreveu:
Antes de eu entrar em contato com o oficial do Patreon para uma resposta (depois que o porta-voz fechou sua conta), escrevi um relatório sobre um usuário lucrando com NCII no Patreon, que fez 53.190 imagens não consensuais de celebridades. Esse relatório também mencionou outros dois criadores de NCII, e depois descobri outros. As imagens de nudez geradas por IA de Taylor Swift que se tornaram virais no Twitter foram compartilhadas pela primeira vez nas comunidades do Telegram e 4chan, que estavam ativas antes e depois daquele relatório explodido em janeiro, e desde então, eles têm postado NCII todos os dias. Eu e outros repórteres não relataremos cada imagem e criador, porque se o fizéssemos, não teríamos tempo para fazer mais nada.
Quando a desinformação é generalizada, torna-se fácil culpar a IA
Vamos fazer uma projeção, o que acontecerá quando a internet estiver cheia de conteúdo gerado por inteligência artificial?
A consequência mais direta é que o caos na internet trará um enorme desafio à capacidade das pessoas de distinguir entre verdadeiro e falso, e cairemos em uma dúvida frequente: "Isso é real?"
Nos primeiros dias da internet, uma frase popular era "você não sabe se é uma pessoa ou um cachorro do outro lado do cabo", agora essa tendência está se intensificando, as pessoas estão sendo inundadas com conteúdo falso gerado por IA e estão cada vez mais cansadas de lidar com isso.
Se não for resolvido, a poluição dos dados públicos pelo conteúdo gerado por IA também pode impedir a recuperação de informações e distorcer o entendimento coletivo das realidades sociopolíticas ou do consenso científico.
Além disso, isso pode se tornar um "escudo" para algumas figuras públicas, em certas situações, elas podem explicar evidências desfavoráveis a elas como geradas por IA, transferindo facilmente o ônus da prova.
Quanto à proliferação de conteúdo falso trazido pela IA generativa, o Google desempenhou um papel de facilitador, e pode-se até dizer que foi o "instigador". A bala disparada há muitos anos finalmente atingiu sua própria testa hoje.
Referências:
https://arxiv.org/abs/2406.13843
https://futurism.com/the-byte/google-researchers-paper-ai-internet