AI时代下的互联网困境:谷歌警示 O dilema da internet na era da IA: alerta do Google 谷歌首席执行官桑达尔·皮查伊近日表示,人工智能可能会对互联网产生深远影响,甚至可能威胁到谷歌的核心搜索业务。 O CEO do Google, Sundar Pichai, afirmou recentemente que a inteligência artificial pode ter um impacto profundo na internet, podendo até ameaçar o negócio principal de busca do Google. 皮查伊指出,AI生成的内容可能会充斥网络,导致高质量原创内容减少。这将使搜索引擎难以找到可靠信息,影响用户体验。 Pichai apontou que o conteúdo gerado por IA pode inundar a web, levando a uma redução de conteúdo original de alta qualidade. Isso tornará difícil para os motores de busca encontrar informações confiáveis, afetando a experiência do usuário. 他表示,谷歌正在积极应对这一挑战,包括改进搜索算法以识别AI内容,以及开发新的AI工具来帮助创作者生成高质量内容。 Ele afirmou que o Google está ativamente enfrentando esse desafio, incluindo a melhoria dos algoritmos de busca para identificar conteúdo de IA, bem como o desenvolvimento de novas ferramentas de IA para ajudar os criadores a gerar conteúdo de alta qualidade. 但皮查伊也承认,这是一个复杂的问题,需要整个行业共同努力来解决。他呼吁制定新的规则和标准,以确保AI技术的负责任使用。 No entanto, Pichai também reconheceu que este é um problema complexo que requer esforços conjuntos de toda a indústria para resolver. Ele pediu o estabelecimento de novas regras e padrões para garantir o uso responsável da tecnologia de IA. 这一警告引发了人们对AI对互联网未来影响的担忧。一些专家认为,我们需要重新思考互联网的运作方式,以适应AI时代的到来。 Este alerta levantou preocupações sobre o impacto futuro da IA na internet. Alguns especialistas acreditam que precisamos repensar a forma como a internet funciona para se adaptar à chegada da era da IA.

Na era da desinformação generalizada, culpar a inteligência artificial tornou-se uma prática conveniente.

O "fabricante de desinformação" é o destino da GenAI?

Pesquisadores descobriram que a maioria dos casos de uso indevido de GenAI são usos normais do sistema, sem comportamento de "fuga da prisão", e essas "operações de rotina" representam 90% dos casos.

Como os pesquisadores explicaram posteriormente no artigo, a ampla disponibilidade, acessibilidade e hiper-realismo da GenAI tornaram possíveis formas emergentes e de baixo nível de uso indevido - o custo de gerar desinformação é simplesmente muito baixo!

Depois de ler este artigo, você pode inevitavelmente sentir que as pessoas não estão abusando da GenAI, mas apenas usando-a normalmente de acordo com o design do produto.

As pessoas usam inteligência artificial generativa para produzir grandes quantidades de conteúdo falso porque ela é muito boa em realizar essa tarefa.

Muito conteúdo falso geralmente não tem malícia óbvia nem viola claramente as políticas de conteúdo ou termos de serviço dessas ferramentas, mas seu dano potencial é enorme.

Esta observação está alinhada com relatórios anteriores da 404 Media.

Aqueles que usam inteligência artificial para se passar por outras pessoas, ampliar a escala e o alcance de conteúdo prejudicial ou criar imagens íntimas não consensuais (NCII) geralmente não invadem ou manipulam as ferramentas de geração de IA que estão usando, eles as usam dentro dos limites permitidos.

É fácil dar dois exemplos:

As "cercas" das ferramentas de IA podem ser contornadas habilmente com alguns prompts, nada impede os usuários de usar a ferramenta de clonagem de voz AI da ElevenLabs para imitar de forma altamente realista a voz de colegas ou celebridades.

Os usuários do Civitai podem criar imagens de celebridades geradas por IA, e embora a plataforma tenha uma política que proíbe NCII, nada impede os usuários de usar ferramentas de código aberto no GitHub (como Automatic1111 ou ComfyUI) em suas próprias máquinas para gerar NCII.

Postar esse conteúdo gerado por IA no Facebook pode violar as políticas da plataforma, mas o ato de gerá-lo em si não viola as políticas dos geradores de imagens de IA que eles estão usando.

Mídia: O uso indevido da GenAI é apenas a ponta do iceberg

Como o material de pesquisa do Google vem em grande parte de reportagens da mídia, isso levanta uma questão: isso tornaria as conclusões da pesquisa tendenciosas pela mídia? Afinal, a mídia, como um holofote, tem seus próprios vieses na seleção de tópicos e reportagens.

Eventos sensacionalistas são mais propensos a serem relatados, o que pode levar o conjunto de dados a se inclinar para certos tipos de uso indevido.

A 404 Media respondeu a isso: embora a mídia só possa relatar os incidentes que pode verificar, uma coisa é certa: há muito uso indevido de inteligência artificial generativa que ainda não percebemos e que não foi relatado.

Mesmo o caso mencionado acima de usar IA para gerar imagens pornográficas de celebridades, que foi amplamente exposto pela mídia, ainda sofre de subnotificação.

Primeiro, porque o tópico ainda é tabu, e muitas publicações não querem relatá-lo.

Em segundo lugar, porque a mídia só pode capturar casos individuais e não pode sempre focar no quadro geral e no acompanhamento dos eventos. Um editor da 404 Media escreveu:

Antes de eu entrar em contato com o oficial do Patreon para uma resposta (depois que o porta-voz fechou sua conta), escrevi um relatório sobre um usuário lucrando com NCII no Patreon, que fez 53.190 imagens não consensuais de celebridades. Esse relatório também mencionou outros dois criadores de NCII, e depois descobri outros. As imagens de nudez geradas por IA de Taylor Swift que se tornaram virais no Twitter foram compartilhadas pela primeira vez nas comunidades do Telegram e 4chan, que estavam ativas antes e depois daquele relatório explodido em janeiro, e desde então, eles têm postado NCII todos os dias. Eu e outros repórteres não relataremos cada imagem e criador, porque se o fizéssemos, não teríamos tempo para fazer mais nada.

Quando a desinformação é generalizada, torna-se fácil culpar a IA

Vamos fazer uma projeção, o que acontecerá quando a internet estiver cheia de conteúdo gerado por inteligência artificial?

A consequência mais direta é que o caos na internet trará um enorme desafio à capacidade das pessoas de distinguir entre verdadeiro e falso, e cairemos em uma dúvida frequente: "Isso é real?"

Nos primeiros dias da internet, uma frase popular era "você não sabe se é uma pessoa ou um cachorro do outro lado do cabo", agora essa tendência está se intensificando, as pessoas estão sendo inundadas com conteúdo falso gerado por IA e estão cada vez mais cansadas de lidar com isso.

Se não for resolvido, a poluição dos dados públicos pelo conteúdo gerado por IA também pode impedir a recuperação de informações e distorcer o entendimento coletivo das realidades sociopolíticas ou do consenso científico.

Além disso, isso pode se tornar um "escudo" para algumas figuras públicas, em certas situações, elas podem explicar evidências desfavoráveis a elas como geradas por IA, transferindo facilmente o ônus da prova.

Quanto à proliferação de conteúdo falso trazido pela IA generativa, o Google desempenhou um papel de facilitador, e pode-se até dizer que foi o "instigador". A bala disparada há muitos anos finalmente atingiu sua própria testa hoje.

Referências:

https://arxiv.org/abs/2406.13843

https://futurism.com/the-byte/google-researchers-paper-ai-internet