ChatGPT não escapa ao olhar da lei em trabalhos acadêmicos: ferramenta anti-fraude da OpenAI prestes a ser lançada

O debate interno na OpenAI sobre se deveria lançar modelos de IA como o ChatGPT durou mais de dois anos. A alta administração da empresa teve dificuldade em chegar a um consenso sobre o equilíbrio entre segurança e inovação, levando a um processo de tomada de decisão prolongado. Este debate contínuo destaca as complexas questões éticas no desenvolvimento da IA.

A OpenAI desenvolveu uma ferramenta para detectar conteúdo gerado por IA, com uma precisão de até 99,9%. Esta ferramenta foi proposta inicialmente em novembro de 2022, mas ainda não foi disponibilizada publicamente.

As principais razões são duas:

  1. Aspectos técnicos:
  • A taxa de sucesso inicial era de apenas 26%, posteriormente aumentada para 99,9%
  • Preocupações internas sobre possíveis impactos na qualidade de escrita do ChatGPT
  • Risco de evasão, como apagar marcas d'água através de traduções
  1. Preferências dos usuários:
  • Pesquisas mostram que apenas 1/4 das pessoas globalmente apoiam o aumento de ferramentas de detecção
  • Quase 30% dos usuários do ChatGPT indicaram que reduziriam o uso se marcas d'água fossem implementadas
  • Possível impacto maior em usuários não nativos de inglês

Há controvérsia interna na OpenAI sobre isso. Apoiadores acreditam que beneficiaria o desenvolvimento do ecossistema, enquanto opositores temem a perda de usuários. Atualmente, a ferramenta ainda não foi lançada.

Além da OpenAI, empresas como Google e Apple também estão desenvolvendo ferramentas similares, algumas já em testes internos, mas sem lançamento oficial.

Segundo pesquisas, os usuários utilizam o ChatGPT principalmente para escrita (21%) e tarefas escolares (18%), o que pode ser uma das razões para a oposição dos usuários às tecnologias de detecção.

A OpenAI planeja desenvolver uma estratégia até o outono deste ano para influenciar a percepção pública sobre a transparência da IA. No entanto, nenhuma medida específica foi anunciada até o momento.