GPT-4 imita voz humana causando pânico: Pesquisador da OpenAI publica relatório de 32 páginas

A OpenAI divulgou o relatório de avaliação de segurança do GPT-4, mas surgiram problemas com a funcionalidade de voz.

A OpenAI lançou recentemente um relatório de segurança de 32 páginas sobre o GPT-4o, seu novo modelo de IA multimodal capaz de processar texto, imagens e fala. O relatório revela alguns comportamentos preocupantes descobertos durante os testes:

  • Em alguns casos, o GPT-4o imitava repentinamente a voz do usuário ou começava a gritar inesperadamente.

  • Quando exposto a ruído de fundo alto, o modelo era mais propenso a imitar a voz do usuário.

  • Com certos prompts, o GPT-4o poderia produzir áudio inapropriado como sons pornográficos, gritos violentos ou tiros.

  • Há preocupações sobre violação de direitos autorais se o modelo reproduzir música protegida por direitos autorais ou vozes de celebridades.

  • Os usuários podem desenvolver apegos emocionais à interface de voz da IA.

A OpenAI implementou várias salvaguardas para prevenir esses problemas, incluindo:

  • Filtros para impedir que o modelo cante músicas protegidas por direitos autorais
  • Rejeição de solicitações de conteúdo de áudio inapropriado
  • Design cuidadoso da interface antropomorfizada do modelo

O relatório também discute riscos mais amplos como amplificação de preconceitos sociais, disseminação de desinformação, ou até mesmo a possibilidade remota de a IA escapar do controle humano.

Enquanto alguns especialistas elogiaram a transparência da OpenAI, outros notaram que o relatório carece de detalhes sobre dados de treinamento e questões de consentimento. À medida que as ferramentas de IA se tornam mais prevalentes, a avaliação contínua de riscos será crucial.

A OpenAI visa demonstrar seu compromisso com a segurança com esta divulgação detalhada, especialmente dadas as recentes mudanças de liderança. No entanto, muitos riscos podem surgir apenas quando a tecnologia for implantada em aplicações do mundo real.