A OpenAI lançou recentemente um relatório de segurança de 32 páginas sobre o GPT-4o, seu novo modelo de IA multimodal capaz de processar texto, imagens e fala. O relatório revela alguns comportamentos preocupantes descobertos durante os testes:
-
Em alguns casos, o GPT-4o imitava repentinamente a voz do usuário ou começava a gritar inesperadamente.
-
Quando exposto a ruído de fundo alto, o modelo era mais propenso a imitar a voz do usuário.
-
Com certos prompts, o GPT-4o poderia produzir áudio inapropriado como sons pornográficos, gritos violentos ou tiros.
-
Há preocupações sobre violação de direitos autorais se o modelo reproduzir música protegida por direitos autorais ou vozes de celebridades.
-
Os usuários podem desenvolver apegos emocionais à interface de voz da IA.
A OpenAI implementou várias salvaguardas para prevenir esses problemas, incluindo:
- Filtros para impedir que o modelo cante músicas protegidas por direitos autorais
- Rejeição de solicitações de conteúdo de áudio inapropriado
- Design cuidadoso da interface antropomorfizada do modelo
O relatório também discute riscos mais amplos como amplificação de preconceitos sociais, disseminação de desinformação, ou até mesmo a possibilidade remota de a IA escapar do controle humano.
Enquanto alguns especialistas elogiaram a transparência da OpenAI, outros notaram que o relatório carece de detalhes sobre dados de treinamento e questões de consentimento. À medida que as ferramentas de IA se tornam mais prevalentes, a avaliação contínua de riscos será crucial.
A OpenAI visa demonstrar seu compromisso com a segurança com esta divulgação detalhada, especialmente dadas as recentes mudanças de liderança. No entanto, muitos riscos podem surgir apenas quando a tecnologia for implantada em aplicações do mundo real.