ChatGPT no escapa al escrutinio legal en trabajos académicos: la herramienta anti-trampa de OpenAI está a punto de lanzarse

El debate interno en OpenAI sobre si lanzar modelos de IA como ChatGPT se prolongó durante más de dos años. Los altos directivos de la empresa tuvieron dificultades para llegar a un consenso en el equilibrio entre seguridad e innovación, lo que resultó en un proceso de toma de decisiones prolongado. Este debate continuo pone de relieve las complejas cuestiones éticas en el desarrollo de la IA.

OpenAI desarrolló una herramienta para detectar contenido generado por IA con una precisión del 99,9%. Esta herramienta se propuso inicialmente en noviembre de 2022, pero aún no se ha hecho pública.

Las principales razones son dos:

  1. Aspectos técnicos:
  • La tasa de éxito inicial era solo del 26%, luego aumentó al 99,9%
  • Preocupación interna de que podría afectar la calidad de escritura de ChatGPT
  • Riesgo de evasión, como borrar la marca de agua mediante traducción
  1. Preferencias de los usuarios:
  • Las encuestas muestran que solo 1/4 de las personas en el mundo apoyan aumentar las herramientas de detección
  • Cerca del 30% de los usuarios de ChatGPT dicen que reducirían su uso si se implementara una marca de agua
  • Podría afectar más a los usuarios no nativos de inglés

Existe controversia interna en OpenAI. Los partidarios creen que beneficiará el desarrollo del ecosistema, los opositores temen perder usuarios. La herramienta aún no se ha lanzado.

Además de OpenAI, empresas como Google y Apple también están desarrollando herramientas similares, algunas ya en pruebas internas pero no lanzadas oficialmente.

Según encuestas, los usuarios utilizan ChatGPT principalmente para escribir (21%) y hacer tareas escolares (18%), lo que podría ser una razón por la que se oponen a la tecnología de detección.

OpenAI planea desarrollar una estrategia antes del otoño para influir en la percepción pública sobre la transparencia de la IA. Sin embargo, aún no se han anunciado medidas específicas.