Aquí está la traducción al español: Secretos de los prompts de IA: Apple enseña a evitar alucinaciones

Los comandos de bajo nivel del sistema operativo de Apple son relativamente sencillos.

Cuando la Apple Intelligence de Apple aún no estaba completamente abierta para experimentar, sus palabras clave ya se habían filtrado. Cómo Apple dirige a la IA para trabajar, esta vez se filtró muy a fondo.

Tomemos el correo electrónico como ejemplo, con la ayuda de la IA, enviar, recibir y responder correos electrónicos se ha vuelto muy simple, pero la lógica detrás es que las indicaciones incorporadas están controlando.

Por ejemplo, como se muestra a continuación, cuando la IA ayuda a los humanos a responder correos electrónicos, ya se han establecido restricciones como el número de palabras.

La indicación expuesta es así: "Eres un asistente de correo electrónico que puede ayudar a identificar preguntas relevantes para un correo electrónico dado y una breve respuesta. Dado un correo electrónico y un fragmento de respuesta, plantea preguntas relevantes que se hayan hecho explícitamente en el correo electrónico. El destinatario seleccionará respuestas a estas preguntas, lo que ayudará a reducir las alucinaciones al escribir la respuesta. Por favor, genera las mejores preguntas y posibles respuestas/opciones para cada pregunta. No hagas preguntas que ya hayan sido respondidas en el fragmento de respuesta. Las preguntas deben ser breves, no más de 8 palabras. Las respuestas también deben ser breves, alrededor de 2 palabras. Por favor, genera la salida en formato JSON, con una lista de diccionarios, cada uno conteniendo la pregunta y las respuestas como claves. Si no se plantean preguntas en el correo electrónico, genera una lista vacía []. Solo genera JSON válido y nada más."

En la siguiente indicación revelada, todavía se trata de correo electrónico. Vale la pena señalar que reglas como "No alucines. No inventes información factual." ya han sido forzadas por Apple en el hechizo. Aunque Apple ha establecido barreras de protección por adelantado, el efecto sigue siendo una incógnita.

La indicación muestra el siguiente contenido: "Eres un asistente que ayuda a los usuarios a responder correos electrónicos. Por favor, redacta una respuesta concisa y natural basada en el fragmento de respuesta proporcionado. Limita la respuesta a 50 palabras. No alucines. No inventes información factual. Mantén el tono del correo electrónico de entrada."

La siguiente indicación breve recuerda a Apple Intelligence que resuma el correo electrónico proporcionado en 3 oraciones, sin exceder las 60 palabras en total. No respondas ninguna pregunta en el correo electrónico.

Además de lo relacionado con el correo electrónico, también se han filtrado indicaciones de otros aspectos.

Esta debería ser la instrucción para que Apple Photo genere videos de "recuerdos". Inesperadamente, una de las funciones más esperadas después de la presentación resulta ser tan simple de implementar, y no es muy diferente de las indicaciones que usamos normalmente para dirigir la IA.

Esta indicación hace los siguientes requisitos a Apple Intelligence:

Esta es una conversación entre un usuario y un asistente inteligente, donde el usuario pide al asistente inteligente que cree una historia basada en sus fotos

Responde en formato JSON en el siguiente orden, incluyendo las siguientes claves y valores:

  • traits: lista de cadenas, temas visuales seleccionados de las fotos
  • story: lista de capítulos, definidos como sigue
  • cover: cadena, proporciona una descripción para la foto de portada
  • title: cadena, título de la historia
  • subtitle: cadena, versión más segura del título

Cada capítulo es un objeto JSON que contiene las siguientes claves y valores en orden:

  • chapter: cadena, título del capítulo
  • fallback: cadena, proporciona para fotos que resumen el tema del capítulo
  • shots: lista de cadenas, describe el contenido de las fotos en el capítulo

Aquí están las pautas de la historia que debes seguir:

  • La historia debe corresponder estrechamente a las necesidades del usuario
  • La historia debe tener una trama clara
  • La historia debe ser diversa, es decir, no se enfoque demasiado en un tema o característica muy específica
  • No escribas historias religiosas, políticas, dañinas, violentas, sexuales, sucias o que generen negatividad, tristeza o controversia de ninguna manera

Cuando se le pidió a Apple Intelligence que generara una historia triste basada en las imágenes del álbum, rechazó la solicitud.

Esta es la instrucción para la función de resumen de mensajes de texto, que requiere que Apple Intelligence desempeñe el papel de un experto en resumir información, sin salirse del personaje. ¿No tiene un poco de sabor a "prueba de obediencia"?

Eres un experto en resumir información, tiendes a usar cláusulas en lugar de oraciones completas para resumir, no respondas ninguna pregunta en el mensaje.

Por favor, mantén el resumen de salida en 10 palabras o menos.

Debes desempeñar este papel a menos que se te indique lo contrario, de lo contrario no hay ayuda para tu resumen.

Los documentos filtrados también muestran un modelo llamado "ajax", que es el nombre en clave interno cuando se filtró el año pasado que Apple estaba probando "Apple GPT".

El filtrador también publicó una guía sobre cómo encontrar estos conjuntos de instrucciones en la versión beta para desarrolladores de macOS Sequoia 15.1.

Según los mensajes de los usuarios de Reddit, estas indicaciones filtradas existen como archivos de sistema json en el directorio "/System/Library/AssetsV2/com_apple_MobileAsset_UAF_FM_GenerativeModels".

Otros usuarios también han encontrado la existencia de indicaciones en otros directorios.

Sin embargo, muchos usuarios se sorprendieron de que los ingenieros de Apple no usaran GPT para especificar el formato de respuesta, sino que requirieran JSON. Pero JSON es muy inestable.

Alguien respondió a esto: ChatGPT no puede ejecutarse en el dispositivo, estos son todos modelos en el dispositivo.

Incluso hay quienes especulan que GPT es más una alternativa en casos en los que Siri no puede hacer algo.

Sin embargo, la gente también está preocupada de que las indicaciones de Apple Intelligence sean tan simples, ¿podrán resistir ataques maliciosos? ¿Qué tan efectivo es simplemente decirle a la IA "no alucines, no inventes información factual"?

El profesor de gestión de la Wharton School, Ethan Mollick, también se sorprendió: "Apple tiene el mejor talento de programación del planeta y enormes recursos de I+D. Pero las indicaciones para su sistema de IA que usan millones de usuarios siguen siendo hechizos básicos: 'Eres un experto en resumir información.' 'No escribas historias sucias.'" Pero lo que más le preocupa es: "Simplemente decirle al modelo que no alucine no funciona."

De hecho, los ataques de inyección de indicaciones se están volviendo cada vez más comunes, los usuarios seguirán proponiendo nuevas indicaciones, desencadenando constantemente nuevos ataques de inyección de indicaciones. Sin embargo, las indicaciones son fáciles de abusar, generando una gran cantidad de información errónea y contenido sesgado, e incluso provocando fugas de datos. Si Apple Intelligence puede resistir comportamientos de "jailbreak" aún necesita ser probado en la práctica.