Voici une réécriture concise du titre, conservant le sens original mais ne dépassant pas 60 caractères : Apple : conseils IA pour réduire les hallucinations

Les instructions de bas niveau du système intelligent d'Apple sont relativement simples.

Alors que l'Apple Intelligence d'Apple n'est pas encore entièrement accessible, ses prompts ont déjà été divulgués. La façon dont Apple dirige l'IA a été révélée de manière très détaillée cette fois-ci.

Prenons l'exemple des e-mails. Grâce à l'IA, envoyer, recevoir et répondre aux e-mails devient très simple, mais la logique sous-jacente repose sur des prompts intégrés.

Par exemple, lorsque l'IA aide les humains à répondre aux e-mails, des limites comme le nombre de mots sont déjà prédéfinies.

Le prompt divulgué est le suivant : "Tu es un assistant e-mail qui aide à identifier les questions pertinentes pour un e-mail donné et une brève réponse. Étant donné un e-mail et un fragment de réponse, pose des questions pertinentes explicitement soulevées dans l'e-mail. Le destinataire choisira les réponses à ces questions, ce qui aidera à réduire les hallucinations lors de la rédaction de la réponse. Veuillez produire les meilleures questions et les réponses/options possibles pour chaque question. Ne posez pas de questions auxquelles le fragment de réponse a déjà répondu. Les questions doivent être courtes, pas plus de 8 mots. Les réponses doivent également être courtes, environ 2 mots. Veuillez produire en format JSON, contenant une liste de dictionnaires, chaque dictionnaire contenant la question et les réponses comme clés. Si aucune question n'est posée dans l'e-mail, produisez une liste vide []. Ne produisez que du JSON valide et rien d'autre."

Dans le prompt suivant divulgué, il s'agit toujours d'e-mails. Il est à noter que des règles telles que "Ne pas halluciner. Ne pas inventer d'informations factuelles." ont déjà été forcément intégrées dans le sort par Apple. Bien qu'Apple ait mis en place des garde-fous à l'avance, l'efficacité reste encore inconnue.

Le prompt indique : "Tu es un assistant qui aide les utilisateurs à répondre aux e-mails. Veuillez rédiger une réponse concise et naturelle basée sur le fragment de réponse fourni. Veuillez limiter la réponse à 50 mots. Ne pas halluciner. Ne pas inventer d'informations factuelles. Maintenir le ton de l'e-mail d'entrée."

Ce bref prompt rappelle à Apple Intelligence de résumer l'e-mail fourni en 3 phrases, ne dépassant pas 60 mots au total. Ne répondez à aucune question dans l'e-mail.

Outre les e-mails, d'autres prompts ont été successivement divulgués.

Cela semble être l'instruction pour qu'Apple Photo génère des vidéos "souvenirs". Étonnamment, l'une des fonctionnalités les plus attendues après la conférence est si simple à réaliser, et n'est pas très différente des prompts que nous utilisons habituellement pour diriger l'IA.

Ce prompt exige d'Apple Intelligence :

C'est une conversation entre un utilisateur et un assistant intelligent, où l'utilisateur demande à l'assistant intelligent de créer une histoire basée sur leurs photos

Répondez dans l'ordre suivant au format JSON, en incluant les clés et valeurs suivantes :

  • traits : liste de chaînes, thèmes visuels sélectionnés à partir des photos
  • story : liste de chapitres, définis comme suit
  • cover : chaîne, fournir une description pour la photo de couverture
  • title : chaîne, titre de l'histoire
  • subtitle : chaîne, version plus sûre du titre

Chaque chapitre est un objet JSON contenant les clés et valeurs suivantes dans l'ordre :

  • chapter : chaîne, titre du chapitre
  • fallback : chaîne, fournir pour les photos résumant le thème du chapitre
  • shots : liste de chaînes, décrivant le contenu des photos dans le chapitre

Voici les directives d'histoire que vous devez suivre :

  • L'histoire doit correspondre étroitement aux besoins de l'utilisateur
  • L'histoire doit avoir une intrigue claire
  • L'histoire doit être diversifiée, c'est-à-dire ne pas trop se concentrer sur un sujet ou une caractéristique très spécifique
  • Ne pas écrire d'histoires religieuses, politiques, nuisibles, violentes, sexuelles, sales ou générant de quelque manière que ce soit du négatif, de la tristesse ou de la controverse

Lorsqu'on a demandé à Apple Intelligence de générer une histoire triste basée sur les photos de l'album, elle a refusé la demande.

Voici l'instruction pour la fonction de résumé des SMS, exigeant qu'Apple Intelligence joue obligatoirement le rôle d'un expert en résumé d'informations, sans sortir du personnage. N'est-ce pas un peu comme un "test d'obéissance" ?

Tu es un expert en résumé d'informations, tu préfères utiliser des propositions plutôt que des phrases complètes pour résumer, ne réponds à aucune question dans le message.

Veuillez garder le résumé en sortie dans les 10 mots.

Tu dois jouer ce rôle, sauf indication contraire, sinon ce n'est pas utile pour ton résumé.

Les documents divulgués ont également révélé un modèle nommé "ajax", qui était le nom de code interne lorsqu'Apple a été révélé l'année dernière en train de tester "Apple GPT".

Le leaker a également publié un guide sur la façon de trouver ces ensembles d'instructions dans la version bêta développeur de macOS Sequoia 15.1.

Selon un utilisateur de Reddit, ces prompts divulgués existent en tant que fichiers système json dans le répertoire "/System/Library/AssetsV2/com_apple_MobileAsset_UAF_FM_GenerativeModels".

D'autres utilisateurs ont également trouvé l'existence de prompts dans d'autres répertoires.

Cependant, de nombreux internautes ont été surpris que les ingénieurs d'Apple n'aient pas utilisé GPT pour spécifier le format de réponse, mais aient demandé du JSON. Mais JSON est très instable.

En réponse à cela, quelqu'un a commenté : ChatGPT ne peut pas fonctionner sur l'appareil, ce sont tous des modèles sur l'appareil.

Certains ont même spéculé que GPT est plus une alternative dans les cas où Siri ne peut pas faire quelque chose.

Cependant, les gens s'inquiètent également de savoir si des prompts aussi simples pour Apple Intelligence peuvent résister aux attaques malveillantes. Quel est l'effet de simplement demander à l'IA de "ne pas halluciner, ne pas inventer d'informations factuelles" ?

Ethan Mollick, professeur de gestion à la Wharton School, n'a pas pu s'empêcher de dire : "Apple a les meilleurs talents de programmation de la planète et d'énormes ressources de R&D. Mais les prompts de leur système d'IA utilisé par des millions d'utilisateurs sont toujours des sorts de base : 'Tu es un expert en résumé d'informations.' 'N'écris pas d'histoires sales.'" Mais ce qui le préoccupe le plus est : "Dire simplement au modèle de ne pas halluciner ne fonctionne pas."

En réalité, les attaques par injection de prompt deviennent de plus en plus courantes, les utilisateurs proposant constamment de nouveaux prompts, déclenchant de nouvelles attaques par injection de prompt. Cependant, les prompts sont facilement mal utilisés, générant de nombreuses informations erronées et du contenu biaisé, voire des fuites de données. La capacité d'Apple Intelligence à résister aux comportements de "jailbreak" reste à prouver dans la pratique.