AI pour améliorer la productivité au travail : Les scientifiques de DeepMind partagent 50 cas pratiques

Nicholas Carlini a présenté 50 exemples pratiques d'utilisation des grands modèles de langage pour améliorer l'efficacité.

Les grands modèles de langage (LLM) existants ont en effet de nombreuses valeurs pratiques. Nicholas Carlini, chercheur scientifique chez Google DeepMind, a partagé en détail plus de 50 exemples d'utilisation des LLM dans son travail, couvrant divers aspects tels que la programmation, l'écriture et l'apprentissage de nouvelles technologies.

Nicholas estime que les LLM ne sont pas surévalués, car ils peuvent effectivement accomplir des tâches de plus en plus difficiles. Au cours de l'année écoulée, il a passé au moins quelques heures par semaine à interagir avec divers LLM, qui l'ont aidé à augmenter sa vitesse de codage d'au moins 50% dans ses projets de recherche et ses projets secondaires.

Nicholas a énuméré quelques exemples spécifiques d'utilisation des LLM :

  • Construire des applications web entières avec des technologies jamais utilisées auparavant
  • Apprendre à utiliser de nouveaux frameworks et outils
  • Convertir automatiquement des programmes en C ou Rust pour améliorer les performances
  • Simplifier et réduire de grandes bases de code
  • Écrire le code initial des expériences pour les articles de recherche
  • Automatiser des tâches monotones et des scripts à usage unique
  • Remplacer les recherches web pour configurer de nouveaux logiciels
  • Aider au débogage des messages d'erreur

Nicholas classe ces applications en deux catégories : l'aide à l'apprentissage et l'automatisation des tâches ennuyeuses. Bien que ces applications puissent sembler peu sophistiquées, elles proviennent toutes de besoins de travail réels et démontrent la valeur des LLM pour automatiser les parties ennuyeuses du travail.

En tant que chercheur en sécurité, Nicholas a passé les dix dernières années à démontrer comment les modèles d'IA peuvent échouer dans des environnements inconnus. Il comprend parfaitement les limites de ces systèmes. Néanmoins, il estime toujours que les LLM ont apporté la plus grande amélioration à son efficacité de travail depuis la naissance d'Internet.

Nicholas explique en détail comment utiliser les LLM pour construire des applications complètes et apprendre de nouvelles technologies. Par exemple, il a utilisé GPT-4 pour écrire un petit jeu de "Défi de prédiction des capacités de GPT-4", dont la version initiale a été presque entièrement réalisée par GPT-4.

En ce qui concerne l'apprentissage de nouvelles technologies, Nicholas illustre comment utiliser les LLM comme tuteurs pour apprendre de nouveaux outils comme Docker. Comparé aux méthodes d'apprentissage traditionnelles, il est beaucoup plus efficace de laisser les LLM enseigner directement les connaissances nécessaires.

Le but de Nicholas en écrivant cet article est de prouver que les LLM lui ont déjà apporté beaucoup de valeur et de fournir des exemples à ceux qui ne savent pas comment utiliser les LLM. Il admet que les LLM ne peuvent pas encore résoudre les parties les plus difficiles et les plus intéressantes du travail d'un programmeur, mais ils sont déjà capables de bien gérer les tâches simples, améliorant considérablement l'efficacité du travail.

Il y a cinq ans, les LLM pouvaient au mieux produire des textes qui semblaient cohérents mais n'avaient aucune utilité pratique. Aujourd'hui, ils peuvent augmenter l'efficacité de programmation de Nicholas de 50% en moyenne. Ce progrès est impressionnant et laisse présager des changements encore plus importants que les LLM pourraient apporter à l'avenir.