Voici la traduction en français de la lettre ouverte de Zuckerberg :
"L'IA open source est la voie à suivre"
Aux débuts de l'informatique haute performance, les grandes entreprises technologiques de l'époque investissaient massivement dans le développement de leurs propres versions fermées d'Unix. À l'époque, il était difficile d'imaginer une autre façon de développer un logiciel aussi avancé.
Néanmoins, Linux open source est finalement devenu populaire - initialement parce qu'il permettait aux développeurs de modifier son code comme ils le souhaitaient et était moins cher ; au fil du temps, il est devenu plus avancé, plus sécurisé et disposait d'un écosystème beaucoup plus large supportant plus de fonctionnalités que n'importe quel Unix fermé. Aujourd'hui, Linux est la base standard de l'industrie pour le cloud computing et les systèmes d'exploitation qui font fonctionner la plupart des appareils mobiles - nous bénéficions tous de ses produits supérieurs.
Je crois que l'intelligence artificielle évoluera de manière similaire. Aujourd'hui, quelques entreprises technologiques développent des modèles fermés de pointe. Mais l'open source comble rapidement cet écart. L'année dernière, Llama 2 ne pouvait rivaliser qu'avec des modèles de génération plus anciens qui étaient en retard sur la pointe de la technologie. Cette année, Llama 3 rivalise avec les modèles de pointe et est en tête dans certains domaines. À partir de l'année prochaine, nous nous attendons à ce que les futurs Llamas soient les plus avancés de l'industrie. Mais même avant cela, Llama est déjà en tête en termes d'ouverture, de modifiabilité et de rentabilité.
Aujourd'hui, nous franchissons la prochaine étape pour faire de l'IA open source la norme de l'industrie. Nous publions Llama 3.1 405B - le premier modèle d'IA open source au niveau de pointe de l'industrie - ainsi que de nouveaux modèles Llama 3.1 70B et 8B améliorés. En plus d'avoir un meilleur rapport coût/performance par rapport aux modèles fermés, le fait que le modèle 405B soit open source en fera le meilleur choix pour l'ajustement fin et l'extraction de modèles plus petits.
En plus de publier ces modèles, nous nous associons à diverses entreprises pour développer un écosystème plus large. Amazon, Databricks et Nvidia lancent des suites complètes de services pour aider les développeurs à affiner et à perfectionner leurs propres modèles. Des entreprises innovantes comme Groq (une startup de puces IA) ont construit des services d'inférence à faible latence et à faible coût pour tous les nouveaux modèles.
Ces modèles seront disponibles sur tous les principaux clouds, y compris AWS, Azure, Google, Oracle et plus encore. Scale.AI, Dell, Deloitte et d'autres sont prêts à aider les entreprises à déployer Llama et à former des modèles personnalisés en utilisant leurs propres données. À mesure que la communauté grandit et que davantage d'entreprises développent de nouveaux services, nous pouvons collectivement faire de Llama la norme de l'industrie et apporter les avantages de l'IA à tous.
Meta s'engage en faveur de l'IA open source. Je vais expliquer pourquoi je crois que l'open source est la meilleure pile de développement pour les gens, pourquoi l'open sourcing de Llama est bon pour Meta, pourquoi l'IA open source est bonne pour le monde, et pourquoi, en raison de cela, la communauté open source persistera à long terme.
Pourquoi l'IA open source est bonne pour les développeurs
Lorsque je parle aux développeurs, aux PDG et aux responsables gouvernementaux du monde entier, j'entends généralement les thèmes suivants :
Nous devons former, affiner et perfectionner nos propres modèles.
Chaque organisation a des besoins différents, et des modèles de tailles différentes peuvent le mieux répondre à ces besoins, formés ou affinés avec des données spécifiques. Les tâches sur appareil et les tâches de classification nécessitent des modèles plus petits, tandis que les tâches plus complexes nécessitent des modèles plus grands.
Maintenant, vous pourrez utiliser les modèles Llama de pointe, continuer à les former avec vos propres données, puis les affiner pour obtenir votre modèle de taille optimale - sans que nous ou quelqu'un d'autre ne voie vos données.
Nous devons contrôler notre propre destin et ne pas être liés à un fournisseur fermé.
De nombreuses organisations ne veulent pas dépendre de modèles qu'elles ne peuvent pas exécuter et contrôler. Elles ne veulent pas que les fournisseurs de modèles fermés puissent modifier leurs modèles, changer leurs conditions d'utilisation, ou même cesser de les servir complètement. Elles ne veulent pas non plus être liées à un seul cloud qui a des droits exclusifs sur un modèle particulier. L'open source fournit un écosystème d'outils compatibles avec de nombreuses entreprises entre lesquelles vous pouvez facilement basculer.
Nous devons protéger nos données.
De nombreuses organisations traitent des données sensibles qui doivent être protégées et ne peuvent pas être transmises à des modèles fermés via des API cloud. D'autres organisations ne font tout simplement pas confiance aux fournisseurs de modèles fermés avec leurs données. L'open source résout ces problèmes en vous permettant d'exécuter des modèles où vous le souhaitez. Il est largement admis que les logiciels open source sont plus sécurisés car le développement est plus transparent.
Nous avons besoin d'un modèle opérationnel efficace et abordable.
Les développeurs peuvent exécuter l'inférence sur Llama 3.1 405B sur leur propre infrastructure à environ 50% du coût de l'utilisation de modèles fermés comme GPT-4o pour les tâches d'inférence en ligne et hors ligne.
Nous parions sur un écosystème qui peut devenir une norme à long terme.
Beaucoup de gens voient l'open source se développer plus rapidement que les modèles fermés, et ils veulent construire l'architecture de leurs systèmes d'une manière qui leur donne le plus grand avantage à long terme.
Pourquoi l'IA open source est bonne pour Meta
Le modèle économique de Meta consiste à construire les meilleures expériences et services pour les gens. Pour ce faire, nous devons nous assurer d'avoir toujours accès à la meilleure technologie, plutôt que d'être enfermés dans les écosystèmes fermés des concurrents qui limiteraient ce que nous pouvons construire.
L'une de mes expériences formatrices est la façon dont nos services sont contraints par ce qu'Apple nous permet de construire sur leur plateforme. La façon dont ils taxent les développeurs, les règles arbitraires qu'ils appliquent, et toutes les innovations de produits qu'ils empêchent de sortir montrent clairement que Meta et de nombreuses autres entreprises seraient libres de construire de meilleurs services pour les gens si nous pouvions construire les meilleures versions de nos produits sans que les concurrents puissent limiter ce que nous pouvons construire.
Philosophiquement, c'est la principale raison pour laquelle je crois si fermement à la construction d'écosystèmes open source pour la prochaine génération d'informatique en IA et en RA/RV.
On me demande souvent si je crains de perdre un avantage technologique en open-sourçant Llama, mais je pense que cela ignore certaines raisons importantes :
Premièrement, pour nous assurer que nous pouvons accéder à la meilleure technologie plutôt que d'être enfermés dans un écosystème fermé à long terme, Llama doit évoluer vers un écosystème complet comprenant des outils, des améliorations d'efficacité, des optimisations de silicium et d'autres intégrations. Si nous étions la seule entreprise à utiliser Llama, cet écosystème ne se développerait pas et nous ne serions pas mieux lotis que les variantes Unix fermées.
Deuxièmement, je m'attends à ce que la concurrence s'intensifie à mesure que l'intelligence croît, ce qui signifie qu'à ce moment-là, l'open sourcing d'un modèle particulier ne cédera pas un avantage sur le prochain modèle avec de plus grands avantages. La voie pour que Llama devienne la norme de l'industrie passe par une concurrence constante, efficace et l'open sourcing génération après génération de modèles.
Troisièmement, une différence clé entre Meta et les fournisseurs de modèles fermés est que