Le vrai-faux licenciement de Sam Altman
Que retenir des évènements du 17 au 22 novembre 2023?
🚨 Mais quel weekend vient-on de vivre?! 🚨
Pour ceux qui étaient dans un monde parallèle et n’ont pas suivi ce qui s’est passé : vendredi, Sam Altman, le fondateur de ChatGPT a été évincé par le board d’OpenAI, accusé de ne pas être honnête dans ses communications.
Personne ne l’avait vu venir, la veille de l’annonce encore, Sam Altman représentait OpenAI lors du forum de la Coopération économique Asie-Pacifique (APEC) et la semaine précédente il annonçait en grande pompe le lancement des GPTs, ces petits chatGPT personnalisés sous la forme de mini apps.
Le lendemain, des rumeurs faisaient déjà état d’un retour possible de Sam Altman, oui, le lendemain! Et finalement on a appris le lundi que Microsoft, l’entreprise qui a le plus massivement investi dans OpenAI venait de l’embaucher (avec certains de ses lieutenants qui avaient annoncé leur départ d’OpenAI suite à son éviction) pour y diriger une nouvelle équipe de recherche en IA. Puis le mercredi : tout ça pour ça! Sam Altman est de retour là où il était la semaine d’avant…
Viré le vendredi, en discussion pour revenir le samedi, embauché par l’investisseur principal le lundi et de retour le mercredi, comment expliquer un tel cirque?
Personne ne sait vraiment ce qui s’est joué ce weekend et toutes les théories sont sur la table : une vengeance personnelle ? Une découverte gênante ? Des failles de sécurité ? Difficile de le savoir à ce stade.
L’objectif de ce tunnel n’est pas de revenir plus en détail sur les évènements de ce weekend, largement repris par la totalité de la presse mondiale, mais de prendre un peu de hauteur pour comprendre comment on a pu en arriver là, quels sont les 2 mondes qui s’affrontent et ce que cela pourrait vouloir dire pour le futur de … l’humanité. Accrochez vos ceintures!!
📋 Au menu du jour :
📘 L’histoire d’Open AI de 2015 à aujourd’hui
🔍 Focus sur Sam Altman et sa vision de l’IA
🚫 Qu’est-ce qui se cache derrière la volonté d’un moratoire sur l’IA?
🌐 Questionnement sur le futur de l’humanité…
L’histoire d’Open AI, des promesses aux bagarres
Phase 1 : Une vision humaniste annoncée
Pour comprendre comment OpenAI et Sam Altman, l’un de ses cofondateurs, ont fini par se bouder, faisons un petit voyage dans le temps pour revenir au commencement, quand tout allait pour le mieux dans le meilleur des mondes.
Nous sommes le 11 décembre 2015, et l’entreprise OpenAI voit officiellement le jour. Un communiqué est publié sur internet pour parler de ce projet, d’un genre nouveau (pour accéder à l’archive du site d’OpenAI de l’époque, c’est par ici).
Dans ce communiqué, publié main dans la main par Greg Brockman, Ilya Sutskever et le reste de l’équipe d’OpenAI (dont Sam Altman), on apprend plusieurs choses :
Open AI est une association à but non lucratif dont le but est de participer à la recherche d’une intelligence artificielle qui bénéficierait à l’humanité toute entière.
Le caractère non-lucratif d’OpenAI doit lui permettre de rester concentré sur son objectif de développer quelque chose au service de l’humanité.
Il est difficile de savoir quel sera l’impact de l’intelligence artificielle sur l’humanité ou si l’avènement d’une “super-intelligence” est possible. Mais, le jour où des progrès majeurs auront été réalisés, il faudra qu’un institut de recherche majeur soit en mesure de protéger l’humanité.
Pour remplir sa mission, OpenAI s'est constituée d'une équipe de figures de proue de la technologie, allant de Sam Altman à Elon Musk, et a bénéficié d'un investissement d'un milliard de dollars.
La “super-intelligence” dont il est question ici est aussi appelée Intelligence Artificielle Générale (AGI). Il s’agit du nom que l’on donne à l’IA qui surpassera l’Homme dans tout et sera capable de le remplacer dans toutes ses tâches.
Les spécialistes ne s’accordent pas tous sur la possibilité de l’existence d’une telle IA ni sur le pourcentage de chance qu’elle soit réalisable. Mais on comprend bien qu’une telle possibilité demande beaucoup de prudence tant cela bouleverserait l’humanité…
Phase 2 : Les premiers projets
Fort de ce milliard de dollars et de ses célèbres cerveaux de la Silicon Valley, OpenAI va développer ses premiers projets de recherche :
OpenAI Gym : Un ensemble d’outils qui permet aux développeurs en IA du monde entier d’évaluer les performances de leurs modèles.
Universe : Un outil qui permet d’évaluer l’intelligence générale d’une IA en lui permettant de se tester sur un ensemble de jeux vidéo.
Open Ai Five : Une IA faite de 5 réseaux de neurones qui surpasse déjà des êtres humains au jeu vidéo Dota 2.
Phase 3 : De GPT-1 à GPT-4 turbo
En juin 2018, dans un article de recherche intitulé "Enhancing Language Comprehension through Generative Pre-Training", OpenAI présentait le concept de Generative Pre-Trained Transformer (GPT) ainsi que le premier modèle de l'organisation, GPT-1.
Calqué sur le fonctionnement du cerveau humain, GPT permet de comprendre du langage naturel et marque le premier tournant de l’histoire d’Open AI. D’itération en itération, GPT-1 est devenu GPT-4-Turbo (avant un GPT-5?) gagnant à chaque fois en puissance et est l’algorithme à l’origine de la révolution majeure connue de tous : ChatGPT.
Quelques mois avant la naissance de GPT-1, Elon Musk avait quitté OpenAI, officiellement pour éviter tout conflit d’intérêt, officieusement parce qu’il pensait qu’Open AI serait bientôt dépassé par les Google & co, bien vu l’artiste…
Face à l’avènement de GPT, Sam Altman pousse pour faire changer la structure d’OpenAI qui accepte maintenant un but “lucratif limité” en 2019 et Microsoft entre dans le cercle des investisseurs.
Elargir l’IA à tous, mais à quel rythme ?
La doctrine de Sam Altman
On pourrait dire que Sam Altman incarne à la perfection le monde de la start-up et de la Silicon Valley. Après ses études à Stanford, il fonde Loopt, une application mobile qui permet de partager sa géolocalisation à ses proches (ça me rappelle quelque chose1🍦). Il revend son app pour un peu plus de 40 millions de dollars2 , puis devient le président de Y Combinator (l’un des incubateurs les plus connus au monde) avant d’investir dans quelques autres start-up (Reddit, Neuralink ou encore Asana3), puis de cofonder OpenAI à 31 ans…
Sa conviction la plus profonde est que l’avènement de l’intelligence artificielle va supplanter le capitalisme et qu’à mesure que l’on se rapprochera d’une super-intelligence artificielle globale qui pourra travailler à la place des êtres humains, la pauvreté disparaitra et un revenu universel sera garanti à tous4.
Pour en arriver là, il faut déployer chaque nouvelle innovation au plus grand nombre et le plus vite possible. On retrouve ici la logique de croissance qui gouverne toutes les start-ups du monde : On développe une première itération d’un produit que l’on teste au plus vite sur des utilisateurs, puis, selon les retours que l’on a, on travaille sur une deuxième itération et ainsi de suite.
Mais Sam Altman le reconnait volontiers lorsqu’il passe devant le congrès des États-Unis que “si cette technologie tourne mal, elle pourrait tourner vraiment mal”5.
L’IA, un risque pour la démocratie?
Comment ça, ça pourrait tourner vraiment mal 😱?
Le 28 mars 20236, une centaine d’experts demandent à ce que l’on adopte un moratoire de 6 mois sur le développement de l’intelligence artificielle et la recherche d’une AGI, le temps pour l’humanité de se préparer à une telle révolution.
Parmi les signataires se trouvent Elon Musk (dont on peut se demander s’il n’est pas juste un peu frustré d’avoir quitté le navire un peu trop tôt 🙊), Yuval Noah Harari, Steve Wozniak ou encore Yoshua Bengio (l’un des pionniers de l’IA). Parmi les risques encourus pour l’humanité, ils évoquent :
🏛️ Les risques pour la démocratie, avec l’avènement des Deep Fakes entre autres.
🔒 Les risques sécuritaires avec des effets dévastateurs en cas de cyberattaque.
👥 Les risques sociaux avec la destruction massive d’emplois.
🤖 Les risques pour la civilisation, qui pourrait se faire remplacer par des robots.
Alors on peut se demander ce qu’il en est vraiment et d’ailleurs, cette demande de mars 2023 n’a pas été entendue. Sam Altman a pu poursuivre sa quête d’une “super-intelligence” artificielle qui viendrait éradiquer la pauvreté, mais à quel prix?
En tout cas, lorsque le Board d’Open AI annonce son licenciement parce qu’il a manqué d’honnêteté dans ses communications, on peut y voir cet affrontement doctrinal entre une course effrénée à la recherche et une prudence face au risque que L’IA fait porter sur l’humanité.
Mais on peut quand même légitimement se demander si la recherche d’une intelligence artificielle générale qui bouleverserait l’humanité peut se faire à la façon d’une start-up ?
Après ce vrai-faux licenciement, quelle suite?
Très vite vendredi, on a vu fleurir de nombreuses images de Steve Jobs sur les réseaux sociaux, promettant le même destin à Sam Altman : revenir un jour en héros et sauver OpenAI de la faillite. Il lui aura fallu 5 jours (contre 12 ans pour Steve Jobs).
Après cet épisode, Altman semble avoir le champ libre désormais pour poursuivre ses recherches à un rythme très soutenu. Il est encore trop tôt pour savoir ce que l’humanité retiendra du weekend qui vient de s’écouler : Le tournant décisif qui nous a permis d’atteindre l’utopie d’un monde sans pauvreté? Ou bien le jour où l’humanité a commis une erreur irréparable par manque de précaution?
De mon côté, optimiste, je pense que l’humanité survivra à ce 17 novembre 2023.
Mais je ne peux m’empêcher de penser aux promesses d’une sagesse globale de l’humanité portée lors des débuts d’internet dans les années 19907, que je mets en perspective avec les effets qu’a réellement eu internet sur l’humanité. Pour rappel, dans le monde d’internet, chaque année on compte plus de morts en essayant de se prendre en selfie que de morts à cause d’attaque de requins8, et les adolescents se suicident par manque de likes…
Passées les promesses des débuts, un déploiement effréné d’internet a permis la prospérité économique et a sûrement fait progresser l’humanité, mais avec l’avènement des réseaux sociaux par exemple, l’absence de prudence a aussi posé problème.
Je me dis quand même qu’entre les promesses de 2023 et la réalité de 2050, il peut y avoir un monde… Et peut-être qu’un peu de prudence, ça ne ferait pas de mal. Sam, si tu m’entends…
Et voilà, merci infiniment d’avoir pris le temps de lire ce cinquième tunnel écrit en urgence pour parler du séisme de ce weekend 🙏.
J’espère vous avoir apporté quelques billes pour comprendre ce qui se joue en ce moment de l’autre côté de l’Atlantique et vous avoir donné du “grain à moudre”.
N’hésitez pas à partager cet article autour de vous pour en faire profiter le plus grand nombre, et, si ce n’est pas déjà fait, à vous abonner ❤️
Excellent post. Personnellement, j'y vois deux questions majeures qui viennent juste de trouver leur réponse dans le retour probable de Sam Altman à la tête de Open AI: 1. la question des entreprises à mission ou plus généralement celle du "Purpose" : sont-elles viables dans une logique de "pie-splitting" (pour reprendre une expression chère à Alex Edmans - voir son livre "grow the pie") ? 2. une question de gouvernance : dans quelle mesure les administrateurs d'une société peuvent-ils faire abstraction du sentiment des investisseurs ? La leçon importante de cette histoire est que les administrateurs doivent développer une véritable empathie actionnariale pour ne pas se fourvoyer.
Merci pour ce partage intéressant. Un mot peut-être sur le successeur de Sam Altman (Emmett Shear, ex-DG de Twitch) qui va tout de même dans le sens d'une IA plus encadrée et d'un rythme d'innovation ralenti.