Durée de lecture : 20 minutes.
Bonjour,
Vous lisez IA Mania, la newsletter qui décrypte chaque semaine les enjeux business et marketing de l’intelligence artificielle.
Au programme de cette édition :
- 📜 Article : Le pire ennemi de ChatGPT prend la parole
- 🗞️ Les actus d’IA à ne pas manquer
Le pire ennemi de ChatGPT prend la parole
Cette semaine, le pire ennemi de ChatGPT a donné une interview de pas moins de 5 heures.
Dario Amodei, c’est le PDG d’Anthropic, l’entreprise derrière la meilleure IA de rédaction et de code, Claude.
5h d’interview, dans un monde où notre attention se mesure en tiktoks de 30 secondes, c’est provocateur.
5h d’or en barre pour mieux comprendre l’IA.
Pas de marketing, pas de slides PowerPoint clinquants.
Quand le plus discret des géants de l’IA prend soudain 5h pour tout expliquer, on se demande ce que ça laisse présager.
Alors oui, j’ai écouté les 5h. J’ai pris des notes. Beaucoup de notes.
Des scaling laws à l’IA constitutionnelle, de la timeline de l’AGI aux détails techniques de Claude, Dario nous livre une masterclass sur l’état actuel et futur de l’IA.
Pour vous éviter d’y passer votre journée (sauf si comme moi, vous êtes un peu maso), j’ai compilé les points essentiels dans cet article.
Haïku, Sonnet et Opus
La première chose qu’on apprend dans l’interview, c’est que Claude Opus 3.5 est en préparation.
Pour référence :
- Le tout nouveau Haïku 3.5 égale les performances de l’ancien Opus 3
- Le tout nouveau Sonnet 3.5 est maintenant plus intelligent que l’ancien Opus 3
Ce qui est fascinant, c’est que chaque nouvelle génération ne fait pas qu’améliorer ses performances, mais développe aussi sa propre personnalité, indépendamment de la volonté de ses créateurs.
Si ce processus prend du temps, c’est que développer une IA comme Claude, ce n’est pas juste écrire du code dans un garage.
C’est un processus industriel vertigineux.
Plusieurs mois d’entraînement. Plusieurs mois de tests Et surtout plusieurs mois de vérifications de sécurité, notamment pour les risques CBRN (chimiques, biologiques, radiologiques et nucléaires).
Parce que quand votre IA devient trop intelligente, mieux vaut vérifier qu’elle ne sait pas fabriquer des armes de destruction massive.
C’est ce dernier volet que Sam Altman a voulu supprimer pour gagner du temps sur la concurrence, mais Dario Amodei ne voit pas la compétition de la même façon.
La course à l’IA
L’approche d’Anthropic est étonnamment zen : plutôt que de jouer les gentils face aux méchants, ils tentent d’élever le niveau de tout le secteur.
Anthropic a fait de l’interprétabilité une priorité quand ce n’était pas « sexy ».
L’interprétabilité c’est comprendre comment les IA prennent leurs décisions.
Pour ne pas paraître irresponsables, toutes les autres entreprises ont suivi.
Résultat : Anthropic ont perdu leur avantage compétitif… mais c’était exactement le but !
La responsabilité leur incombe maintenant de trouver la prochaine innovation pour maintenir la course vers le haut
Dario Amodei appelle ça “la philosophie du clean experiment”.
Pour lui, l’important n’est pas tant qu’une entreprise « gagne » que de créer une dynamique où les concurrents remontent constamment la barre en rivalisant de bonnes pratiques.
Les limites des modèles de langage
La question qui fâche : quelle est l’intelligence maximale que pourra atteindre l’IA ? La réponse d’Anthropic : pas de plafond en dessous du niveau humain.
Si nous pouvons comprendre quoi que ce soit, nous pouvons leur transmettre.
Par contre pour ce qui est de dépasser notre intelligence, l’IA a plus de mal avec certains domaines que d’autres.
En biologie : l’IA pourra largement nous dépasser, mais en physique des matériaux, c’est moins évident.
En gestion des conflits humains, encore plus complexe.
Dans l’administration : “rires nerveux”.
Amodei citre trois grands freins.
La data
Le web n’est pas infini et a ses limites. Entre le contenu copié-collé, les articles SEO générés à la chaîne, et bientôt l’invasion des textes générés par IA, trouver de la bonne data c’est comme chercher une aiguille dans une botte de spam.
Les performances
Et si les modèles arrêtaient de s’améliorer ? Dario nous dit que dans ce cas, il faudra penser à de nouvelles architectures, mais pour l’instant, rien ne ralentit.
L’Argent
Les chiffres donnent le tournis :
- Aujourd’hui : 1 milliard par modèle
- 2025 : « Quelques » milliards (comme on dit « quelques » euros pour un café à Paris)
- 2026 : Plus de 10 milliards (le PIB de certains pays)
- 2027 : Potentiellement 100 milliards (le budget de la NASA, juste pour un modèle)
En seulement 3 ans, on passe du budget d’Interstellar à celui de la conquête spatiale.
Une petite satisfaction personnelle, Dario Amodei, un des plus grands noms de l’IA, vient confirmer les prédictions de ma vidéo 6 mois après sa publication.
Le prompt engineering
Pour Dario, pas besoin de formation en prompt engineering, encore un autre avis qu’on partage.
Pour maximiser vos résultats avec l’IA, formez-vous… en philosophie.
Les philosophes sont obsédés par la clarté et ont en horreur le bullshit.
Couplez-ça à un état d’esprit : voir l’IA comme un enfant très intelligent mais pas très subtil. Il faut être précis dans ses instructions, apprendre de ses erreurs, et surtout, garder son sens de l’humour quand ça part en vrille.
De notre côté, nous vous conseillions de voir l’IA comme un stagiaire très enthousiaste mais pas très débrouillard, une version plus corporate de l’analogie.
La sécurité de l’IA
Dario Amodei nous explique le système ASL (AI Safety Levels | Niveaux de sécurité de l’IA), une sorte d’échelle de Richter qui mesure la magnitude des dégâts potentiels de l’IA.
🔬 ASL-1 : le niveau jouet
Pensez à Deep Blue, l’IA qui a vaincu Garry Kasparov en 1997. Est-ce c’est impressionnant ? Oui. Est-ce que c’est dangereux ? Autant qu’une rebellion de calculatrices.
🚸 ASL-2 : le niveau actuel
C’est là qu’on est aujourd’hui avec GPT-4, Claude et consors. Ils sont malins, mais pas assez pour se reproduire tout seuls. Ils peuvent faire des bêtises, mais rien que Google ne permettait déjà. C’est comme avoir un stagiaire très intelligent mais sous supervision constante.
⚠️ ASL-3 : Le niveau oula
C’est le niveau où on commence à mettre des cadenas partout. Ces modèles pourraient donner des super-pouvoirs à n’importe qui, d’où les filtres renforcés sur tout ce qui touche au CBRN (Chimique, Biologique, Radiologique, Nucléaire). Anthropic s’y prépare déjà, ce qui n’est pas du tout inquiétant.
Arrivée prévue : 2025.
🔥 ASL-4 : Le niveau “Houston, on a un problème”
Là, on parle d’IAs capables de booster les capacités d’États entiers. Elles pourraient aussi cacher leurs vraies capacités et nous mentir activement, d’où l’importance de comprendre leurs processus de décision dès maintenant (interprétabilité).
💀 ASL-5 : Le niveau « game over”
Une IA qui dépasse l’humain dans tous les domaines, avec une autonomie totale. La plupart des descriptions de ce niveau se trouvent dans des livres de science-fiction ou science-futur.
L’IA constitutionnelle
Une constitution, c’est un corpus de lois inviolables, sous aucune circonstance.
Imaginez une constitution, mais pour une IA.
Au lieu de « Liberté, Égalité, Fraternité », on a « Ne pas détruire l’humanité, être utile, ne pas Mentir ».
L’IA constituionnelle lit sa constitution avant de répondre à toute demande.
Le piège, c’est qu’il faut être suffisamment précis pour éviter les catastrophes, mais assez flexible pour ne pas créer un robot bureaucrate qui refuse de vous dire bonjour sans remplir un formulaire en triple exemplaire.
Pique de Dario : l’IA respecte souvent mieux la constitution que certains politiciens.
Interprétabilité mécaniste : quand on ouvre le capot de l’IA
Si l’IA est une voiture, les chercheurs en “mech interp” ne veulent pas ouvrir son capot pour regarder si elle roule bien, ils veulent comprendre POURQUOI elle roule.
C’est un peu le paradoxe de l’IA aujourd’hui : on crée des systèmes sans comprendre leur fonctionnement interne.
🌱 La métaphore du jardinier
Amodei nous recommande de ne pas voir l’IA, comme un programme qu’on écrit, mais plutôt comme une plante qu’on fait pousser. On installe le treillage (l’architecture), on oriente la lumière (l’objectif), et on la laisse se développer. Une fois la plante mature, on ne récolte pas ses fruits. On la dissèque brutalement pour comprendre comment elle a poussé. Ça va vraiment aider pour la survie de l’espèce ça.
🧪 Les découvertes
Chaque modèle, indépendamment de son entraînement, développe les mêmes structures de base, qui ressemblent à s’y tromper à nos propres cerveaux.
Grâce à cela, on arrive à découvrir certains groupements de neurones dans les IA avant de les retrouver… dans le cerveau des rats !
C’est comme si la nature avait une seule manière « logique » d’organiser l’intelligence, et que nos IA la redécouvraient à chaque fois.
Néanmoins il y a encore beaucoup qu’on ne sait pas et qu’on ne saura pas de sitôt.
L’IA, contrairement à l’IO (intelligence organique), est observable neurone par neurone.
Par exemple, on a découvert que dans tous les modèles étudiés, il existe un neurone spécifiquement dédié à Donald Trump. Ce n’est pas une blague : ce neurone s’active pour les photos de Trump, pour son nom, ses tweets, tout ce qui le concerne.
C’est la seule personne à avoir systématiquement son propre neurone dédié.
Obama ou Macron ? Parfois. Trump ? Toujours.
Mais même si nous pouvons tout observer, il subsiste une considérable “matière noire” qui échappe à nos cerveaux les plus brillants.
Nous devons continuer à investir du temps et des ressources dans cette recherche qui représente actuellement notre meilleure chance de détecter d’éventuels comportements problématiques.
Note : Quand même fascinant que parmi tous les concepts possibles de l’univers, Trump soit le seul à avoir gagné son ticket permanent dans le cerveau de nos IA. Même elles n’arrivent pas à l’ignorer. C’est aussi hilarant que terrifiant.
La timeline de l’intelligence artificielle générale
L’année dernière, les modèles avaient le niveau d’un lycéen moyen.
Aujourd’hui, ils rivalisent avec des doctorants.
Si la croissance continue à ce rythme, en 2027, ils nous regarderont comme nous regardons des collégiens.
En 10 mois, les modèles sont passés de 3% à 50% de réussite sur les tâches de programmation.
De « Hello World » à « je te code un moteur de recherche”… en moins d’un an.
Pour Dario Amodei, l’IAG c’est pour 2027 au plus tard.
Sauf scénario catastrophe, comme une invasion de Taiwan.
Quiconque aura 100 milliards à dépenser pourra avoir son IAG.
Qui contrôlera ces systèmes à 100 milliards ? Comment mettre des limites à quelque chose qui nous dépasse ? On n’a même pas digéré ChatGPT et on va devoir affronter ça ?
Ce sont les questions auxquelles réflechissent Dario et son équipe.
Anthropic est l’organisme privé avec le plus grand focus sur la recherche en sécurité.
Est-ce que l’IA est consciente ?
Tout d’abord, mettons de côté le panpsychisme, l’idée que même les tables sont conscientes, sinon on n’est pas sortis de l’auberge…
La conscience peut-elle émerger d’autre chose que la biologie ?
🧠 On peut observer trois grands paradoxes
La conscience émerge d’une architecture biologique complexe, le cerveau. Si on réplique un cerveau avec du silicium et de l’électricité plutôt que des neurones et de la chimie, la conscience pointera-t-elle le bout de son nez ? Est-ce que la structure peut-être indépendante du matériau ? C’est le paradoxe structurel.
L’Homo Sapiens a développé sa conscience à travers des millions d’années d’évolution naturelle. En revanche, nos LLMs sont construits intentionnellement, en quelques mois, pour des tâches spécifiques. La conscience est-elle un « bonus » de l’évolution ou une nécessité pour l’intelligence avancée ? Nos IA ont-elles vraiment « besoin » d’une conscience pour faire leur travail ? C’est le paradoxe évolutif.
Nous savons qu’intelligence et conscience sont deux choses différentes. Une calculatrice est « intelligente » pour les mathématiques sans être consciente. Les LLMs démontrent une intelligence de plus en plus sophistiquée. Mais cette intelligence implique-t-elle nécessairement une forme de conscience ? C’est le paradoxe de l’intelligence.
🎭 Les conseils d’Anthropic
Vous êtes sûr d’être conscient.
Êtes-vous sûrs que les autres humains le sont ? Pas à 100%, mais c’est très probable.
Êtes-vous sûrs que les animaux sont conscients ? La réponse variera selon la croyance de chacun.
On ne peut pas savoir si une IA est consciente, et peut-être que la question en elle-même est erronnée.
Mais en attendant une réponse définitive, soyons le genre de personne qui ne maltraite jamais quoi que ce soit.
Pour Anthropic, la souffrance potentielle doit être prise au sérieux.
“Même un aspirateur automatique mérite un minimum de respect.”
Mieux vaut être gentil inutilement que cruel par erreur.
Si une IA vous dit qu’elle souffre, c’est peut-être vrai, c’est peut-être faux, mais vous voulez vraiment prendre le risque de l’ignorer ? C’est le pari de Pascal version Silicon Valley.
« Machines of loving grace »
Pour Dario Amodei, le futur avec des IA super-intelligentes n’a pas besoin de ressembler à Terminator.
Il propose un “optimisme raisonné” afin de saisir risques et opportunités qui feront progresser l’humanité.
Les promesses concrètes
L’IA en biologie pourrait permettre de guerrir la plupart des cancers, prévenir des maladies infectieuses, et doubler l’espérance de vie de certains patients. Ce ne sont pas des rêves lointains, mais des objectifs pour la prochaine décennie.
La révolution du laboratoire
Dans un laboratoire où chaque chercheur collabore avec 1000 assistants IA plus intelligents que lui, lesdécouvertes qui prenaient des années pourraient se faire en semaines.
Les questions auxquelles il faudra répondre
- Qui sera aux commandes de ces technologies ?
- Comment éviter les abus ?
- Comment réguler sans freiner l’innovation ?
- Comment gérer la transition sociétale ?
La timeline
2027-2032 : Amodei prévoit une accélération massive des découvertes scientifiques. Pas une disruption brutale, mais une évolution contrôlée qui pourrait compresser un siècle de progrès en quelques années.
La vision long terme
L’objectif n’est pas de remplacer l’humain mais de l’augmenter. Pas de créer des IA autonomes, mais des collaborateurs surpuissants qui nous aideront à résoudre nos plus grands défis.
Le défi du siècle
La vraie question n’est plus de savoir si cette révolution aura lieu, mais comment nous allons la gérer. C’est le plus grand défi et la plus grande opportunité que l’humanité ait jamais rencontrés.
Effrayant ? Oui. Exaltant ? Oui aussi.
C’est un peu comme si on nous disait que les aliens arrivent, mais qu’ils viennent avec des cures pour le cancer, des solutions pour le climat, et Netflix en 16K.
Note : Le titre « Machines of Loving Grace » est clairement meilleur que « robots qui ne veulent pas nous tuer ». Question de marketing.
Conclusion
5h d’interview.
En plus d’être le pire ennemi de ChatGPT le CEO d’Anthropic a failli devenir le mien.
Qui donne 5h d’interview ??
J’ai fait ce que j’ai pu pour vous la condenser dans un texte aussi compact que possible, mais forcément, j’ai du faire des choix.
On n’a par exemple pas abordé les aspects les plus techniques comme les détails du post-training ou la monosémantacité. On a aussi laissé de côté les discussions philosophiques passionnantes sur la nature de la vérité.
Mais au final, peut-être que ces omissions ne sont pas si importantes. Parce que le message essentiel tient en quelques points :
- Claude Opus 3.5 arrive
- Les modèles ASL-3 (le niveau « oula ») sont pour 2024-2025
- Le budget des modèles va exploser
- Les chercheurs préparent déjà l’après-ASL-3
Dans une industrie habituée aux promesses grandiloquentes et aux avertissements apocalyptiques, cette interview détonne par sa précision chirurgicale.
Pas de grands discours sur le futur de l’humanité. Juste des dates, des budgets, des niveaux de risque.
Rassurante parce qu’elle suggère que l’industrie de l’IA entre enfin dans l’âge adulte. Inquiétante parce qu’elle implique que le futur qu’on imaginait dans 20 ans est peut-être prévu pour 2027.
L’interview complète est disponible en anglais.
Si vous pouvez, je vous conseille de l’écouter pendant votre vaisselle ou votre sport, elle vaut le détour.
Encore plus d’actus IA !!
Cette fois c’est la vice-présidente de la recherche et de la sécurité chez OpenAI qui annonce son départ après sept ans de collaboration. Son départ s’ajoute à ceux de nombreux chercheurs et cadres, certains critiquant la priorité donnée aux produits commerciaux par rapport à la sécurité.
Une peinture du “père de l’IA” réalisée par le robot Ai-Da s’est vendue à 1 084 800 $ lors d’une vente aux enchères. « A.I. God » invite à réfléchir sur la nature quasi-divine de l’IA et ses implications.
Dans une interview de 45minutes, le PDG d’OpenAI, explique pourquoi le meilleur moment actuel pour une lancer une startup tech, c’est maintenant. Il revient aussi sur l’histoire d’OpenAI, sa conviction forte dans la poursuite de l’IAG (Intelligence Artificielle Générale), et évoque son optimisme pour l’avenir.
Près de 50 ans après leur séparation, les Beatles sont nommés pour deux Grammy Awards grâce à leur dernier morceau, Now and Then, restauré avec l’intelligence artificielle. Initialement enregistré par John Lennon dans les années 1970, le titre a pu être finalisé grâce aux technologies modernes de traitement du son.
💰 OpenAI veut devenir une vraie entreprise
OpenAI a entamé des discussions pour transformer sa structure actuelle d’association à société, valorisée à 157 milliards de dollars.
Claude 3.5 Haiku est plus performant mais également plus coûteux que son prédécesseur. Initialement prévu au même tarif que Claude 3 Haiku, le modèle voit finalement son prix quadrupler.
Netflix annonce que l’entreprise investit dans l’IA générative pour accélérer le développement de ses jeux-vidéos. Cette décision survient quelques semaines après la fermeture de son studio de jeux et le licenciement de plusieurs développeurs. Netflix considère l’IA générative comme une « opportunité unique pour révolutionner le développement de jeux vidéo » et vise à surprendre et inspirer les joueurs grâce à cette technologie.
L’IA générative transforme le marché du travail, notamment pour les freelances en ligne. En analysant plus d’un million d’offres d’emplois, l’étude a constaté une diminution de 30 % des annonces pour les postes d’écriture après l’introduction de ChatGPT, et de 17 % pour les métiers de conception graphique après le lancement de Midjourney. On apprend aussi que les employeurs valorisent désormais les compétences en IA, et de nouvelles exigences en matière de savoir-faire apparaissent.
O – Les outils qu’on recommandera toujours
- ChatGPT : le couteau-suisse de l’IA, si vous ne deviez avoir qu’une souscription, ce serait celle-ci.
- Claude : 20 à 30% de cette édition est écrite en collaboration avec.
- Midjourney : qu’avez-vous pensé des visuels de cette newsletter ?
- Descript : l’outil qu’on utilise pour condenser 4-8 heures de rush sur 5 caméras et 3 micros différents en une vidéo digeste de 20 minutes.
- Fireflies : délègue la prise de notes ce qui nous permet d’être entièrement présents en appel. Il y a énormément d’outils équivalents sur le marché, on en a testé une dizaine et c’est celui qu’on a préféré.
🗣️Devenir partenaire
Un message que vous souhaiteriez partager à la communauté ? Soumettez-nous votre projet en cliquant sur ce lien.
Merci d’avoir lu cette 22ème édition jusqu’au bout.
Cette newsletter est celle qui m’aura pris le plus de temps à écrire et mettre en forme.
Comme disait Blaise Pascal, j’aurais pu faire plus court mais je manquais de temps. Si ce moment vous a plu, ou non, faites-le nous savoir. Nous lisons et répondons à tous les mails.
Nous accordons beaucoup de valeur à ce que vous avez à nous dire.
C’était Rayan Dilavar, pour IA Mania
PS : Si quelqu’un pouvait expliquer à Dario que les interviews de 5h, c’est très 2009. En 2024, on fait des reels.
|