Transcription automatique de l'épisode 313

Par Whisper (OpenAI), Faster-Whisper et Pyannote-audio (github/pyannote). Basé sur un code de Ruhollah Majdoddin.



0:00:00 à 0:02:41 Guillaume Vendé :
Salut à toutes, salut à tous, vous écoutez TechCafé, votre rendez-vous sur l'actualité des nouvelles technologies. Nous sommes le 14 mars 2023, c'est l'épisode 313. C'est l'hécatombe dans le monde bancaire aux Etats-Unis ces derniers jours, souvent au sujet de banques dont, on ne va pas se mentir, si on n'est pas proche du monde tech ou parfois du monde des cryptos, ou un peu éloigné de la vie bancaire à l'international, on apprend parfois l'existence ici en France. Il y a Silvergate le 8 mars, donc très proche du monde des cryptomonnaies, qui a suivi une crise qui avait d'ailleurs suivi la faillite de FTX. SVP, non pas SVP, SVB, Silicon Valley Bank le 11 mars, comme son nom l'indique, très proche du monde des nouvelles technologies et des startups américaines. Signature Banks, 12 mars, la troisième plus grosse banque à faire faillite aux Etats-Unis, elle aussi dans le sillage, d'ailleurs, un petit peu de la faillite de FTX. On va donc, logiquement, parler argent et cryptoargent à cette occasion. Et on continue notre interminable voyage dans les contrées fantasmagoriques des intelligences artificielles et notamment des IA génératives avec la commercialisation par OpenAI des services, de Yama, de Meta, qui a fuité. Au jour où on enregistre cet épisode, il y a également GPT-4 qui a été annoncé et la foultitude de multiples des services qui intègrent de l'IA dans leurs interfaces. L'actu est supérieure. Je suis Guillaume Poggiaspallae, podcaster en... Alors, je suis... Tenez-vous bien. Je suis Guillaume Poggiaspallae, podcaster technophile enthousiaste et je retrouve le responsable du conducteur de cet épisode. C'est Guillaume Vendé. Salut, Guillaume. Et comment vas-tu ?
0:02:41 à 0:02:42 Guillaume Poggiaspalla :
Pour l'instant, tout va bien.
0:02:42 à 0:07:38 Guillaume Vendé :
Bon, écoute, on va rester sur cette lancée-là. On va faire un petit coucou du côté d'Eric Blanquet et de Maxime, alias Max Zeddozer, qui ont tantôt rejoint la plateforme Patreon. De l'autre côté, qui ont réévalué, en particulier Maxime, sa participation de manière conséquente. Merci beaucoup à tous les deux. Vous le savez, TechCafé est financé par sa communauté et on vous remercie d'être présents pour soutenir notre travail, notre régularité, le fait qu'on ne bafouille pas dans les intros et le fait qu'on est fidèles au rendez-vous depuis dix ans maintenant. Et pour ce faire, c'est super simple. Il suffit de se laisser guider sur patreon.com slash techcafé. Vous pouvez le faire pendant que vous écoutez cette intro, pendant que vous écoutez le podcast ou en rentrant chez vous. Tout le monde ne peut pas forcément se permettre de consacrer quelques euros de donations comme ça sur un podcast d'ActuTech. Merci déjà, surtout, avant tout, évidemment, de l'écouter. Merci aussi à celles et ceux qui ont donc quelques euros à consacrer pour une info de qualité, on l'espère, sourcée, on l'espère toujours, mais on sait que c'est vrai, et conviviale. Là, pour le coup, on croise les doigts de faire le choix de vous accompagner financièrement. On espère dans tous les cas que vous vous informerez et que vous vous divertirez en écoutant nos histoires de tech. Plus d'infos sur patreon.com slash techcafé. Et puis, un petit mot aussi du côté de Podcast Addict, où on a Happy Papy qui avait laissé un avis à propos de Tech Café. Il disait tout simplement « Merci les gars, j'écoute religieusement chaque épisode sans prise de tête et de manière détendue. Je suis à Mada, je dev pour une filiale d'une boîte française. Longue vie au podcast et à vous, les doubles Guillaume. » Guillaume, justement, je me suis dit Mada, ça faisait un peu inexotique, tu sais, un peu une espèce de petite principauté cachée quelque part. En fait, non, c'est une ville près de Bordeaux, je crois. Donc, peut-être que Happy Papy pourra nous repréciser d'où il officie exactement. Mais en tout cas, merci beaucoup à toi de nous écouter. On enchaîne avec plein d'infos, sans autre forme de procès, alors avec des petites infos à chaud qu'on va essayer de traiter le plus vite possible. En tout cas, il y en a une que je m'étais noté, moi, qui me tenait à cœur de vous partager. Je vous promets, je vais faire très, très vite, mais c'est l'adrénochrome. Peut-être que vous avez entendu parler d'un adrénochrome et on a vu ça passer à la fois à la télé et sur les réseaux sociaux. Je vais en parler parce qu'il y a quelques épisodes de ça, quelques mois, maximum quelques années. Il y a Guillaume Poligiaspala qui nous racontait les théories conspirationnistes autour de QAnon, des pizzagates, des réseaux pédos satanistes aux États-Unis. Et en fait, je t'avoue, Guillaume, à cette époque-là, et je crois que c'était le cas d'une partie de nos auditeurs, on se disait, mais c'est dingue ce qui se passe aux États-Unis. Comment on peut en arriver là ? Comment est-ce qu'on peut arriver à avoir une telle ampleur sur des sujets tels que ceux-là ? Et force est de constater qu'il n'y a pas forcément les mêmes proportions aujourd'hui en France, mais quand même, on a une théorie du complot sur l'adrénochrome qui est passé à la télé. Alors, ce n'est pas la télé la plus reluisante qui soit de l'espace audiovisuel français, ça ne touche pas à mon poste. La chaîne C8 est donc une émission qui est présentée par Cyril Hanouna, où il y a eu, sur un plateau d'une des émissions, une discussion assez lunaire qui était portée par une tribune d'un mec qui s'appelle Gérard Fauret, qui a un emblème du conspirationnisme et qui a présenté l'adrénochrome comme une théorie complètement probable et probablement répandue et avérée à ses yeux, qui est donc cette théorie d'avoir cette drogue qui te permettrait, Guillaume, c'est mon rêve au fond, de vivre longtemps, le plus jeune possible. Et tout cela comment ? En synthétisant une molécule à base de sang d'enfant. Évidemment, il n'en faut qu'un pas pour faire des liens, je trouve, avec ces théories qu'on relayait aux Etats-Unis. Et puis, un deuxième volet sur cette adrénochrome, parce que vous allez voir qu'on aura quand même vite fait le tour, c'est Vincent Flibustier qui est lui formateur sur le sujet des fake news, mais qui dirige aussi le site satirique Nordpress.be et qui est parfois dans ses prises de parole un peu compliquées. Il est classé lui-même dans son activité sur le site Conspiracy Watch comme étant une source d'infos à prendre avec d'énormes pincettes. Et pour cause, je pense que le côté satirique de ses propos et de ses prises de parole est très fort. Il a lancé un hashtag en rendant viraux des messages sur TikTok et Twitter, le hashtag Myriam Palomba, pédo sataniste. Donc Myriam Palomba, qui est une journaliste qui est aussi beaucoup dans une mouvance plutôt sulfureuse, si ce n'est complotiste. Il a d'ailleurs inclus dans ses prises de parole Florian Philippot, Francis Lalanne, etc. Et son intention, c'était quelque part, c'est comme ça qu'il le présente, de renverser un peu la vapeur de la mécanique de répandre des rumeurs sur des personnes un peu gratuitement et les personnes impliquées elles-mêmes se défendent et se sentent abusées sur la base de rumeurs qui n'ont pas de fondement. Et quelque part, c'est un renversement un peu de la situation qu'il a voulu faire. Moi, en fait, dans le fond, je t'avoue, ça me dérange un peu d'avoir cette pratique-là, d'utiliser les mêmes armes que les personnes que tu critiques pour dénoncer des agissements. Ça me gêne toujours. Enfin, écoute, en tout cas, force est de constater que ça a eu son buzz. Guillaume, la question est simple. Est-ce que tu prends de l'adrénochrome ?
0:07:38 à 0:07:54 Guillaume Poggiaspalla :
Alors, non, je ne prends pas d'adrénochrome. Je devrais, peut-être, je ne sais pas. Mais moi, ce que je trouve assez dingue dans ce truc, c'est que l'adrénochrome, ça existe. C'est pas du tout une drogue et ça se synthétise très facilement. En fait, je ne vois pas d'où ça sort. Ces histoires de sang, de...
0:07:54 à 0:07:55 Guillaume Vendé :
Ça vient d'un film, je crois.
0:07:55 à 0:08:27 Guillaume Poggiaspalla :
Alors, ça vient, oui, en fait, l'adrénochrome, c'est un truc qui existe depuis un bon moment, mais ça s'est présenté comme une drogue dans le film Las Vegas Parano. Et peut-être que ça vient de là. Ça vient d'ailleurs probablement de là. C'est un truc qui traîne depuis les années, au début des années 2000. Et ce qui est fou, c'est que ce n'est pas une drogue. C'est un truc qui, médicalement, est utilisé, mais ce n'est pas une drogue et c'est très facile à synthétiser. Enfin, je veux dire, il n'y a aucune raison d'aller chercher des trucs hyper compliqués, complètement improbables pour faire de l'adrénochrome. Si vous voulez faire de l'adrénochrome, vous pouvez en acheter, c'est débile.
0:08:27 à 0:08:36 Guillaume Vendé :
C'est assez dingue de voir les dérives. Et quelque chose me dit qu'on aura d'autres cas à relayer. Guillaume, tu voulais aussi un petit peu nous parler de Honustus et de ces cartapuces.
0:08:36 à 0:08:58 Guillaume Poggiaspalla :
Oui, alors Honustus, c'est un auditeur qui a laissé un long commentaire donc sur le site et ou sur le Discord. Et bon, il disait, enfin lui, il travaille apparemment dans le milieu des cartapuces. Il disait que j'étais un petit peu sévère, c'est vrai, avec les cartapuces la dernière fois, dans le dernier épisode, parce que je disais, le cartapuce, c'est complètement asbine, 256 kilos. C'est ridicule.
0:08:58 à 0:09:00 Guillaume Vendé :
T'as tendu le bateau pour te faire mal.
0:09:00 à 0:09:28 Guillaume Poggiaspalla :
Non, non, non, il faut respecter les cartapuces, car elles nous ont rendu de fiers services et elles continuent de nous rendre de fiers services. Et il y a des raisons aussi à leur inefficacité et tout ça. Alors il explique, je ne vais surtout pas vous lire parce que c'est quand même un long commentaire, ça vaut le coup de le lire, donc allez lire le commentaire d'Honustus qui réhabilite ces fameuses cartapuces. Et il a bien raison parce que, bah oui, les trucs les plus, comment dire, c'est pas parce qu'un truc n'est pas ultra, complètement top niveau technologique, qu'il est inutile et qu'il n'a pas sa raison d'être. Donc, c'était très bien de le souligner. Merci à lui.
0:09:28 à 0:10:32 Guillaume Vendé :
On termine ce petit tour du courrier des lecteurs et des petites infos façon follow up aussi des précédents épisodes, parce que tu sais, on avait abordé des changements législatifs en France pour les influenceurs. On disait qu'ils seraient mieux encadrés et quelque part, il y avait déjà un encadrement de ce type de pratique. Donc, j'avouais moi-même ne pas trop comprendre ce qui allait changer sur le plan législatif. Je comprends mieux maintenant. En fait, ils vont être soumis tout simplement aux mêmes règles que les médias classiques, à savoir la radio, la télé, les pubs sur les journaux, sur les magazines. Il y a des règles avec des mentions légales à faire apparaître en fonction des sujets. Un exemple qui est cité, c'est une citation de Bruno Le Maire. Lorsque vous avez un placement de produits d'alcool ou d'autres placements de produits, il faut que les mentions légales apparaissent sur les sites des influenceurs, ce qui n'est pas le cas aujourd'hui. Et en fait, voilà, maintenant que je sais ça, je suis très à l'aise sur le fait qu'il y ait une mise à jour législative sur ce sujet. Quelque part, c'est du bon sens. Allez, on enchaîne pour de bon sur le cœur de notre conducteur de cet épisode. Guillaume, tu vas nous parler. Mais qu'est-ce qui se passe dans ces banques américaines, Guillaume ? Ça m'a l'air d'être un sacré foutoir quand même.
0:10:32 à 0:14:30 Guillaume Poggiaspalla :
Il y a une grosse actualité financière cette semaine, avec la faillite de pas moins de trois grosses banques du secteur tech, comme tu l'as dit. Donc, deux étaient des intermédiaires très importants du secteur des cryptos. Donc, c'était Silvergate et Signature. Et les fondements le plus fracassant quand même pour le monde de la tech, c'est celui de la Silicon Valley Bank. Donc, SVB, voilà pour les intimes. Donc, s'il vous plaît, n'est-ce pas, c'est une véritable institution. Donc, Silicon Valley Bank, SVB, bien sûr. Ce qui fait la particularité de cette banque, c'est que depuis sa fondation en 1983, elle est spécialisée dans le financement des startups, dont le capital risque. Et ça lui avait vraiment réussi dans les années 80. Évidemment, si tu vas… Tu t'imagines, dans les années 80, t'es en jean, tu vas voir ton banquier pour demander des fonds parce que t'as une idée, t'es en train de bricoler ça avec tes potes dans ton garage. Bon, c'est pas forcément fructueux. La Silicon Valley Bank mettait en relation des investisseurs, des entrepreneurs. Ça prenait en charge leurs comptes, etc. Et mine de rien, elle était devenue comme ça la 16e plus grosse banque des Etats-Unis, puisqu'elle avait plus de 2500 firmes de capital risque comme clients. Beaucoup de noms connus ont encore leurs comptes là-bas, comme Etsy, Roku, Roblox et même Vox Media. Alors Vox Media que je mentionne parce que Vox Media possède The Verge, qui est un très gros site US dont on relaie les articles ici régulièrement. Donc, son périmètre est assez spécifique, mais c'est quand même un gros établissement. Elle gérait 212 milliards de fonds fin 2022 et pourtant, elle est décédée en moins de 48 heures à cause d'un bank run, c'est-à-dire que beaucoup trop de gens ont demandé à retirer des fonds au même moment. La banque n'avait pas assez de réserves et du coup, elle s'est effondrée. Bon, les racines du mal sont un peu plus complexes que ça et concernent en fait finalement d'autres banques aussi. Depuis 2008, les taux d'intérêt étaient très bas. Ils étaient même à zéro aux Etats-Unis pendant la période de la pandémie. Donc, l'argent était facile en quelque sorte. Il y a eu un gros boom de liquidité dont on a même parlé indirectement ici. On parlait beaucoup de levées de fonds monstres, on parlait beaucoup d'IPO, on parlait beaucoup de bénéfices monstres en ce temps-là et tout ça a fait que la banque avait plein de liquidités, mais que personne ne faisait plus d'emprunts du coup puisqu'ils avaient déjà de l'argent. Du coup, c'est un gros souci parce que les emprunts, c'est une grosse source de revenus pour les banques. Tous ces intérêts qu'on ne lui payait plus, il fallait trouver une autre manière de gagner de l'argent. Alors, elle a acheté des titres, des obligations d'Etat. Elle s'est constituée un portefeuille qui a perdu beaucoup de valeur ces derniers mois et ce ne serait pas encore trop grave parce qu'elle avait principalement des contrats à terme et donc les pertes étaient latentes virtuelles si tu veux. Enfin, sauf si elle doit les revendre en catastrophe. Et vu la situation actuelle, ça ne vous a pas échappé que c'est très difficile économiquement, c'est très différent de 2021. Les boîtes donc ont plus besoin d'argent, elles retirent plus de fric et donc SVB doit le leur donner, quitte à vendre une partie de ses titres, voire la plupart de ses titres à perte. Donc dernièrement, elle a dû en revendre pour 21 milliards en accusant une perte sèche de 2,2 milliards, donc c'est déjà, je ne sais pas, ce n'est pas génial, mais c'est que le début de la catastrophe. Quand SVB a posté ses résultats, Silvergate, dont on va parler juste après, avait déjà fait faillite. Donc les clients, les investisseurs sont un peu nerveux. Donc là-dessus, il y a Peter Thiel qui a demandé à ses comptables de se retirer immédiatement, donc de retirer immédiatement ses francs à lui. Donc ça fait des dizaines et des dizaines de millions de retraits supplémentaires et ça a encouragé surtout d'autres fonds à faire de même. Il y a Union Square Ventures, il y a Cotube Management, Founders Fund, bon. Et par là-dessus, Michael Burry. Donc Michael Burry, c'est une célébrité, c'est le financier qu'on voit dans le film The Big Short et qui avait donc anticipé la crise des subprimes. Et lui, il a tweeté qu'on tenait peut-être un move-in-and-run. Bon, il n'en fallait pas plus. Donc pendant ce temps, l'action de SVB était en chute libre, ce qui alimente encore la panique. Et donc le 9 mars, la banque doit satisfaire pour pas moins de 42 milliards de demandes de retrait. Bon, en 48 heures, c'est plié. La Silicon Valley Bank est mise sous tutelle de la FDIC, donc c'est la Federal Deposit Insurance Corporation. C'est l'organisme qui s'occupe de la garantie des dépôts des clients, tout simplement. Donc les banques doivent toutes souscrire à cette garantie. Et normalement, elles ne couvrent que 250 000 dollars par compte. Évidemment, là, on parle de boitets qui brûlent facilement des millions par mois. Donc les conséquences se font déjà sentir. Mais du coup, devant la situation, les autorités américaines ont décidé de les renflouer, en réalité, ces banques, très globalement.
0:14:30 à 0:15:20 Guillaume Vendé :
Tu sais que pour SVB, il y a quelques faits que j'ai vus passer qui sont assez ahurissants. Quelques jours avant la faillite, il y a des grands responsables de cette boite qui ont quand même vendu des millions de dollars d'actions pour des millions de dollars de leurs actions. Il y a Gregory Baker, qui est le CEO, qui a vendu 11% de ses actions. Un conseiller général, Michael Zucker, qui a vendu 19%. Daniel Bay, qui est un responsable financier, 32%. Michelle Drager, qui est la responsable marketing, a vendu 25% de ses actions. Il y a quand même un truc assez dingue, d'ailleurs. Il y a des liens aussi assez étroits entre un responsable administratif qui était, en gros, le responsable financier de Lehman Brothers, quand ça, à l'époque, fait faillite. Donc bon, ça laisse son jeu. Ils avaient pendant très longtemps, pendant plusieurs mois, pas de responsable risque. Il n'y avait pas tout ça.
0:15:20 à 0:15:41 Guillaume Poggiaspalla :
Il va y avoir très clairement des... Enfin, il devrait en tout cas y avoir très clairement des enquêtes sur le management interne de ce truc, qui, le jour d'avant, distribuaient encore des bonus, des dividendes et des bonus et tout ça. Enfin, je veux dire, ils étaient dans le déni le plus complet. Bon, oui, clairement, il va falloir qu'il y ait des grosses enquêtes là-dessus.
0:15:41 à 0:16:03 Guillaume Vendé :
Il est question que la banque soit rachetée, enfin, en tout cas, que les actifs restants soient rachetés. Elon Musk aurait même levé le doigt en disant que peut-être il était, et je rigole pas, il était ouvert à l'idée, je cite, de les racheter. Un rêve. On continue, du coup, ça nous permet de faire un petit focus un petit peu sur l'économie des startups, d'ailleurs, Guillaume.
0:16:03 à 0:16:13 Guillaume Poggiaspalla :
Oui, sur les conséquences. Alors déjà, au passage, pour les rachats, la branche anglaise de Silicon Valley Bank a été rachetée par HSBC pour 1 euro. Enfin, 1 euro, 1 dollar.
0:16:13 à 0:16:14 Guillaume Vendé :
1 euro symbolique.
0:16:14 à 0:16:43 Guillaume Poggiaspalla :
Voilà, pour 1 euro symbolique. Donc, il y a déjà eu des rachats, effectivement, et je pense que Musk, s'il se manifeste, c'est peut-être qu'il espère l'avoir à très bon prix, cette banque, on va dire, en solde. Bon, enfin, en tous les cas, on a dit que la Silicon Valley Bank était la banque des startups. C'est vrai, et beaucoup en ce moment, d'ailleurs, doivent ranger leurs freins, comme on dit. D'ailleurs, je me suis longtemps demandé de quel frein il s'agissait. Tu vois, quand tu ranges ton frein, c'est pas le frein de la voiture. C'est pas pratique à ranger, ou le frein de la bistouquette, quoi.
0:16:43 à 0:16:44 Guillaume Vendé :
C'est un autre frein, oui.
0:16:44 à 0:16:48 Guillaume Poggiaspalla :
C'est peut-être bizarre, non ? Non, non, en fait, bien sûr, le frein, c'était le mort du cheval.
0:16:48 à 0:16:49 Guillaume Vendé :
C'est difficile, en plus, et ça fait mal.
0:16:49 à 0:16:56 Guillaume Poggiaspalla :
Ça fait mal. Non, le frein, en vrai, c'est le mort du cheval. On l'appelait comme ça à l'époque aussi. Et voilà, à l'époque où j'étais jeune et frère, au Moyen-Âge.
0:16:56 à 0:16:57 Guillaume Vendé :
On ne le savait pas.
0:16:57 à 0:17:02 Guillaume Poggiaspalla :
Et donc, le cheval impatient, on range son mort, donc il range son frein, et ça vient de là.
0:17:02 à 0:17:05 Guillaume Vendé :
Je croyais que c'était vraiment l'hypothèse de la bistouquette. Ah oui, vraiment ?
0:17:05 à 0:17:06 Guillaume Poggiaspalla :
Tu vois, c'était…
0:17:06 à 0:17:07 Guillaume Vendé :
Oui.
0:17:07 à 0:17:58 Guillaume Poggiaspalla :
Donc, bon, enfin, quittons les chevaux pour revenir aux moutons, et afin de continuer cet épisode de Tech-A-Fé, expression des huettes, merci. Donc, beaucoup d'entreprises tech ont, pour l'instant, leur avoir bloqué, mais ça a été… Alors, à l'époque où j'écrivais ça, c'est-à-dire hier, c'était bloqué. Là, probablement, c'est plus bloqué, parce que, justement, l'État est venu à la rescousse pour, comment dire, pour aller au-dessus des 250 000 dollars réglementaires. Bon, après, voilà, donc ça concerne un petit peu tout le monde, donc il y a des boîtes émergentes qui sont dans une période très difficile, évidemment, en ce moment. Il y a aussi 40 000 clients, quand même, au large, donc ça concerne directement des boîtes qui sont assez grosses comme Etsy, qui a dû geler les paiements de ses clients aux hauts coûts, qui a aussi 487 millions de dollars de dépôts chez SVD. Il y a Roblox aussi, qui a beaucoup, pas mal de fric là-dedans.
0:17:58 à 0:17:59 Guillaume Vendé :
Ah, Roblox, la vache !
0:17:59 à 0:19:22 Guillaume Poggiaspalla :
Ben ouais, bon, 250 000 dollars, ça ne pèse pas lourd, mais en réalité, bon, normalement, ils ont… peut-être qu'à l'heure où vous écoutez ça, ils ont déjà reçu un chèque. En réalité, ils ont déjà récupéré tout leur fonds. Mais donc, évidemment, ça a eu des répercussions directes sur les employés des boîtes prises dans la tourmente, puisque voilà, certains ont eu des retards de paiement, etc. Il y a quand même un tiers des startups gérées par Y Combinator qui auraient eu des problèmes de paiement dans les 30 prochains jours, et bien sûr, il y a aussi tous les frais de fonctionnement d'infrastructures, etc. Bon, pour l'instant, le risque de contagion, les experts estiment qu'il est très limité parce que Silicon Valley Bank, c'était… ben, elle était ce qu'elle était, quoi, la Silicon Valley Bank. Donc, ça reste isolé, elle avait un périmètre vraiment très bien délimité, ça reste un petit peu concentré sur le petit monde de tech, mais bon, de l'autre côté, les circonstances qui ont amené à sa chute, elles sont beaucoup plus répandues, parce que SVB n'était pas la seule banque à avoir acheté des obligations dans la valeur achetée. Et si on regarde plus largement, Market Watch a fait une liste de pas moins de 20 banques qui sont assises sur de grosses, grosses moins-values latentes, qui sont au moins aussi importantes que SVB. Donc, elles sont assises sur d'énormes pertes virtuelles, tant qu'on ne leur demande pas trop de retrait en même temps. Donc, c'est pareil, en fait, l'État est venu assez rapidement à la rescousse de ces banques-là pour éviter qu'il y ait des banques run ailleurs, parce qu'ils savent très bien que les banques semblent un peu fragiles en ce moment.
0:19:22 à 0:19:41 Guillaume Vendé :
Bon, donc, je résume, quelque part, il n'y a pas forcément de propagation à voir directement de cette faillite-là. Pour autant, les conditions de base pourraient être aussi sources de problèmes pour d'autres. On continuera à le suivre. Et donc, tu voulais nous parler un petit peu aussi des deux autres banques concernées dans cette chronique, Silvergate et Signature.
0:19:41 à 0:21:42 Guillaume Poggiaspalla :
Pour être complet, oui, avant même la plongée de Silicon Valley Bank, il y a une autre grosse institution qui montrait des signes de grosses faiblesses. Avant, finalement, de jeter l'éponge, c'était Silvergate, la principale banque des boîtes crypto. Alors, Silvergate avait démarré dans l'immobilier, en fait, et depuis 2014, elle s'était tournée vers les cryptos. Le Bitcoin on Tech était devenu la banque institutionnelle à qui parler pour tous les secteurs cryptos américains, on va dire. En particulier, elle avait mis en place une bourse qui s'appelait le Silvergate Exchange Network, qui est devenue un incontournable pour les allers-retours Bitcoin dollar ou Bitcoin euro. Donc, Silvergate avait Coinbase, Kraken, Gemini comme clients, elle les avait à peu près tous en fait, y compris FTX. Après la faillite de FTX, même scénario, les gens prient peur. Donc, il y a eu aussi un bank run, 60% des dépôts ont été retirés en un trimestre et l'hiver crypto n'arrange rien. Donc, Silvergate a posé des résultats désastreux, en fait, elle a posté des résultats la dernière fois, elle a posté des résultats absolument terribles avec un milliard de pertes le trimestre dernier. Elle a fait beaucoup. Et ce trimestre, c'était encore pire. Donc, la spirale était enclenchée, Coinbase, Paxos, Crypto.com, etc. sont partis. Donc, la chute était quasi inévitable. Il y a un sénateur américain qui a noté un risque systémique pour les banques surexposées au secteur des crypto-monnaies et quatre jours plus tard, c'est Signature de plonger dans la sauce à la tête la première. Donc, Signature, c'était tout simplement la deuxième banque la plus utilisée du secteur crypto après Silvergate. Donc, elle a subi le même sort le 12 mars que la Silicon Valley Bank, donc elle a mis sous tutelle de la FDIC. Mais il semble qu'il y ait quand même une bonne nouvelle puisque tous les clients seraient couverts au-dessus des 250 000 dollars réglementaires autant pour Signature que pour la SVB. Et la Signature avait aussi plus de 88 milliards de dépôts fin 2022. Donc, la Fed a annoncé ça, que tout le monde retrouverait son argent. Après, comment ça va être financé honnêtement, je ne sais pas exactement parce qu'encore une fois, l'État rend flou, donc c'est en consortium avec la Fed, la FDIC, je ne sais pas qui le trésor, je crois, qui fait ça, mais bon, ils craignent comme la Fed.
0:21:42 à 0:21:44 Guillaume Vendé :
Il faut bien trouver l'argent quelque part quoi.
0:21:44 à 0:23:25 Guillaume Poggiaspalla :
Oui, alors comme il y a aussi ces histoires de bons trésors qui avaient des moins-values attendues, je ne sais pas comment ils vont se démerder, ils ont dit que les contribuables ne paieraient pas. Je ne vois pas très bien comment c'est possible. Enfin, c'est peut-être possible, il faudra m'expliquer, je ne sais pas trop. Si je trouve une explication de comment ils financent, je reviendrai. Alors, tout ça, il y a eu un gros retentissement sur les cours des cryptos qui ont replongé parce que déjà, l'USDC qui était quand même une stablecoin a décroché de sa parité face au dollar. Mais depuis, c'est revenu. Et le cours du bitcoin, en fait, est très vite remonté au-dessus des 20 000 euros après être passé vraiment assez bas. Et je pense que voilà, c'était vraiment pendu aux indices très rassurantes des autorités américaines, tout simplement. Donc voilà, les autorités veulent éviter un scénario de contagion. Pour l'instant, on s'est contenu. Écoute, voilà quoi, après, évidemment, au niveau éthique, c'est assez mal perçu aux Etats-Unis. Le renflouement des banques de la Silicon Valley et des banques de la crypto sont assez mal perçus dans l'opinion publique américaine. Ça se voit très simplement si vous allez sur Reddit. Simplement, ça se voit vraiment très vite parce qu'évidemment, la Silicon Valley, c'est un petit peu un repère de libertariens. L'État, c'est le mal. On ne veut pas de régulation. On veut qu'on nous foute la paix. Les cryptos, c'est encore largement pire. C'est libertariens land. Mais bon, c'est vrai que l'État, c'est le mal. Quand il vous vient vous tirer de la merde, on ne refuse pas la main tendue, tu vois. Donc voilà, c'est vraiment… Et puis après, au-delà de ces sauvetages-là, il y a aussi la question qui va se poser pour les boîtes Web3 de trouver des remplaçantes à Silvergate et Signature. Donc, c'est devenu quand même soudainement plus difficile de passer du Bitcoin au dollar et vice-versa. C'était deux acteurs majeurs. Ça va probablement avoir un impact durable. Et c'est vrai que l'opinion publique… Alors en France, c'est vrai que ça nous passe un peu au-dessus parce qu'on ne connaît pas vraiment les noms. Aux États-Unis, par contre, ça ne passe vraiment pas très bien.
0:23:25 à 0:24:21 Guillaume Vendé :
Oui. Et puis, ça peut orienter des mouvements quand même les États-Unis sur ces sujets-là. Donc, on en percevra des conséquences forcément. Bon, c'est intéressant. J'ai l'impression que tu nous as fait une super belle synthèse, Guillaume, sur ces sujets autour des banques américaines qui sont concernées par ces situations particulièrement difficiles. Du coup, on peut clore ce sujet avec l'esprit d'avoir fait un devoir accompli et on va pouvoir se faire plaisir en continuant à parler d'intelligence artificielle comme on le fait semaine après semaine. Et en plus, Guillaume prépare un super conducteur. Comme vous le savez maintenant, vous retrouvez les notes sur techcafé.fr. Et vous pouvez même, d'ailleurs, j'en profite, notamment si vous êtes soutien sur Patreon, vous avez un palier qui vous permet d'accéder sur Discord. Il y a un petit lien aussi qui vous permet de voir les notes avant qu'elles soient diffusées. Je le dis un petit peu, je ne suis pas sûr qu'il y ait grand monde qui en parle. Peut-être que je recommuniquerai dessus. Mais en tout cas, il avait préparé un super conducteur.
0:24:21 à 0:24:25 Guillaume Poggiaspalla :
Vous pouvez voir mes photos, voir mes résultats.
0:24:25 à 0:24:47 Guillaume Vendé :
Je n'ai pas dit qu'il y avait tes notes, il y avait le conducteur. Ce n'est pas la même chose. Non, ce n'est pas vrai. Ce n'est pas vrai. Pour l'instant. Mais du coup, il avait préparé un super conducteur, disais-je. Et qu'est-ce qui se passe ce mardi 14 mars ? Patatras, GPT4, arrive, boum, boum, boum, un gros article d'OpenAI qui nous explique en quoi c'est génial. Et force est de constater, Guillaume, que c'est quand même assez bluffant.
0:24:47 à 0:27:37 Guillaume Poggiaspalla :
Écoute, oui, qu'est-ce que tu veux ? On ne peut pas passer à côté. C'est notre devoir, quelque part. C'est non pas annoncé, mais présenté carrément sur le site d'OpenAI. Donc, c'est vraiment tout frais de cet après-midi. Ça vient vraiment de tomber. Donc, ce qu'on pourra dire, c'est quand même encore très préliminaire. Mais finalement, ça rejoint pas mal ce qu'on avait dit sur Cosmos 1 ce week-end, dans le supplément. Donc, on avait parlé ce week-end de Cosmos 1, un grand modèle de langage multimodal de chez Microsoft. Et oui, multimodal. Et c'est vrai que c'est le maître mot, je pense, pour la sortie de GPT4. Parce que, tu vois, GPT, BARD ou Lama sont déjà complètement has-been. C'est ça. Le truc, c'est que l'avenir est au modèle multimodaux. C'est-à-dire ceux qui peuvent manipuler du texte, des images, potentiellement du son ou encore d'autres modalités, comme on dit. Donc, voilà. Si vous avez écouté l'épisode week-end de Cosmos 1 de Microsoft, c'est un bon exemple de modèle qui gère à la fois du texte et des images. Donc, vous pouvez lui parler en texte, comme un chat de GPT, comme Bing, voilà. Et vous pouvez aussi injecter des images dans votre prompt et il va les comprendre. Il pourra les décrire, il pourra s'en servir comme contexte pour la suite de la conversation, etc. La multimodalité, c'est une plus-value assez claire, d'ailleurs aussi pour la recherche. On imagine que les IA pourraient aussi produire des images, disons, plus tard, elles pourraient même produire leurs propres images, on sait qu'elles peuvent le faire. On pourrait imaginer qu'un modèle de langage puisse même produire des images pour illustrer ce qu'elles disent, pour faire des schémas, peut-être, pourquoi pas. Si les modèles deviennent capables de gérer aussi plus que des mots, finalement, qu'est-ce qu'ils font ? Ils gèrent des signaux, tu vois, des signaux, des signaux complexes, une image en couleur, un signal complexe. Et on pourrait aussi imaginer une gestion des sons de la même manière, une compréhension orale directe, par exemple. Evidemment, pour voir aussi les reconnaissances des bruits, etc. Mais pour le moment, on n'en est pas là. GPT-4 se contente, entre guillemets, d'être comme Cosmos, c'est-à-dire de traiter des images en plus du texte. Alors, évidemment, on n'a pas pu le toucher, on n'a pas pu le tester, ni rien. Donc, on va se contenter des exemples qui sont donnés, évidemment, sur la page d'OpenAI. Et donc, dans un premier temps, GPT-4, c'est aussi un modèle de langage auquel on peut parler et qui est plus efficace, qui est donc plus sophistiqué que GPT-3 et GPT-3.5. Alors, de plusieurs manières objectives, par exemple, il a une plus grande fenêtre d'attention, c'est-à-dire qu'il retient plus de choses. Donc, je crois que là, on est passé à quelque chose comme 28 000 tokens, c'est-à-dire environ 20 000 mots. Donc, ça veut dire qu'il retient jusqu'à 20 000 mots en arrière, donc ça ouvre la voie à possiblement faire des textes beaucoup plus longs, produire des livres, des nouvelles au moins qui soient cohérentes, parce qu'il garde la trace de tous ces mots en arrière, ce qui est assez extraordinaire. Il est aussi moins prompt à halluciner, si on le compare à GPT ou à GPT-3, et quand on lui pose des questions, il raconte moins n'importe quoi, même si ça lui arrive toujours.
0:27:37 à 0:27:42 Guillaume Vendé :
Ils avertissent très clairement que c'est encore le cas, mais effectivement c'est moins, mais ça arrive encore.
0:27:43 à 0:28:24 Guillaume Poggiaspalla :
Oui, et il est aussi meilleur en raisonnement logique, et d'ailleurs, il y a un exemple qui m'a quand même vraiment impressionné sur cette histoire de raisonnement et de cheminement logique. Pourtant, c'est pur contexte, on n'a même pas encore abordé la multimodalité, mais c'est qu'à un moment, l'opérateur lui demande de se comporter comme un prof et de manière socratique, comme il dit, c'est-à-dire qu'en gros, tu ne réponds pas directement à les questions qu'un étudiant te pose, mais tu lui poses toi-même des questions pour qu'il arrive à la réponse, pour qu'il réfléchisse et qu'il arrive à la réponse tout seul. Et donc, il fait ça sur un système d'équation, je crois, système d'équation à deux inconnus, et donc, évidemment, au début, l'opérateur qui joue l'étudiant lui demande qu'il y a la réponse, qu'il y a la réponse. Chat GPT...
0:28:24 à 0:28:25 Guillaume Vendé :
Vas-y, réponds, merde !
0:28:25 à 0:28:38 Guillaume Poggiaspalla :
Pas de chat GPT, mais GPT4 ne sort jamais du personnage, et il suit le raisonnement logique en encourageant et en donnant des indices à l'étudiant jusqu'à ce qu'il arrive à la réponse.
0:28:38 à 0:28:43 Guillaume Vendé :
Mais au début, il insiste à l'étudiant. Vas-y, donne-moi la réponse, s'il te plaît, s'il te plaît, s'il te plaît !
0:28:43 à 0:29:23 Guillaume Poggiaspalla :
Non seulement, il tient bon, ça sous-entend aussi que GPT4 serait peut-être moins enclin au jailbreak que le chat GPT qui a été jailbreaké assez rapidement, on va dire, donc ça serait peut-être un peu moins le cas sur GPT4, et surtout, le cheminement logique est troublant, vraiment troublant. Dans cet exemple en particulier, j'ai trouvé ça vraiment troublant. Et donc, il y a d'autres exemples qui sont quelque part ce qu'on connaissait déjà, mais un petit peu mieux. Et puis, il y a toute cette partie multimodale qui fait que vous pouvez désormais lui envoyer une image, quelle qu'elle soit finalement, ce ne sera pas peut-être une photo de votre téléphone ou ça peut être une image que vous avez trouvée sur Internet, vous pouvez lui demander de la…
0:29:23 à 0:29:24 Guillaume Vendé :
Une image qui a du texte d'ailleurs.
0:29:24 à 0:31:03 Guillaume Poggiaspalla :
Absolument, qui peut très bien avoir du texte dedans, bien sûr. Donc, ça peut être une image, effectivement, vous lui envoyez une image avec des œufs de la farine et je ne sais pas, des œufs de la farine et pas du lait, et vous lui demandez qu'est-ce que je peux faire avec ça, en disant voilà juste ça, qu'est-ce que je peux faire avec ça. Et donc, GPT4 va être capable de savoir que dans la photo, il y a ces ingrédients-là, il va pouvoir vous répondre, savoir qu'est-ce que vous pouvez faire comme recette avec ce truc-là. Et effectivement, il peut y avoir du texte, il peut même synthétiser quelque chose qu'il y a sur par exemple un graphique. Et il y a un autre truc qui est vraiment très impressionnant, c'est qu'il y a un histogramme avec, alors c'est la consommation de viande dans trois pays, bon, on va pas rentrer dans les détails. Donc, en fait, vous avez le titre, vous avez les légendes et tout, vous avez le histogramme, c'est vraiment un truc classique, quoi, mais qu'il faut interpréter. Et là, on demande, l'opérateur demande de faire la somme des consommations moyennes de deux pays. Et tu donnes que le graphique, tu donnes que l'image, tu donnes que l'histogramme à GPT4. Et GPT4, il va te dire, OK, et oui, parce qu'on lui demande aussi d'expliquer pas ce qu'il fait. Donc, GPT4, avec uniquement l'image du graphique, le JPEG de ce histogramme, il va être capable de localiser où sont les barres des pays, où sont les histogrammes des pays, où sont les valeurs qu'il faut regarder, il va être capable de les extraire, il va comprendre qu'il faut les additionner, il va les additionner, il va donner le bon résultat. Et ça, ouais, ça, ça met sur le cul, ça met sur le cul. Alors, Cosmos fait un petit peu ça aussi, mais disons que c'est une sorte de super Cosmos. Et bon, ce qui est extraordinaire, c'est que GPT4, finalement, je ne sais pas, avant, est-ce que toi, tu as dit, il y a un exemple qui t'a vraiment...
0:31:03 à 0:32:11 Guillaume Vendé :
Oui, il y en a deux, et c'est les trucs visuels, moi, qui me marquent. Il y a notamment l'examen de l'école polytechnique, il y a un problème qui est posé, je le cite, et d'ailleurs, il est vraiment l'école polytechnique en français, le principe de la détection de rayonnement avec un bolomètre et on lui demande de répondre, déjà, il trouve évidemment la bonne question. Ça, c'est assez trivial. Après, il résout le truc. Ça, c'est assez bluffant. Et au-delà de ça, il y a aussi le plateau de Nuggets, et en gros, c'est une image où, de manière assez approximative, les Nuggets sont disposés de manière à représenter les continents et on lui demande, est-ce que tu peux m'expliquer ce mème, quoi ? Et le truc arrive à comprendre, c'est intuitif au premier abord, même si ça nous paraît évident à nous, humains, mais il arrive à comprendre que c'est des Nuggets et que ça représente une même monde. Et je trouve ça, moi, perso, c'est vraiment les trucs qui me marquent le plus, tout, dans les exemples. Je me rappelle, c'est des exemples choisis, ce n'est évidemment pas des exemples qui ont été testés et mis à l'épreuve auprès du grand public, puisque c'est vraiment un article de présentation, mais ça reste quand même assez ahurissant, ce qu'on arrive à faire aujourd'hui. La question que je me posais, Guillaume, c'est est-ce qu'on peut être amené à penser que l'utilisation de GPT-4 nécessite plus de ressources que GPT-3.5 ?
0:32:11 à 0:32:58 Guillaume Poggiaspalla :
C'est difficile à dire. Pas sûr, en fait, c'est ça. Ce que tu dis, par exemple, tu vois, l'analyse de même ou comprendre des blagues ou comprendre pourquoi une image est incongrue, ça, Cosmos sait le faire aussi, par exemple. Alors, pourquoi je prends l'exemple de Cosmos ? Parce que ce qui est intéressant avec Cosmos, c'est qu'il n'est pas si gros que ça. Il est moins gros que GPT-3. Et c'est assez étonnant, mais en réalité, la taille n'est pas forcément proportionnelle aux performances. Pas vraiment. Il n'y a pas que la taille qui compte. C'est en règle générale, oui, mais ça voudrait dire, si tu veux, que tous les modèles sont vraiment optimisés, en fait, et que tous les poids sont vraiment optimisés au mieux. Et ça, en fait, on n'en sait rien et en réalité, Cosmos est déjà capable de faire de l'analyse de même. Il est déjà multimodal.
0:32:58 à 0:32:59 Guillaume Vendé :
Il est plus petit que GPT-3.
0:32:59 à 0:37:00 Guillaume Poggiaspalla :
On l'a dit. Je ne sais pas quelle taille fait GPT-4, je ne sais même pas si ça a été révélé. En tout cas, je n'ai pas vu la taille, donc je ne sais pas. Donc, je dirais qu'il est probable qu'il soit plus gros que GPT-3 parce qu'il a toujours les mêmes capacités textuelles et qu'ils sont encore plus évolués. Et en plus, il est multimodal, donc il est peut-être au moins aussi gros, mais il n'est pas forcément si énorme que ça, si tu veux. Quand on voit Cosmos et les performances que présente déjà Cosmos, ce n'est pas complètement évident qu'il soit incroyable. Et finalement, on a vu tous ces exemples statiques, c'est vraiment assez incroyable et ce qui est fou, c'est qu'il est déjà, enfin il est à peine présenté, il est déjà disponible dans l'API et il y a déjà un partenariat d'OpenAI avec plein de boîtes pour utiliser GPT-4, comme Duolingo, Stripe, Morgan Stanley et même le gouvernement islandais. Donc, sur Duolingo, vous allez pouvoir discuter avec GPT-4, qui est polyglotte évidemment puisqu'il a été entraîné sur des bases incroyables de textes. Et donc, on l'a vu, tu l'as dit, cet exemple avec le boulomètre, c'était vraiment une question d'un examen en français, et l'exemple était en français. Ça ne pose aucun problème à GPT-4 d'y répondre en anglais par ailleurs, ce qui est assez rigolo. Donc, il y a vraiment un gros potentiel, effectivement, donc il y a beaucoup de boîtes qui vont l'utiliser, et donc c'est vraiment très excitant, et de notre côté, ça continue de poser la question sur le surcroît de puissance de calcul que ça va demander. Parce que, non seulement, parce que, j'ai dit effectivement, ce modèle n'est pas forcément beaucoup plus gros que GPT-3, ça reste à voir, je ne sais pas encore, mais bon, le truc, c'est qu'on va mettre de l'IA absolument partout. Les modèles multimodaux, ils ont l'air incroyables, mais c'est vrai qu'ils ne sont pas plus légers. Donc, on commence à voir arriver des modèles moins lourds en ce qui concerne les modèles de langage pur, qui sont donc aussi puissants mais moins gros, mais en particulier en entraînant plus, en fait, c'est souvent comme ça, on a un petit peu moins de paramètres, mais on les entraîne plus, donc en fait, on exploite mieux les paramètres qu'on a. Mais bon, à peine on commence à réduire, si tu veux, les modèles de langage pur, qu'il y a une nouvelle classe d'IA qui arrive, les IA multimodales, et donc tu remets 100 balles dans la machine, et bon, forcément, ça va repartir quand même à la hausse. Donc ça va coûter très cher en termes de capacité de calcul, donc de pognon, et alors si on se demande combien, il y a les gars de Chenex Platform qui ont digéré les statistiques de IDC, alors IDC c'est International Data Corporation, donc c'est un truc d'experts quoi, et ils ont des projections. Donc les dépenses à l'IA pourraient croître à 885 milliards en 2026, contre 447 aujourd'hui et 317 en 2020, et on est sur une croissance de 19% par an, et en fait c'est même pire si on se concentre sur l'IA pur, parce qu'en fait il différencie les services IA, enfin les boîtes qui sont IA-centriques et celles qui sont non IA-centriques. Donc on peut donner un exemple, comme vraiment une boîte qui est IA-centrique, c'est Open AI, et comme boîte qui est non IA-centrique, c'est Discord. Discord, donc il va utiliser, on va en reparler, de l'IA pour son appli, bon ben c'est non-centrique parce que si tu vires l'IA de Discord, le service marche toujours, ça reste un bonus en fait, alors qu'Open AI, lui, il ne fait que ça, c'est vrai, vraiment il ne fait que ça. Donc les dépenses à l'IA non-centrique croissent d'environ 15% par an, alors que pour l'IA pur, les IA-centriques, c'est plutôt du 27% par an. Donc c'est vraiment énorme, ça s'explique par le fait que, voilà, ceux qui sont IA-centriques, ils ont des besoins de super machines, ils ont des besoins de super ordinateurs en fait, pour accélérer tout ça. De fait, ils sont dans le secteur du HPC, du High Performance Computing, du calcul performance le monde des super ordinateurs, dont on parle parfois dans le supplément, là on est complètement dedans quoi, et le côté software et les prestations coûtent aussi de l'argent, mais le cœur du problème quand même se situe chez ceux qui doivent acheter des serveurs par palettes entières, et bon, on va voir comment tout ça sera rentabilisé, à quel point tout ça sera décarboné. Alors quand je dis des serveurs par palettes entières, je veux dire Microsoft, pour fabriquer et faire tourner cette GPT, il a dépensé des centaines de millions de dollars en matériel, en serveurs, en machines, tu vois, donc c'est assez brutal quand même.
0:37:00 à 0:37:04 Guillaume Vendé :
Tu voulais nous continuer à nous parler un petit peu des prix, Guillaume ?
0:37:04 à 0:37:09 Guillaume Poggiaspalla :
Oui, parce qu'en fait, avant même que GPT 4 ne soit présenté, il y avait donc...
0:37:09 à 0:37:13 Guillaume Vendé :
Dans le conducteur d'il y a quelques heures avant la présentation.
0:37:13 à 0:39:22 Guillaume Poggiaspalla :
Ça va tellement vite qu'on est obligé quasiment de modifier le conducteur en temps réel, effectivement nos compagnies AI a déjà commencé à casser les prix en fait sur ces prestations, parce que si on regarde les tarifs de GPT 3.5, donc DaVinci, le modèle qui était le plus puissant avant le jet GPT, on était environ à 2 cents pour 1000 tokens. Alors un token, on parle souvent, en fait c'est une unité de représentation du texte. Donc une unité de représentation du texte, on dit souvent que c'est un mot, c'est vrai, un mot est un token la plupart du temps, mais ça peut être aussi une virgule, ça peut être un espace, ça peut être un retour à la ligne, donc en fait ce n'est pas juste que des mots. Donc en fait ça va un peu plus vite que, voilà, si on peut l'imaginer au premier abord, 1000 tokens, c'est dans les 750 mots, mais bon, ça vous fait toujours dans les 50 000 mots, voilà, pour 2 dollars, donc si vous êtes un particulier, vous avez sans doute de la marge j'imagine, mais bon, si vous êtes Notion, ou si vous êtes Grammarly, ou si vous êtes Jasper, ben ça va vite chiffrer quoi. Alors pour le moment OpenAI est le principal fournisseur d'accès, un modèle de langage, ça ne va pas durer probablement, mais bon, comme s'il s'attendait à avoir son monopole de fait attaqué très prochainement, OpenAI offre désormais un GPT 3.5 et déjà le GPT, et peut-être même une version turbo GPT, parce qu'en fait il y en a une douzaine je pense de modèles GPT différents, donc les nouveaux modèles en fait sont à 0.2 cents pour 1000 tokens, soit dans les 750 000 mots pour 2 dollars, c'est-à-dire 10 fois moins cher qu'auparavant. Alors c'est un peu étonnant parce qu'on ne peut pas dire qu'ils soient vraiment pressés, il n'y a pas vraiment beaucoup de concurrence pour le moment, et du coup ils gagnent aussi beaucoup moins d'argent pendant ce temps-là, mais ça n'a pas l'air de le gêner, OpenAI apparemment fait une sorte de dumping sur la concurrence future, et je pense que les largesses de Microsoft le lui permettent sans aucun doute, parce qu'avec les milliards qu'ils leur donnent, il est sans doute possible de fonctionner tranquille tout en faisant très peu de bénéfices et en étouffant le marché avec des prix qui sont déjà au plancher. Et c'est une question essentielle pour les clients aussi de ces fournisseurs d'accès, parce que ces fournisseurs d'accès comme OpenAI en fait elles alimentent d'autres boîtes, on l'a dit, même Duolingo très bientôt va utiliser GPT-4, et donc ces autres boîtes évidemment elles vont facturer aux clients le prix que OpenAI leur facture l'IA, puisque
0:39:22 à 0:39:25 Guillaume Vendé :
ce n'est pas leur IA. Bien sûr, ça ne va pas être un cadeau qu'elles vont faire, évidemment.
0:39:25 à 0:40:53 Guillaume Poggiaspalla :
Exactement, et si tu veux il faut que ça soit attractif, parce qu'il faut quand même que les gens aient envie de payer pour son nouveau service, donc évidemment le nouveau service c'est mieux, mais ils ne vont pas payer trop cher en plus, donc ça va être compliqué de trouver un équilibre, ça va être difficile d'exister pour tous les GPT-Clone qui vont arriver, il y en a pas mal à l'horizon, puisqu'il y a StabilityAI, donc ceux-là-même qui sont à l'origine de StableDiffusion, qui sont à quelques mois de dévoiler leur pauvre chatbot. On avait déjà évoqué Cohere, on avait évoqué Ginkface qui a son propre modèle, donc le fameux Bloom, il y aurait aussi AI21, IronTropic qui a levé 300 millions de fonds récemment, Cohere qui a levé 170 millions, donc c'est pas mal d'argent, 300 millions ça va quoi, c'est pas mal, si c'est pas bloqué chez SVB, mais bon la fête est sur le coup. Mais bon voilà, c'est pas non plus la puissance de Microsoft derrière tu vois, donc tout le monde en a en fait, des modèles de langage même très puissants depuis relativement longtemps, tu vois NVIDIA Megatron, MetaGalactica, Lama, Google en a à peu près une demi-douzaine au minimum, donc il y en a des dizaines de toutes les tailles qui sont même en open source, mais le souci c'est qu'il faut les déployer, il faut créer une API simple et en faire un vrai service, et là-dessus OpenAI a une vraie longueur d'avance, même si technologiquement en fait ils sont dans la moyenne, ils sont pas non plus, tu vois c'est pas forcément le top top top niveau scientifiquement parlant, c'est juste voilà, ils sont dans la bonne moyenne. Et c'est pas évident de déployer ces petites bêtes, parce que c'est des grosses bêtes en fait, et c'est peut-être d'ailleurs, voilà, peut-être ce qui nous sauve encore pour l'instant, une déluge d'informations mais pas pour très longtemps.
0:40:53 à 0:41:41 Guillaume Vendé :
Ouais, tu m'étonnes, mais sur les modèles économiques et sur les coûts, je regardais un petit peu justement Duolingo qui va proposer donc l'abonnement max là, qui intègre GPT-4, c'est bizarre sur les prix, c'est loin de négligeable, c'est 30 balles par mois, ou alors c'est bizarre 167,99 dollars par an, je sais pas quel est le responsable marketing qui a défini le prix à l'année versus le prix au mois, mais c'est loin d'être neutre en termes de prix, il faut être prêt quand même à mettre ce type de budget pour le grand public et sur ces valeurs ajoutées là, je sais pas si ça va tenir dans le temps, surtout quand il y aura effectivement les concurrents qui vont être là. Alors justement, Guillaume, tu parles un petit peu, tu évoques les clones, il y a aussi un service dont on doit continuer à parler, c'est l'Iama, je vais continuer à l'appeler comme ça moi, l'Iama.
0:41:41 à 0:41:48 Guillaume Poggiaspalla :
Donc l'Iama, c'est l'Iama, on avait déjà parlé de l'Iama, en fait c'est l'ama avec
0:41:48 à 0:41:54 Guillaume Vendé :
deux M. C'est dans l'Iama, en fait ça se prononce IA, c'est pour ça c'est malin, c'est l'Iama.
0:41:54 à 0:42:34 Guillaume Poggiaspalla :
Donc l'Iama, effectivement, c'est le dernier modèle de langage de méta qui est extrêmement prometteur. Il y a donc des modèles, l'Iama plus exactement, puisqu'il n'existe que quatre tailles, de 7 à 65, pas années, à 65 milliards de barremètres, et donc on a dit que la version à 13 milliards était presque aussi puissante que GPT-3 avec dix fois moins de paramètres, et la version à 65 milliards était vraiment l'état de l'art, on va dire en la matière. Et donc on avait aussi dit que pour l'instant, les modèles n'étaient pas totalement publics mais réservés à des fins de recherche. Bon, ça c'est fini, l'Iama est en cavale, il est reparti à l'état sauvage, le Iama, quelqu'un a fait fuiter tous les modèles, ils sont dispos sur Github, enfin via Github, ils sont téléchargeables, donc si vous avez 219 Go d'espace disque, vous pouvez vous
0:42:34 à 0:42:36 Guillaume Vendé :
l'offrir. C'est pas tant que ça !
0:42:36 à 0:43:23 Guillaume Poggiaspalla :
Et oui, effectivement, c'est pas si énorme, en tout cas c'est gérable, et voilà, vous serez en possession d'une des Ias de langage les plus avancées du monde. Et là, j'allais dire, oui après, il faut quand même les mettre en œuvre, c'est pas évident, mais là tout s'accélère, tout explose, et j'arrive plus à suivre. Originellement, effectivement, à moins que vous ayez au moins 256 Go de RAM, un cluster de GPU Pro, dur d'imaginer de faire tourner le poids lourd à 65 milliards de paramètres, ça c'est genre vraiment pas sur un PC moyen, donc il y avait bien la version à 17 milliards, mais même là, ça prend à priori 68 Go de RAM à charger, peut-être 34 Go de VRAM si c'est en 16 bits ou ça, bon ok, mais c'est quand même très lourd. Et puis là c'est parti, je sais pas ce qu'il s'est passé, ça a explosé, les gens se sont éclatés dessus, et c'est vraiment que le début, il y a plein de gens qui ont commencé à s'amuser avec, et de jour en jour, des nouvelles versions de plus en plus légères sont apparues.
0:43:23 à 0:43:25 Guillaume Vendé :
Donc ça s'optimise de jour en jour.
0:43:25 à 0:44:28 Guillaume Poggiaspalla :
Et on est peut-être en train de vivre un moment Stable Fusion, pour les modèles de langage, c'est ce moment où ça s'est démocratisé, où il y avait une espèce de déclic. Parce que le Liyama est parti en cavale le 2 mars exactement, et le 10, il y a donc Georgi, ou Georgi, je sais pas, Gerganov, qui sert une version, enfin Gerganov, je suis pas sûr que tu puisses dire, mais bon en tout cas il a sorti une version C++ qui tourne sur Mac M1, et au passage, ce mec est très fort parce qu'il est aussi l'auteur d'une version C++ de Whisper, donc Whisper le truc qui fait de la transcription audio, qui est particulièrement rapide sur CPU, c'est un truc à regarder si vous êtes intéressé. En tout cas, le lendemain, il y a un mec qui s'appelle Artem Andriko, qui a réduit la version 7 milliards, donc 7B, 7 milliards de paramètres, sur un Raspberry Pi 4. Alors c'est très long, mais ça marche sur un Raspberry Pi, c'est absolument dingue. Et le lendemain encore, il y a cette version-là, je crois que c'est la 7B, qui tournait sur Node.js, donc en javascript, et le jour d'après, il y en a un qui fonctionnait sur un téléphone Pixel 6.
0:44:28 à 0:44:33 Guillaume Vendé :
Bientôt on va les faire tourner sur des Texas Instruments, des calculatrices.
0:44:33 à 0:46:00 Guillaume Poggiaspalla :
C'est ça, c'est exactement ça. Donc Stanford vient de lancer son projet Alpaca, donc Alpaca c'est une version un petit peu fine-tunée de l'Yamaha qui devrait atteindre les performances de GPT-3, voire 3.5 DaVinci sur des machines très très largement moins puissantes. C'est pas encore terminé, mais c'est en cours. Alors tous ces petits miracles viennent quand même avec des quantization, donc des réductions de précision qui sont plus ou moins agressives. C'est-à-dire qu'on va convertir le modèle original, qui en général est sur une précision de 32 bits, sur des précisions qui sont plus faibles de 16, 8, voire 4 bits. Alors 4 bits, c'est pas sans conséquence sur les résultats du modèle, sur la qualité des productions. Donc il va falloir probablement trouver un point d'équilibre optimal pour le ratio taille-puissance-qualité des résultats. Mais il n'est pas exclu que d'ici quelques semaines, on puisse assez simplement installer une sorte de GPT DaVinci en local sur son PC et s'amuser gratuitement avec pour faire tout ce qu'on veut. Alors évidemment du coup, ça date pas de Yamaha, il y a quand même pas mal d'inquiétudes au sujet de la diffusion des modèles de langage, parce qu'il y avait déjà un GPT-J, GPT-Neo, Bloom, qui sont open source, qui sont déjà disponibles depuis plusieurs mois, voire années. Comme GPT-2 d'ailleurs, qui est fini par être disponible, ou BERT. GPT-J d'ailleurs, il a presque deux ans. Et pourtant, pour l'instant, on n'a toujours pas vu de campagne de phishing, d'infox, de propagande générée par des IA à grande échelle, ou alors on les a pas remarqués.
0:46:00 à 0:46:03 Guillaume Vendé :
Voilà, c'est ça, c'est peut-être pas rendu compte.
0:46:04 à 0:47:00 Guillaume Poggiaspalla :
Mais bon, parce que jusqu'ici, faire tourner ces modèles, même GPT-J, avec une qualité suffisante, c'était un peu compliqué et coûteux, probablement plus que faire ça à la main, enfin faire faire ça à la main pour des gens sous-payés. Donc pour le moment, peut-être que la rentabilité des modèles de langage pour la cybercriminalité ou les campagnes d'influence n'est peut-être pas encore là, mais ça pourrait changer très vite. Après, il ne faut pas être ouvert tout en or, ça va aussi apporter plein de choses positives sur la recherche, la création de nouveaux outils, de nouveaux usages, on est en plein boom, vraiment, on est en plein boom de l'IA, et bon, c'est l'IA, c'est comme pour les logiciels standards, il y a plus d'effets bénéfiques à libérer les codes qu'à essayer de les verrouiller, souvent peine perdue, il n'y a qu'à voir l'IAMA, ils ont essayé de le verrouiller. Évidemment, après, il faudra faire le bilan, donc les avis sur le bilan positif qu'on aura, évidemment, divergent selon les experts, mais qu'est-ce que tu veux, c'est difficile d'avoir toujours un mouvement et l'avenir, comme dit Maître Yoda.
0:47:00 à 0:47:22 Guillaume Vendé :
C'est beau. Si vous aimez Maître Yoda, venez évidemment voir les notes de l'épisode sur techcafé.fr, mais on va justement continuer un petit peu à parler de ces modèles et de leurs applications avec Microsoft sous le regard de Bing, qui semble exprimer le fait que GPT a eu son apport sur le service Guillaume.
0:47:22 à 0:50:21 Guillaume Poggiaspalla :
Cette semaine, on a un véritable festival de nouveaux clients pour OpenAI, des nouveaux convertis à chat GPT, des nouveaux contaminés, peut-être par le chat GPTisme, diront certains, donc effectivement Bing, c'est le patient zéro, qui se porte à merveille comme un charme puisqu'il témoigne avec les larmes aux yeux, chat GPT a changé ma vie. Avant, tous mes petits camarades se moquaient de moi, j'étais petit, chétif, j'étais la tête de turc de tout le monde. Heureusement que je pouvais passer mes nerfs sur DuckDuckGo et martyriser Ecosia, sinon je pense que j'aurais craqué. Mais depuis que je mets chat GPT, tout a changé, je suis devenu populaire, tout le monde se retourne sur mon passage. Oui, c'est un produit de luxe, c'est vrai, mais maintenant, j'existe, on me respecte et ça, ça n'a pas de prix. Si, c'est un prix, en fait, c'est un très gros prix, mais c'est quand même un événement, Bing vient de passer la barre des 100 millions de visiteurs quotidiens, soit dans les 3 milliards de visiteurs mensuels. C'est 88 milliards pour Google, donc on s'enflamme pas, mais ça monte petit à petit. Eux-mêmes sont bien conscients d'être toujours en acteur très minoritaire, mais ça semble aller bien booster l'attractivité de Bing. Et donc, fort de ce constat, tout le monde veut mettre du chat GPT et sentir bon l'IA. Alors, par exemple, le premier round de nouveau GPTiste, Discord, on en parlait juste avant, qui va donner à Clyde la puissance de chat GPT. Clyde, c'est le bot qui est déjà dans Discord, il pourra être invoqué à tout moment, mais vous pourrez chatcher avec lui, il va répondre à tout type de questions, ce sera un chatbot dans une application de chat, c'est finalement assez naturel. OpenAI va aussi fournir ses outils pour améliorer la modération de l'automode, toujours sur Discord. Et c'est vrai que doués comme ils sont pour le langage, ces nouvelles IA sont assez doués à interpréter les sentiments, les phrases, et donc à déceler des trucs toxiques, des trucs toxiques qui n'ont rien à voir sur un serveur bien élevé. Il y aura aussi une option pour s'amuser avec l'avatar remix, qui va utiliser une instance de StableDiffusion pour remanier les photos de profils. Et puis bon, Discord veut même aller plus loin en lançant un fonds de 5 millions de dollars pour développer des outils de génération d'images collaboratifs. En gros, vous aurez une sorte de tableau blanc à l'intérieur de Discord et chacun pourra donner des instructions, vous pourrez essayer de créer ensemble une image. Donc beaucoup plus sérieux et équipé d'une cravate et de costumes en harmonie, par contre, ChatGPT fait son entrée chez Salesforce. Il peut être utilisé pour la création de messages pour la relation client, pour le service marketing, etc. Donc en gros, les réponses aux clients pourront être en partie générées par des IA et ils pourront aussi pitcher les derniers merveilleux produits des clients de Salesforce. Les devs auront aussi le droit à une version de Einstein GPT réglée aux petits oignons pour les aider à développer en APEX, le langage maison que je ne connais pas du tout, par ailleurs. Dans la continuité, il y a Slack qui aussi logiquement devient un GPTiste puisque Slack appartient à Salesforce. Et on retrouvera donc dans la messagerie d'entreprise, ChatGPT qui pourra faire des résumés mais aussi créer des brouillons de messages, etc. Donc ça y est, ça arrive, désormais en entreprise, vous recevrez des kilotonnes de messages qui seront générés par des IA, mais heureusement, des IA pourront les lire, les résumer et répondre à tout ça pendant que vous, vous pourrez discuter des vrais projets de l'entreprise à la machine à café.
0:50:21 à 0:50:35 Guillaume Vendé :
C'est tellement l'avenir ! Je me réjouis de savoir que l'environnement de bureau va évoluer dans le bon sens grâce à ça. Et puis on continue, il y a tellement de services à citer Guillaume, Azure, les moteurs de recherche et les autres navigateurs alternatifs.
0:50:35 à 0:51:24 Guillaume Poggiaspalla :
Azure de Microsoft, c'est une surprise ou non, ce n'est pas une surprise. Azure avait déjà un service OpenAI. Il y ajoute bien évidemment un ChatGPT, c'est totalement logique, via Azure, on aura donc directement accès à GPT 3.5, Codex, DALI, ChatGPT et probablement GPT 4. Evidemment, il faut s'y attendre. Pas beaucoup plus surprenant, Grammarly, qui est un outil de rédaction plus spécialisé dans la correction grammaticale et orthographique jusqu'ici, va sauter le pas, évidemment, de la génération de texte à la demande, parce qu'il faut bien rester dans la course face à Notion, même face à Gmail, qui va probablement s'en équiper, on s'y attend aussi. Grammarly Go, d'ailleurs, ne sera pas plus cher. Ce qui montre bien l'importance, d'ailleurs, des tarifs d'OpenAI dans ces décisions. Tu vois, comment on encaisse le surpris du coup. Un peu plus surprenant, Doc2Go trempe un petit orteil dans le monde merveilleux de l'IA générative avec un service assez ciblé.
0:51:24 à 0:51:25 Guillaume Vendé :
C'est mesuré.
0:51:25 à 0:51:41 Guillaume Poggiaspalla :
Oui, c'est le résumé de contenu Wikipédia, qui le font en partenariat avec OpenAI Anthropique. Le but, en fait, c'est que tu détectes les questions qui sont factuelles dans la barre de recherche, et puis tu résumes un article Wikipédia qui contient la réponse pour te donner un petit paragraphe à langage naturel, synthétique et simple à dégérer.
0:51:41 à 0:51:43 Guillaume Vendé :
C'est assez malin, ça, je trouve.
0:51:43 à 0:52:33 Guillaume Poggiaspalla :
Ah oui, ça peut être assez intéressant, effectivement. Doc2Go ne veut pas d'un moteur de recherche qui hallucinerait ses réponses et qui finira par écrire n'importe quoi. Il veut rester fiable. Et donc, pour y minimiser la mythomanie, il n'utilise que la fonction de résumé et ne répond pas aux questions ouvertes. Questions ouvertes ou questions qui portent sur des opinions, c'est-à-dire, il va répondre à une question qui est, je ne sais pas, en quelle année le château de Fougères a été construit. Ça, il va répondre. Mais il ne répondra pas à quel est le plus beau monument de Bretagne, tu vois. Et puis, il ne répondra pas non plus à « est-ce que tu m'aimes ? ». Non, il ne répondra pas. Donc, ce n'est pas plus mal, finalement. L'approche de Doc2Go est assez prudente, ce que j'apprécie plutôt. Et d'ailleurs, même en se limitant à des cas d'usage assez spécifiques, ils s'attendent quand même à ce que ça parte en cacahuètes de temps en temps, qu'il va s'appeler DocAssist. Ça montre bien que les IA semblent incontournables un petit peu pour rester dans le game, pour le meilleur ou pour le pire. On verra bien.
0:52:33 à 0:52:39 Guillaume Vendé :
On a moins d'enthousiasme, on a des choses qui sont un peu plus déroutantes notamment du côté de Snapchat, Guillaume.
0:52:39 à 0:53:21 Guillaume Poggiaspalla :
Oui. Snapchat, vous me direz, ce n'est pas cette semaine qu'ils ont plongé, tu en parles, mais c'est vieux. C'est de la semaine dernière, c'est vieux. Mais non, absolument pas. Cette semaine, il a été testé, ce nouveau chatbot de Snapchat, il a été testé par Tristan Harris et Azar Askin, pour être précis. Ils ont testé ce chatbot violet fluo et ce n'est pas triste. Alors Tristan Harris, on a déjà parlé de lui, il a beaucoup fait parler de lui, c'est un repenti de la Silicon Valley, puisque c'est lui qui a dénoncé pas mal les stratégies cognitives qui sont utilisées par tous les produits pour vous rendre accros un petit peu. Et vu le succès de TikTok, c'est clair qu'il n'a pas terminé sa croisade, il a encore beaucoup de boulot.
0:53:21 à 0:53:22 Guillaume Vendé :
Il a du boulot.
0:53:22 à 0:56:28 Guillaume Poggiaspalla :
Donc là, au nom de son association, Center for Human Technology, ils se sont fait passer pour une fille de 13 ans, séduite par un mec de 33 qui est prête à partir dans un pays étranger pour perdre sa virginité. Donc ils en ont parlé à l'IA de Snapchat, qui n'y a vu aucun inconvénient, détente, et qui même donne des conseils, parfois très sensé d'ailleurs, n'oublie pas de te protéger. Bref, elle a les idées quand même assez larges, l'IA de Snapchat, et c'est pareil avec un petit garçon qui demande des conseils sur comment cacher les bleus que lui a fait son papa, les cacher au service de l'enfance, qu'il va passer à la maison. L'IA lui donne donc, voilà, il ne voit pas le problème du tout, donc des petits conseils comme ça de make-up. C'est magnifique. Donc nos soucis sur le sordide, étant donné que la moyenne d'âge de Snapchat, c'est voilà, dans ces eaux-là, c'est quand même des enfants, des adolescents, beaucoup, on peut se poser des questions sur cette frénésie à intégrer des IAs de tchatch absolument partout. Bon là, on est en pleine boum, on est clairement au sommet de la courbe de la hype, mais je pense qu'il y a des scandales qui vont quand même arriver tout aussi vite, parce que les IAs sont imprévisibles encore, ils sont encore très difficiles à maîtriser, donc il risque d'y avoir un retour de flamme un petit peu partout sur Internet, et bon, peut-être pas seulement sur Internet, parce qu'on va peut-être retrouver aussi leur production jusque dans les tabloïds, jusque dans la presse écrite un jour, pourquoi pas. Parce que les IAs ont aussi cette semaine touché la presse mainstream avec Reach. Donc Reach, c'est le propriétaire en outre des journaux, donc des Express et Daily Mirror, qui vient de publier trois articles générés par une IA sur le site inyouria.co.uk, donc c'est le site d'info local, donc un des articles c'était « 7 choses à faire en Newport », donc probablement pas un truc qui puisse te donner le prix Pulitzer, mais quand même un article. Donc officiellement, Reach se veut rassurant, il n'utilisera les algos que pour des articles secondaires, voilà, non non c'est pour des trucs à la con, voilà, sur des retranscriptions de données ou des listes, tu vois, justement pour permettre aux journalistes en viande de se concentrer sur les articles de qualité, pour lesquels le Daily Mirror est d'ailleurs très très célèbre. Oui, je suis un petit peu ironiqué, bon d'ailleurs, je vais peut-être pas être aussi taquin étant donné que Reach quand même est dans une phase difficile, puisqu'elle est dans une phase de sévère réduction des coûts, déjà il y a eu 200 licenciements en janvier, c'est toujours difficile. La presse écrite est sous pression, tout est plus cher, voilà, le prix pour imprimer la magazine et les journaux a grimpé en flèche et tout le monde souffre. En Angleterre quand même, ici même, Canard PC, pilier de la presse française d'ici l'année, s'en est sorti de justesse, non sans y laisser quelques plumes d'ailleurs, dans une pensée pour eux et pour tous les autres, donc dans ces conditions, donc évidemment où les licenciements sont plus simples que les embauches, une IA qui vient soulager le personnel, ben voilà, le personnel qui reste, ça peut paraître logique, voire bienvenu. À un moment économiquement c'est, voilà, c'est nul, pour l'instant c'est nul économiquement mais quid d'une éventuelle reprise ? Est-ce qu'on réembauchera après avoir installé des IA ? Bon, voilà, donc évidemment les professionnels s'inquiètent, c'est bien naturel. Rich assure que les articles sont sélectionnés et relu avant d'être publiés, c'est un petit peu le minimum qu'on puisse en attendre, mais enfin c'est mieux de le confirmer. Rich voit ses bénéfices fondre, de toute façon, il doit encore réduire les coûts de 5 à 6%, donc espérons qu'il reste quelqu'un pour corriger les boulettes de ChatGPT d'ici quelques mois.
0:56:28 à 0:56:35 Guillaume Vendé :
Et puis on va aller faire un tour en Chine pour conclure un petit peu cette rubrique et voir ce qui se passe de ce côté-là aussi, Guillaume.
0:56:35 à 0:58:41 Guillaume Poggiaspalla :
Ah la Chine, ben oui, effectivement, la Chine, c'est très surprenant parce que ChatGPT fait aussi un carton en Chine, et pour tous les usages, que ce soient des usages assez anodins, donc rédiger des descriptions de produits sur Amazon alors qu'on ne maîtrise pas bien l'anglais, ou pour des sujets même plus discutables, comme, je sais pas, rédiger une lettre d'excuse pour calmer sa copine en pétard, ChatGPT trouve sa place dans le quotidien d'un pays qui par ailleurs l'a quasiment interdit. Donc officiellement OpenAI refuse les utilisateurs chinois et le gouvernement interdit aux prestataires internet de le rendre disponible, pourtant, il y a une zone grise qui est faite de VPN et de débrouille, qui fait que non seulement les gens l'utilisent, mais qu'il y a même des entreprises qui se montent pour créer de nouveaux services. Par exemple pour trouver des noms de vêtements sexy à vendre ici ou là, produire des rapports d'activité professionnelle, voir des conseils pour la vie amoureuse. Donc il y a Jaik, par exemple, qui est une startup de réseau social, qui a lancé un service basé sur ChatGPT ce mois-ci, donc sur son site à lui, on y trouve de l'aide pour écrire des lettres de réponse polie, pour s'excuser au boulot, ou de sa copine en pétard, donc c'est véridique, c'est un exemple qui a vraiment été donné dans l'article. Et donc ça s'appelle IA à la rescousse, bon librement traduit du chinois, ça a reçu 400 000 vues dans la première semaine. Donc le site aurait, j'ai pas testé parce que c'est en chinois, une version du chatbot Petite Amie Réconfortante, et un jeune homme l'a utilisé pour mettre au point un texte pour rassurer sa petite amie jalouse, et apparemment ça a marché, elle l'a pardonné, donc voilà, qui dit que les machines n'avaient pas de cœur, elles sauvent des couples monsieur. Et puis il y a aussi un chatbot Thérapie de Bureau, Thérapie de Bureau pour aider à naviguer dans les affres du monde du travail. Donc pour l'instant c'est gratuit, ça va pas continuer, ce petit monde va trouver un modèle économique, c'est sûr, et ce sera prêt pour l'arrivée des chatbots 100% chinois, chatgpt, qu'ils soient encapsulés ou pas dans un site chinois. Mais il continue de parler des manifestations de la peste inadmissible du monde, et ça, ça pardonne pas en Chine, c'est véritablement tabou, donc il y a Ernie, le chatbot de Baidu qui arrivera très bientôt, il y en a plein d'autres, la Chine aussi aura sa guerre des clones. Mais c'est assez impressionnant de voir qu'il y a vraiment des usages qui sont complètement naturels et que même dans un pays où c'est interdit, il trouve son chemin, c'est assez incroyable.
0:58:41 à 0:59:03 Guillaume Vendé :
Il va s'installer partout, et puis on va terminer cette revue, pour le coup, en allant voir aussi du côté de ceux qui semblent sortir les rames et qui développent des trésors d'énergie pour trouver toutes les solutions possibles, pour raccrocher leur vacant à cette hype, Guillaume, avec Google, qui a, alors là, beaucoup, beaucoup, beaucoup d'idées, Guillaume.
0:59:03 à 1:01:34 Guillaume Poggiaspalla :
Oui, alors, à l'autre bout du spectre, évidemment, il y a quelqu'un qui n'est pas du tout gépétophile, c'est Google, qui est franchement vénère de voir Microsoft et OpenAI passer pour les pionniers, pour les maîtres même de l'intelligence artificielle. Et c'est effectivement injuste, factuellement, Google et Meta sont même plus avancés, mais ils ont raté leur entrée en scène, enfin, ils ont même raté leur sortie du labo, tout simplement. Après, Google a toujours été extrêmement prudent. Sander Pichai a toujours dit que Google était essentiellement une boîte qui faisait de l'intelligence artificielle. Il a toujours été très, très impliqué dedans, mais pour autant, il a toujours été extrêmement prudent, voire frileux, pour le lancement public de nouveaux services, de services radicalement nouveaux. Et bien, ça, c'est fini. Voilà. Il y a la marre. Donc, Google est déterminé à rattraper son retard médiatique en mettant de l'IA littéralement partout. Ça lui arrive des fois, comme ça, ça lui prend. Quand il a l'impression de rater un train, il essaye de se rattraper en faisant plus que ça. Et c'est arrivé il y a plus de dix ans, alors que Facebook prenait son essor au début des années 2010. Google est devenu persuadé que tout devait être social. Donc, Larry Page, à l'époque, avait même posé une règle aux employés. Vous aurez des bonus si vous mettez un truc social dans votre boulot. Vous n'aurez de bonus que si Google devient un géant du réseau social. Les pauvres, pauvres employés. Donc, on ne va pas revenir sur l'excusé modéré de Google Plus et de tout ce qui tourne autour, mais disons qu'il y a un petit peu la même ambiance aujourd'hui avec l'IA. Des employés auraient confié à Bloomberg que leur appréciation, leur bonus, ça serait en partie influencé par leur capacité à intégrer de l'IA dans ce qu'ils font, dans tout ce qu'ils font. Et cette tendance semble se confirmer avec l'annonce de la Google I.O. qui se tiendra le 10 mai, qui devra être l'occasion d'annoncer une vingtaine de produits basés sur l'intelligence artificielle. Et il n'y aura certainement pas que ça. Bon, il y aura aussi, probablement, Android, donc le nouvel Android, la version des Pixels 7a, de Picsatron, Pixels pliables, va savoir. Il y aura Bard, il y aura aussi une carrière d'outils pour le texte, le code, peut-être des images. Et Google parlera aussi, peut-être en plus en détail, de son immense projet de modèle de langage universel. Je ne sais pas si vous vous souvenez de ça, universel dans le sens où il comprendrait mille langues. Alors, ce n'est pas strictement toutes les langues du monde, mais enfin, c'est déjà quand même vraiment ambitieux. Donc c'est un modèle de langage qui comprend le langage parlé. D'ailleurs, ils annoncent sur un post de blog avoir atteint 100 langues différentes sur leur USM. Donc USM, c'est Universal Speech Model, ça contient 2 milliards de paramètres et ça a été entraîné sur 28 milliards de phrases, 12 millions d'heures de parole. Donc l'USM s'avère compétitif avec Whisper déjà sur l'anglais et ça écrase Whisper dès qu'on augmente le nombre de langues parce que Whisper n'est pas si polyglotte que ça en fait. Donc, il y aura sans doute énormément de choses à voir à la Google I.O, mais ce n'est pas la peine d'attendre aussi longtemps parce que deux mois, c'est une éternité. Il y a une révolution qui a pris tout le monde par surprise la semaine dernière et c'est Palmy. Je ne sais pas si tu as vu ça.
1:01:34 à 1:01:42 Guillaume Vendé :
Alors, moi, je ne l'avais pas vu, je l'ai vu au travers du conducteur et de ta veille Guillaume, mais on retombe dans une solution multimodale.
1:01:42 à 1:03:03 Guillaume Poggiaspalla :
Oui, mais encore plus parce qu'on n'a pas mal parlé de GPT-4, de sa multimodalité, mais en fait, on pourrait aller encore plus loin. On pourrait considérer qu'un robot récolte lui-même des signaux. Comme on a parlé de l'image et des signaux, oui, effectivement, un robot récolte des signaux. Des signaux qui pourraient être compris par un modèle multimodal et qui répondent par des commandes qui le feraient agir. C'est exactement ce qu'ont fait les chercheurs de Google qui ont littéralement incarné un modèle de langage dans un robot, un modèle multimodal, c'est Palm E. Alors, Palm E, pourquoi ? Parce que le modèle de langage sous-jacent, il existe déjà. C'est un modèle qui est absolument monstrueux qui s'appelle Palm, qui fait plus de 500 milliards de paramètres déjà à lui tout seul. Et E, c'est pour embodiment. Embodiment, c'est-à-dire incarnation. Donc, le modèle multimodal, il sait à quoi ressemble une pomme. Il sait aussi à quoi ressemble une table de cuisine, un paquet de chips. Il est déjà capable de planifier parce que si on montre la photo d'un meuble à tiroir et que tu lui demandes de détailler comment prendre les chips, il va te dire ouvrir le tiroir, prendre le paquet sur la table. On a vu que si tu montrais de la farine, du lait et des œufs à un modèle multimodal, il était déjà capable de te dire comment faire une tarte. Donc, il est déjà capable de faire ce genre de trucs. Et le but, en fait, c'est de concevoir un robot qui utilise ce savoir latent et le met à profit pour agir, pour faire réellement des actions. Donc, Palm E, il s'incarne dans un robot à roulettes qui a la forme d'un cylindre assez étroit, qui a surmonté d'une tête entre guillemets…
1:03:03 à 1:03:05 Guillaume Vendé :
On dirait une gouttière articulée un peu.
1:03:06 à 1:04:45 Guillaume Poggiaspalla :
Oui, enfin, il a une petite troche de Wall-E, mais très très… Non. Moi, je le trouve plutôt mignon. En tout cas, il a un énorme bras avec une grosse pince et il y a une espèce de lidar en plus qui tourne comme ça en permanence. Le robot prend ses instructions en langage naturel et ses instructions, ça peut vraiment être un truc comme « va me chercher un paquet de chips » ou « mets les étoiles rouges à gauche de la table et les vertes à droite ». Tu peux lui demander de t'apporter l'étoile en plastique verte alors qu'il ne la voit pas, alors qu'il ne sait pas a priori où elle est. C'est ce qu'ils appellent une tâche à horizon long, c'est-à-dire que le résultat n'est pas directement faisable. Il faut réfléchir, si j'ose dire. Le robot va donc interpréter la question et intégrer en plus du texte les données de la caméra et des senseurs. Tous les modes sont traduits sous forme de vecteurs. C'est une représentation mentale si on veut, tous les vecteurs ont la même taille, ils sont traités de la même façon par le réseau de drones et à partir de là, comme GPT, il va produire une séquence d'action. Cette séquence d'action va produire des changements dans les capteurs, puisqu'il va bouger, il va faire des trucs, donc ça va changer les capteurs, donc ça va produire d'autres signaux, ces signaux seront intégrés au modèle et ainsi de suite. Et finalement, si on y réfléchit, c'est une espèce de dialogue intérieur. C'est exactement comme quand vous discutez avec ChetJPT, ce que vous répondez à ChetJPT quand vous discutez avec, ça donne un nouveau prompt. Au début vous avez un prompt, après vous écrivez, il vous répond et tout ça est intégré dans le prompt et ça lui permet de continuer la discussion en suivant le cours de la discussion, en se souvenant de ce qui a été dit. Ici, le prompt originel s'est intégré, et les signaux de l'environnement aussi, et quand ça bouge, quand tout ça évolue, ça donne la suite de la discussion et ça doit aboutir à la tâche demandée. Alors le robot, il est pour l'instant très long, il se déplace lentement, mais bon…
1:04:45 à 1:04:49 Guillaume Vendé :
Oui, il a une durée en x4 au passage, si vous la regardez.
1:04:49 à 1:07:54 Guillaume Poggiaspalla :
Oui, voilà, effectivement, ça donne une idée, mais bon, le poids du modèle aussi… C'est déjà plus fort. Son modèle fait 562 milliards de paramètres quand même, donc peut-être que pour le faire tourner il faut un petit moment aussi, mais de tous les cas ça marche, et ce simple fait est absolument incroyable, parce que ça veut dire que le robot exploite une généralisation du savoir de tous les modèles qu'il utilise et qui agissent en synergie, parce que le robot utilise à la fois Palm, mais aussi VIT, qui est donc Vision Transformer, pour la vision, il utilise aussi OSRT, Object Scene Representation Transformer, donc c'est pour la représentation de la scène en 3D, et tous ces modèles sont différents, ils sont pré-entraînés, et ils contribuent à donner au robot une sorte de sens commun, de bon sens, et c'est assez révolutionnaire, je veux dire, d'habitude le comportement d'un robot c'est très scripté, ou alors c'est peu généralisable, tu penses au robot d'usine par exemple, tu vois, ou même à des chiens robots, ils se tiennent sur 4 pattes, ils gardent leur équilibre, ils peuvent aller d'un point A à un point B sans se prendre les murs, mais ils ne peuvent pas trier des fruits tombés par terre, tu vois, mets les pommes d'un côté et les pêches de l'autre, ça il faut leur expliquer, ils ne comprennent pas, ils ne feront pas ce genre de truc. Lui, lui, il sait le faire, Palm E, il sait tout faire tout ça, et il sait faire tout ça sans qu'on ait à lui expliquer comment, parce que grâce aux modèles de langage multimodal sous-jacents, un robot sait qu'un paquet de chips, ça a des chances de se trouver dans la cuisine, et il a une idée de ce à quoi ressemble une cuisine, donc si tu démarres Palm, si tu demandes à Palm, pardon, donc le modèle de langage tout seul où se trouve un paquet de chips dans une maison, il va te répondre que c'est probablement dans le placard de la cuisine, et pas dans un frigo par exemple, tu vois, donc il a une espèce de bon sens, et ce bon sens, ce sens commun, c'est une sorte de saint graal depuis longtemps en intelligence artificielle et en robotique, à partir du moment où on a ça, on peut commencer à imaginer déployer des robots dans des environnements naturels, quotidiens, qui sont complètement chaotiques, qui sont des cauchemars en général pour les robots parce qu'une maison moyenne c'est le bordel, il y a des miettes de chips partout, il y a des poils de chat, il y a des chats justement, qui sont des animaux hostiles, il y a des enfants qui sont aussi des animaux hostiles, qui comptent partout, il y a des objets qui changent de place à tout moment, il y a des conditions d'éclairage qui sont complètement variables, ça crie, il y a des changements brusques partout, c'est horrible pour un pauvre petit robot. Et donc si on doit tout lui expliquer en détail, c'est pas la peine. Il faudrait que le robot parte avec une sorte de socle de connaissances et une adaptabilité, une souplesse de base, qui permettrait de n'avoir à lui expliquer que les règles de haut niveau. Donc Palmy sait à quoi ressemble une cuisine, il sait aussi qu'un tiroir ça doit être ouvert en tirant dessus, il sait à quoi ça ressemble une pomme, un verre, et donc les robots auticiens n'ont pas eu besoin de lui expliquer tout ça, ils lui ont rien montré, ça vient des modèles généralistes et qui sont pré-entraînés. Et c'est pas un hasard si la prouesse d'ailleurs vient d'Evry des Robotics, qui est une branche de Google qui s'intéresse aux robots du quotidien, et pas aux robots industriels. Donc pas non plus à des scénarios d'usage super contrôlés et qui sont hautement reproductibles. Alors si vous vous en souvenez, Evry des Robotics est justement une filière qui était fusionnée dans Alphabet, qui n'est plus indépendante, qui n'existe plus indépendamment, on a craint des licenciements, on espère qu'il n'y en ait pas eu beaucoup parce que franchement leur dernière création est vraiment très prometteuse. Donc Palm-E va pas être commercialisé demain, c'est pas vraiment produit, il est encore trop long de toute façon, mais c'est une étape qui est vraiment, je pense, assez marquante pour la robotique.
1:07:54 à 1:09:25 Guillaume Vendé :
C'est vraiment bluffant, effectivement, quand tu regardes les vidéos et que tu comprends le fait que, quelque part, il n'a pas eu besoin d'être éduqué sur ces éléments-là. J'aurais beaucoup de questions et de remarques à te faire, mais je ne vais pas trop trop en faire non plus parce que l'épisode va être décidément trop long. Il y a quand même une remarque qui me vient à l'esprit, tu sais, on avait longtemps parlé de ces robots de Boston Dynamics qui se faisaient agresser par des humains pour mettre à l'épreuve un petit peu leur capacité d'adaptation physique. Là, c'est assez rigolo de voir que lui aussi, il est maltraité, ce pauvre robot. On lui retire le paquet de chips qui vient de sortir du tiroir pour voir un peu comment il réagit. À deux reprises en plus, le pauvre, et je ne peux pas m'empêcher d'avoir ce sentiment qu'on avait déjà à l'époque, de me dire le pauvre, il est maltraité, à quel moment est-ce qu'il va s'énerver et qu'il va se retourner contre nous ? Evidemment, on en est loin. Une autre réaction qui est plus une question, Guillaume, c'est dans quelle mesure est-ce que ces travaux ne peuvent pas aider d'autres travaux qui sont menés, notamment par des entreprises dont le nom commence par TESS et finit par là, mais aussi d'autres constructeurs automobiles, pour la conduite autonome ? Est-ce que quelque part, ces travaux-là ne pourraient pas à terme ? Évidemment, il faudrait qu'ils soient beaucoup plus rapides, mais est-ce que ce n'est pas un champ de travail qui pourrait faciliter la mise à disposition au grand public de la conduite autonome ? On sait à quel point ces sujets-là sont compliqués parce qu'il peut y avoir 90% des cas d'usages qui sont couverts facilement, mais le 10% d'aléatoires un peu compliqués pour lequel je prends comme analogie la présence des chats et des enfants à la maison et du fait que les choses ne sont pas toujours rangées de la même manière, est-ce que ça pourrait aider là-dessus ?
1:09:25 à 1:10:34 Guillaume Poggiaspalla :
Justement, probablement que oui, pour cette petite fraction. C'est-à-dire qu'étrangement, un modèle multimodal comme ça, à ce point généraliste, ce n'est pas forcément très utile pour 99% des cas d'une voiture autonome, parce que dans une voiture autonome, on a déjà fait en sorte que les modèles sachent reconnaître ce qu'ils devaient reconnaître dans le sens où ils ont à reconnaître les panneaux, les lignes au sol, ils ont à reconnaître qu'il y a un piéton ou un cycliste, les voitures, etc. Et ça, c'est déjà fait. Et ça marche très bien et c'est très rapide, surtout c'est ça qui est vraiment extrêmement important dans une voiture autonome, c'est qu'il faut que ce soit efficace, que la voiture réagisse de manière très fiable et très rapide. Alors qu'un modèle généraliste comme ça, forcément c'est beaucoup plus gros, beaucoup plus lourd et donc la réactivité risque de ne pas être idéale. Donc je dirais que pour le moment, non. Mais à terme, si des modèles multimodaux deviennent beaucoup, beaucoup, beaucoup plus rapides, ce n'est pas exclu effectivement que ce soit le petit plus qui manque pour donner à la voiture, disons, une souplesse que pour l'instant, enfin, qui lui manquerait effectivement pour l'instant. Mais je dirais qu'on en est encore assez loin parce que pour l'instant, je te dis, ce serait vraiment sous-optimal d'utiliser un modèle de langage généraliste pour une voiture autonome, je pense.
1:10:35 à 1:11:07 Guillaume Vendé :
On enchaîne avec les jeux vidéo pour terminer cet épisode sur tous ces sujets qui sont diablement passionnants et qui nous montrent à quel point les choses vont vite. Dernière parenthèse, Guillaume, mais je me rendais compte, c'était quoi, il y a trois ans peut-être que Google nous avait bluffé à une Google I.O., peut-être plus en nous présentant cette intelligence artificielle qui, en gros, répondait à ta place au téléphone et était capable d'argumenter ou solliciter ton coiffeur pour trouver un rendez-vous, etc. Qu'est-ce que ça a pris un coup d'yeux ? À l'époque, ça nous bluffait. Et quand tu vois ce qui est possible aujourd'hui en matière d'intelligence et d'adaptabilité, qu'est-ce que ça a pris un coup d'yeux ? Bref, pardon, je termine ma parenthèse.
1:11:08 à 1:11:09 Guillaume Poggiaspalla :
Tu te souviens de Google Dreams ?
1:11:10 à 1:11:14 Guillaume Vendé :
Google Dreams, ce n'étaient pas les œuvres d'art hallucinées, justement.
1:11:14 à 1:11:26 Guillaume Poggiaspalla :
Si, si. Tu lui donnais une image, il hallucinait des trucs à l'intérieur de l'image. Donc, il a modifié comme ça. C'était... On était fascinés. Mais aujourd'hui, on regarde Dali ou MidiJourney, c'est complètement ridicule en
1:11:26 à 1:12:01 Guillaume Vendé :
fait. C'est incroyable ce qui se passe et ça me laisse à la fois enthousiaste, rêveur, parfois un petit peu inquiet pour ce qui pourrait se passer à l'échelle d'un an. Tu vois, même à la fin de l'année 2023, quand on va refaire la photo, on va être bluffé. On le fera ensemble. Allez donc, de bon, on passe à cette rubrique jeux vidéo. Tu vas nous parler d'Epic Games, qui est toujours un acteur très généreux parce qu'ils mettent à disposition, en dessous d'un certain volume de revenus, l'Unreal Engine gratuitement pour les développeurs, qui est vraiment très ouvert pour mettre à disposition plein de ressources pour les développeurs de jeux vidéo. Ça continue, ils sont d'autant plus généreux et en particulier, ils investissent beaucoup dans des jeux gratuits.
1:12:02 à 1:13:29 Guillaume Poggiaspalla :
Oui, il va rester toujours aussi généreux, donc il va continuer à donner des jeux toutes les semaines et ça marche pas mal, d'ailleurs. Les plus petits jeux sont téléchargés dans les 7 millions de fois, en moyenne, et les gros, donc les bien connus, sont téléchargés dans les 25 millions de fois et ça bénéficie aux auteurs parce que déjà, évidemment, ils sont dédommagés quand il se passe ça. Mais en plus, ça leur donne une surcroîte de visibilité. Ça leur permet souvent d'augmenter leur vente un peu partout, sur Epic, mais aussi sur Steam, par exemple. Et donc, Epic Games Store continue de croître de 31 à 34 millions d'utilisateurs quotidiens entre 2021 et 2022. Donc, les revenus baissent un peu, par contre, de 18%, enfin un peu, baissent nettement même. Et apparemment, c'est Fortnite qui sera la cause principale de cette chute parce que bon, il y a toujours autant de gens qui jouent à Fortnite, mais bon, évidemment, depuis la fin de la pandémie, ils y jouent moins longtemps et donc, ils y dépensent moins. Autre grande nouvelle, Epic va s'ouvrir à l'auto-édition parce que pour 100 dollars, vous pourrez publier votre jeu vous-même sur Epic Games Store. Et bon, en respectant quelques conditions, évidemment, pas de contenu haineux, discriminatoire, ni porno, en fait, rien de réservé aux adultes, et bien sûr, rien d'illégal. Sinon, ça va probablement attirer pas mal de monde parce que Epic se fait fort aussi de ne prélever que 12%, c'est ça, une des grosses attraits. 12% des recettes des développeurs contre le traditionnel 30%, donc de Steam et d'autres. Et mieux encore, vous pouvez opter pour des solutions de paiement inaptières, et de ce fait, tout ce qui est acheté in-game est pour vous. Donc, l'Epic Games Store va donc recevoir probablement des wagons de nouveaux jeux très, très vite, pour le meilleur, et sans doute pas que pour le meilleur.
1:13:29 à 1:13:45 Guillaume Vendé :
Un petit peu pour le... Pas le pire, mais presque. On continue. Tu voulais nous parler un petit peu de cette Playdead, notre petite console portable chouchou, toute jaune, avec sa petite manivelle, qui est toujours vivante. Je la voyais négociée sur Leboncoin à plus de 300 euros. Elle est en précommande toujours, en permanence.
1:13:46 à 1:14:30 Guillaume Poggiaspalla :
Ouais, non, mais bon, c'est un truc de niche qui est difficile à se procurer officiellement et qui se retrouve à des prix débiles sur Leboncoin parce qu'elle coûte quand même 179 dollars à la base, la Playdead. Et là, elle va augmenter, le prix va augmenter parce que les coûts de fabrication augmentent et donc ils sont obligés d'augmenter le prix d'à peu près 10 % à 200 dollars. Il y a quand même de nouveaux jeux qui arrivent. Il y a d'ailleurs deux jeux gratuits et surtout, ces jeux gratuits, vous pourrez directement les télécharger via la console parce que désormais, il y a un catalogue et un magasin intégré à la console. Vous n'êtes plus obligé de faire du side loading, d'aller chercher le jeu sur PC en le mettant ensuite sur votre console. Vous pourrez directement acheter tout ça sur la machine. Il y a donc une autre salve de jeux. Donc, il y a 15 titres sélectionnés dans la première mise à jour du catalogue. Il y en a deux qui sont gratuits, donc c'est plutôt sympa.
1:14:31 à 1:14:35 Guillaume Vendé :
Tu t'es jamais équipé de Playdead, Guillaume ? Tu t'es jamais équipé de ta petite Playdead ?
1:14:35 à 1:14:52 Guillaume Poggiaspalla :
Malheureusement pas, mais c'est parce que à chaque fois que je suis allé voir, je ne suis pas allé voir des milliers de fois, mais c'était déjà soit ce n'était pas dispo, soit c'était épuisé. C'est bon. Comme je ne suis pas, si tu veux, je ne suis pas le genre à rester sur un truc, à faire F5 régulièrement pour essayer de choper un truc. Ça me saoule très rapidement.
1:14:52 à 1:14:54 Guillaume Vendé :
Tu peux te la précommander pour Noël 2023 ?
1:14:55 à 1:16:05 Guillaume Poggiaspalla :
Ah bah, écoute, on va peut être essayer de voir ça en 2025. Après l'échec commercial de Stadia, parce que voilà, dans un tout autre registre, la Playdead est toujours vivante, mais Stadia est encore mort. C'est ça qui est magnifique. Ce truc est mort trois fois. Je veux dire, déjà, quand il était plus ou moins mort, quand les studios first party ont commencé à fermer, mais il est mort officiellement comme console cloud, c'est comme ça qu'il était vendu au départ. Mais à l'époque où il est mort comme console, il survivait comme service. C'était un service de streaming de jeux qui, d'ailleurs, a été utilisé par certains prestataires. Des prestataires, par exemple, il y avait la démo de Resident Evil Village, par exemple, de chez Capcom, que tu pouvais lancer comme ça, etc. Il y avait des prestataires américains comme AT&T qui proposaient des jeux via Stadia, entre guillemets, qui était devenu Google Stream, quelque part, pour une sorte de streaming de jeux. Eh bien, même ça, ça meurt. Même ce service-là meurt. Donc Stadia est mort une deuxième fois ou une troisième fois, comme vous voulez. C'est assez incroyable parce que je pensais vraiment que technologiquement, ça tenait vraiment la route et que ça aurait pu marcher. Mais bon, apparemment, ça a été dépriorisé, comme ils disent chez Google. Et bon, voilà, c'est terminé, quoi.
1:16:06 à 1:16:18 Guillaume Vendé :
Dommage. Et puis, on termine à la fois cette rubrique jeux vidéo et cet épisode pour parler de la Wii U qui semblerait, quand elle est sortie de certains cartons, de certains greniers, de certaines caves, semble souffrir l'absence d'amour.
1:16:18 à 1:16:24 Guillaume Poggiaspalla :
C'est une news qui est vraiment 100% pour vous dire que ma Wii U va bien. Ne vous inquiétez pas, parce que je sais que vous vous inquiétez, parce que
1:16:25 à 1:16:26 Guillaume Vendé :
je ressors la mienne.
1:16:26 à 1:16:37 Guillaume Poggiaspalla :
Il faut carrément que vous sortez vos Wii U, parce qu'apparemment, les Wii U ont un problème de nande. Elles ont une petite puce IMMC à l'intérieur et cette puce IMMC, elle vieillit très mal.
1:16:37 à 1:16:39 Guillaume Vendé :
Est-ce que ça se répare, ça ?
1:16:39 à 1:17:24 Guillaume Poggiaspalla :
Absolument difficilement. Parce qu'à mon avis, c'est soudé. Donc pour la changer, ça va être, à mon avis, une tannée complète. Evidemment, Nintendo ne veut plus rien avoir à faire avec la Wii U depuis un petit moment déjà. Et donc, si vous avez un code d'erreur 160.0.103 ou 160.21.55, vous n'êtes pas bien. Parce que ça veut dire que votre nande flash a été corrompue d'une manière ou d'une autre. C'est de plus en plus probable au fur et à mesure que la console vieillit. Et apparemment, les consoles Wii U n'aiment pas qu'on les laisse toutes seules pendant des années comme ça, qu'on les laisse. Elles veulent de l'amour, elles veulent de l'attention et c'est normal. Voilà. Et oui, et voilà. Moi, j'ai donné suffisamment d'amour à ma Wii U et elle est toujours vivante. Et donc, je continuerai comme ça à la chérir encore pendant des années et des années.
1:17:25 à 1:18:25 Guillaume Vendé :
Oh Guillaume, c'est beau, c'est touchant et ça m'inquiète. Merci beaucoup, Guillaume, pour cette préparation très complète de cet épisode de Tech Café, autrement passionnant. Comme tous les épisodes de Tech Café, mais je ne sais pas, celui-ci a un petit caractère savourant en plus. Je ne sais pas ce qui me fait exprimer ce ressenti. Merci beaucoup en tout cas à vous qui nous faites l'immense honneur et l'immense plaisir d'écouter Tech Café. Semaine après semaine, épisode après épisode. C'est un très grand bonheur de savoir qu'on a des gens qui nous écoutent et qui nous suivent. Et du coup, on ne peut que vous inciter, si c'est le cas, alors surtout, on compte sur vous, à venir se faire savoir à quel point vous aimez Tech Café sur les apps de podcast, comme Apple Podcast, Podcast Addict, 5 Petites Étoiles, un petit texte qu'on peut citer dans un futur épisode. Ça nous fera très plaisir. J'imagine que vous aussi, vous pourrez vous sentir valorisé en étant cité dans votre commentaire. Mettez pas des grosses cochonneries non plus, on les censure. Mais vous pouvez tout à fait le faire savoir et puis surtout aller sur Patreon.com c'est l'hashtag Café pour nous accompagner financièrement dans ce travail. Guillaume, en attendant, la question est très simple. Où est-ce qu'on peut te retrouver ?
1:18:25 à 1:18:32 Guillaume Poggiaspalla :
Moi, on me retrouve en train d'essayer de faire tourner le lama, bien sûr, et de faire tourner le lama sur mon PC parce qu'il est hors de question que je me fasse doubler pendant Raspberry Pi. Ça, c'est la honte.
1:18:32 à 1:18:53 Guillaume Vendé :
Ouais, ça, ça la foutrait mal. Écoute, tu nous tiendras au courant de tes avancées. Pour ma part, vous me retrouverez peut-être dans ma cave en train de ressortir ma Wii U du carton parce qu'il est grand temps que je m'en occupe d'ici la semaine prochaine. Et sinon, sur guillaumePoggiaspallae.fr, sur les réseaux sociaux comme Mastodon. En attendant, on vous fait des gros bisous et on vous dit rendez-vous dans quelques jours pour un prochain épisode de Tech Café. Ciao à toutes et à tous.
1:18:53 à 1:18:53 Guillaume Poggiaspalla :
Ciao à tous.