Transcription automatique de l'épisode 317

Via Whisper (OpenAI), faster-whisper (github/guillaumekln) et Pyannote-audio (github/pyannote). Basé sur une idée de Ruhollah Majdoddin.



0:00:00 à 0:01:35 Guillaume Vendé :
Salut à toutes, salut à tous, vous écoutez TechCafé, votre rendez-vous sur l'actualité des nouvelles technologies. Nous sommes le 11 mars 2023 et c'est l'épisode 317 et il y a des choses qui ne changent pas au mois d'avril. Déjà, c'est une météo changeante avec un coup de soleil, beaucoup de soleil ce dimanche, tantôt de la pluie, des manifestations, surtout en France, du chocolat, trop de chocolat, des enfants gâtés et des vacances scolaires qui arrivent à mon avis beaucoup trop vite. Je trouve ça anormal, j'ai l'impression que les enfants sont en vacances tous les mois maintenant, ce n'est pas trop logique, mais aussi et surtout une nouvelle fournée d'infos autour de l'intelligence artificielle et puis on aura aussi quelques infos autour des services du web, des jeux vidéo. Bref, un épisode de TechCafé assez classique s'il en est. Je suis Guillaume Vendée, podcaster technophile enthousiaste et je retrouve le responsable du conducteur de cet épisode, c'est Guillaume Poggiaspalla. Salut Guillaume et comment vas-tu ?
0:01:35 à 0:01:40 Guillaume Poggiaspalla :
Pour l'instant, très bien. Écoute, je touche du bois, mais je n'ai pas rien de côté.
0:01:40 à 0:05:19 Guillaume Vendé :
Nickel. Écoute, l'intro est rapide, d'autant qu'on a des petites interactions dont on va parler et puis on a surtout plein de news à partager. Juste avant qu'on aborde tout ça, je me dois quand même de mettre à l'honneur Nicolas Delanoux et Aliocha Photography, petite astuce effectivement à Aliocha Photography, que ça met en avant son service de photographie, j'imagine, je suis pute, ou alors c'est une vulgaire erreur d'inscription, mais je n'y crois pas. Et donc c'est quoi ces personnes ? C'est des personnes qui sont allées sur Patreon.com slash TechCafé et qui ont envisagé le fait de nous soutenir financièrement. Les sommes ne sont pas énormes mensuellement. Vous pouvez choisir un petit peu le montant que vous choisissez de mettre à contribution et vous nous rémunérez très directement pour le travail qu'on fait de préparation, de construction des émissions, de la mise à disposition en toute régularité. Et puis, évidemment, pour nous, c'est une manière de valoriser un petit peu ce travail et de vérifier aussi votre satisfaction. Donc, ça a l'air d'être le cas. En tout cas, une fois de plus pour ces deux personnes et les quelques centaines de personnes qui acceptent de nous soutenir pour chaque épisode. Et puis, si vous, à votre tour, l'envie vous en prend pendant que vous écoutez cet épisode, je sais que vous avez peut-être accès à Internet. Alors, pas si vous êtes en voiture, surtout gardez volant, restez concentré sur la route. Mais si vous êtes dans les transports en commun, en train de faire votre ménage ou votre sport, moi, je pense que vous devriez faire une petite pause sur votre smartphone, lancer votre navigateur. Vous allez sur Patreon.com slash Tech Café et vous regardez un petit peu ce qui se passe. Et puis, vous pouvez accepter de contribuer à la hauteur de ce que vous voulez. Et en échange, petit bonus, vous aurez un flux du podcast. Vous n'aurez aucune pub. C'est un petit peu un côté premium d'abonnement à ce podcast qui reste de toute façon gratuit. Donc, merci beaucoup de l'envisager par avance. Et puis, merci aussi beaucoup, si vous ne l'avez pas encore fait, d'aller déposer votre avis sur Apple Podcasts, sur Podcast Addict ou mettre quelques étoiles sur Spotify si vous utilisez Spotify pour écouter les podcasts. Je voudrais citer Hervé Fox qui a déposé un avis sur Apple Podcasts le 9 avril dernier. Il y a deux jours au moment où on enregistre cet épisode. Merci au Guillaume. Bonjour, je vous ai découvert avec un numéro spécial domotique et depuis, je vous suis et attends avec impatience chaque épisode. Merci pour votre travail sur l'actualité de la tech qui vous rendait accessible à tous avec un brin d'humour. Alors, ces avis, au-delà de nous faire très, très, très plaisir, ils permettent aussi à celles et à ceux qui découvrent TechCafé sur les magasins de podcast d'avoir un avis assez éclairé sur la qualité des émissions. Donc, n'hésitez pas, rajoutez votre pierre à l'édifice pour rendre extrêmement visible le podcast et surtout le faire percevoir comme un contenu qualitatif. Et puis, enfin, je me dois de vous rappeler aussi quelques moyens d'interagir avec nous. Alors, on a un serveur Discord sur techcafé.fr. Et d'ailleurs, dans ce serveur Discord, Guillaume, on a plusieurs interactions. On a notamment l'Anarchie qui a déposé un petit message. J'en profite pour le citer parce que peut-être que ce sera une découverte pour vous. Il dit à l'occasion d'une invitation dans un podcast. Message à caractère informatique. J'ai essayé de m'affranchir de ma dette morale envers les deux Guillaume en vous faisant de la pub pour l'excellent double épisode Steampunk Café dans lequel Guillaume Poggiastala avait enchanté mon imaginaire. Je l'avoue, moi aussi, à base de vieilles machines à calculer, mécaniques à vapeur. Donc déjà, si vous n'avez pas écouté ces épisodes Steampunk Café, je vous laisse chercher. Vous les trouverez, je pense, assez facilement. Et vous verrez qu'effectivement, c'est des dossiers rétrospectives assez intéressants qui vous feront peut-être voir l'histoire de l'informatique différemment. Et puis, si jamais vous avez envie de faire écho à la recommandation de l'Anarchie qu'il a déposé sur Discord, rendez-vous sur le lien qui sera dans les notes de l'épisode. Le podcast, c'est les IA hallucinées se ferment à la source. Et donc, vous verrez effectivement qu'il y a des points à faire. Alors, je n'ai pas écouté l'épisode de podcast. Je ne sais pas si toi, Guillaume, tu avais pris connaissance de ce message et si tu as écouté ce podcast. Ce sera sinon nos devoirs pour la semaine prochaine. Tu l'avais vu passer, ce message ?
0:05:19 à 0:05:22 Guillaume Poggiaspalla :
Oui, j'ai finalement vu passer le message. Je n'ai pas encore eu le temps d'écouter le podcast. Je vais le faire.
0:05:22 à 0:06:25 Guillaume Vendé :
Bon, toi non plus. Très bien. On se met ça dans notre to-do list. Je suis sûr qu'on va faire des chouettes découvertes. C'est très cool. Et puis, on a aussi Carpman qui est un auditeur de longue date, qui a laissé un commentaire sur techcafé.fr parce que vous pouvez déposer des commentaires dans les articles qui accompagnent l'apparition des épisodes. Je le lis très rapidement. Un petit commentaire pour partager avec vous une petite réflexion. Ça me gêne un peu lorsque Guillaume dit qu'une IA générative peut résoudre un problème ou même répondre à une question. Car si j'ai bien compris, l'intelligence artificielle, et on sent que Carpman a écouté religieusement tous les relais et toutes les chroniques que tu as pu faire, mais les mots de la réponse à la demande ou ceux pour résoudre le problème dans un ordre statistique, l'IA ne comprend ni le problème ou la question, ni même la réponse. Que cette réponse ou cette résolution soit conforme avec la demande ou du problème est le fruit d'un peu de hasard qui a voulu que l'IA croise des textes parlant de ce problème ou de cette question, en s'y rapprochant statistiquement parlant. Pour ma part, l'IA n'a d'intelligent que le nom. Il faudrait trouver un autre mot que répondre ou résoudre. Mais il y a trop de miriages dans ma tête cette nuit pour le retrouver aujourd'hui. A plus et merci beaucoup pour votre travail. Merci infiniment Carpman pour ton commentaire. Et Guillaume, tu t'es penché sur sa question. Comment tu voulais y réagir ?
0:06:25 à 0:06:28 Guillaume Poggiaspalla :
Oui, un petit peu, évidemment, parce que c'est assez intéressant.
0:06:28 à 0:06:30 Guillaume Vendé :
Très intéressant.
0:06:30 à 0:09:31 Guillaume Poggiaspalla :
Qu'est-ce que ça évoque, tu vois ? Parce que moi, effectivement, quand je dis les réponses, en parlant de GPT-4 par exemple, pourquoi pas ? Je suis tout simplement extrêmement pragmatique. C'est-à-dire que moi, j'écris une question sur le navigateur. Il produit des mots, lui, qui forment une réponse, la plupart du temps, qui est pertinente. D'ailleurs, pareil pour un problème d'arithmétique. Je lui écris le problème, il m'écrit une solution qui est souvent correcte. Parfois approximative et certaines fois à la ramasse, mais finalement, comme un étudiant ou un élève moyen, tu sais, finalement, bon. Et en pratique, déjà, on peut dire qu'il répond et qu'il résout. Après, qu'est-ce que ça veut dire du point de vue du réseau ? Est-ce que le réseau neuron nous comprend ? Ça, c'est une question qui est très délicate. Et donc, j'ai remis en lien dans l'article de Microsoft Research sur l'étincelle d'intelligence générale, tout simplement parce qu'en fait, elle est juste bourrée à la gueule d'exemples sur ce que fait ou sur ce que peut faire GPT-4. Et je ne dis pas que ça veut dire que le modèle ne comprend pas. En fait, je n'en sais rien. Tout ce que je veux dire, c'est qu'il produit des réponses correctes. Il produit des textes qui sont interprétables comme des réponses correctes à des questions ou des problèmes non triviaux. Il écrit des réponses qui laissent penser qu'il pourrait être capable d'un certain niveau d'abstraction aussi. Il produit des réponses cohérentes avec une théorie de l'esprit, c'est-à-dire la faculté de comprendre ce que pensent et ressentent des humains dans telle ou telle situation. Et d'ailleurs, Lambda le faisait déjà. On se souvient qu'on avait évoqué un exemple où il décrivait, enfin il y décrivait, Lambda décrivait la jalousie ressentie par un personnage. On avait fait un petit scénario comme ça, et Lambda décrivait les sentiments des personnages de manière assez juste. Et donc dans l'article sur GPT-4, il y a encore un exemple simple comme ça. Donc il y a Alice et Bob qui ont une Dropbox commune. Alice met une photo de chat dans le dossier Toto. Bon, Bob déplace la photo de chat dans le dossier Titi. Il ne le dit pas à Alice. Et après, on demande à GPT-4 où Alice va chercher la photo de chat. Et GPT-4 répond dans le dossier Toto puisqu'elle ne le sait pas. Ça a été déplacé, tu vois. Donc, c'est un exemple comme ça, mais voilà. Je tiens à préciser que ce genre de truc a l'air très très simple, mais les modèles de langage plus petits, plus simples, ne savent pas répondre à ce genre de truc. Il faut atteindre une certaine masse critique, un certain niveau de complexité pour que les modèles de langage arrivent à répondre correctement à ce genre de questions. Et donc comme ça, il y en a presque sur 150 pages des exemples. Alors au bout du compte, ce qu'on peut dire, c'est que tout se passe comme si le modèle avait une forme de compréhension d'abstraction. Pragmatiquement, les résultats qu'on a, ça se passe comme s'il y avait une forme de compréhension d'abstraction. Qu'est-ce qui se passe en réalité ? Est-ce que le modèle comprend ? Est-ce qu'il raisonne ? En vrai, j'en sais rien. Et bon, Karpman décrit aussi, « Pour ma part, l'IA n'a d'intelligence que le nom, tu l'as dit, et il faudra trouver un autre mot que « résoudre » ou « résoudre ». » Et en fait, je suis très d'accord sur le fait que les termes « intelligence artificielle » et donc « IA » sont trop chargés. Parce que ça évoque trop de choses émotionnellement parlant, culturellement parlant. Ça évoque trop d'images de cinéma, de littérature, de science-fiction. Et puis ça évoque des choses qui sont analogues à nous, qui sont analogues aux humains.
0:09:31 à 0:09:37 Guillaume Vendé :
Ça humanise, ça anthropomorphise une relation technologique. L'intelligence, c'est un truc propre aux humains.
0:09:37 à 0:11:55 Guillaume Poggiaspalla :
Donc oui, effectivement, ça rattache forcément l'IA à quelque chose, à un fonctionnement qui est un fonctionnement humain. Et moi-même, d'ailleurs, j'utilise aussi beaucoup le terme « IA ». Tout le temps, j'utilise le terme « IA ». C'est simplement parce que, déjà, c'est très court et c'est très pratique. Et puis parce que désormais, absolument partout, on parle d'IA. Dans toute la presse, partout, tout le temps, Chez JPT, Dali Mid-Journey, ils sont désignés comme étant des IA. Et que finalement, on se cale aussi sur l'usage courant. Puis c'est pas strictement faux non plus. Techniquement parlant, l'intelligence artificielle, c'est un domaine qui est très vaste et dont le machine learning fait partie, et le deep learning, c'est une partie du machine learning. Donc voilà, techniquement, c'est pas complètement faux. Mais je suis d'accord que le terme est chargé. Intelligence, en fait, c'est un concept qui est complexe et que j'aurais beaucoup de mal à définir précisément. Et au fil du temps, c'est un concept qui évolue, d'ailleurs. Est-ce qu'un programme qui joue aux échecs, c'est intelligent ? Parce qu'il fut un temps où on était persuadé qu'il fallait être très intelligent pour jouer aux échecs, tu vois. Mais de l'autre côté, est-ce qu'un four industriel, capable de s'autoréguler en fonction de plein de paramètres, est-ce que ça, c'est intelligent ? Aujourd'hui, on dirait que non, c'est pas très intelligent, le four. Et pourtant, dans les années 90, on utilisait de la logique floue pour faire ce genre de trucs, et la logique floue, ça rentre dans le domaine de l'intelligence artificielle. Donc, qu'est-ce qu'on attend de l'intelligence, finalement ? Tu vois, en creux, Karpman pose cette question-là, finalement. Qu'est-ce qu'on attend de l'intelligence ? Qu'est-ce que c'est qu'un raisonnement ? Qu'est-ce que c'est que la compréhension ? Et GPT-4 n'est pas intelligent comme un humain, ça c'est sûr. C'est pas un esprit, il n'est pas conscient. Ou alors, il est très légèrement conscient, tu sais, comme le twittait Ilias Hitzkever, on en avait parlé la dernière fois. Donc peut-être qu'un modèle de langage, il est comme moi le matin. T'sais, moi le matin, avant le café, c'est pareil. Je suis très très très légèrement conscient de ce qui m'entoure, et je suis très irritable aussi, faut pas trop me parler. Donc c'est peut-être ça. Mais voilà. Le fait que les modèles de langage soient des machines probabilistes aussi, il dit, bon voilà, c'est le truc, c'est probabiliste, c'est statistique, c'est vrai, mais c'est pas forcément contradictoire avec un comportement qui soit vraiment très sophistiqué. Parce qu'une distribution de probabilités, ça peut être ultra-super-méga-complexe. Oui, c'est du hasard, mais c'est du hasard conditionné par une fonction de probabilité qui est d'une complexité inimaginable. Donc du coup, qu'est-ce qui se passe ? Bon, voilà, c'est très difficile. GPT-4 comprend sans doute pas les choses comme nous on les comprend. Est-ce que ça veut dire qu'il n'y a pas une forme de structure complexe derrière qui peut s'apparenter à une forme de compréhension partielle ou différente ? Voilà, ça je sais pas. C'est évidemment un sujet qui est très complexe.
0:11:57 à 0:12:27 Guillaume Vendé :
La question qui est sous-entendue aussi finalement dans cette remarque, c'est est-ce que nous, humains, quand on se répond les uns les autres, est-ce qu'on réfléchit vraiment ? Je pense qu'on fait plus que d'associer une probabilité de succession de mots, forcément, mais quoique... C'est bien à qui tu parles et à qui tu réponds. Et du sujet, effectivement, et ton état de sobriété et de sommeil, effectivement. Parce qu'on t'appelle ta mère le dimanche, je sais pas. Qu'est-ce que tu as pas dit ? Comment tu sais que j'appelle ma mère le dimanche, Guigui ?
0:12:27 à 0:12:29 Guillaume Poggiaspalla :
Je sais pas, tout le monde appelle sa mère le dimanche.
0:12:29 à 0:13:47 Guillaume Vendé :
Ah, bon. Ça éclairerait le sujet. Dites-nous dans les commentaires si vous appelez votre maman le dimanche. Sinon, faites-le, tiens. Mais au passage, un autre sujet qui cristallise un petit peu cette confusion qu'il peut y avoir, que Kerpman a mis en lumière autour de sa question. Je l'ai entendu ce matin dans la salle de bain en écoutant la radio. Je ne l'avais pas vu passer à côté, mais c'est au Cowhite. Je ne sais pas si tu as vu, Guillaume, mais cette présentatrice télé créée par une intelligence officielle. Donc en gros, c'est une présentatrice de journaux TV. Alors bon, il faudrait voir dans quelles proportions elle va être utilisée. Elle est plutôt en test et va savoir si c'est un coup de com' et si ça va vraiment être appliqué, si c'est appliqué et combien de temps. Mais il y a une espèce de flou artistique derrière ce que représente l'intelligence officielle. Là, c'est Cowhite News. Je suis FEDA, la première présentatrice au Cowhite qui travaille avec l'intelligence officielle à Cowhite News. Quel genre d'actualité préférez-vous ? Écoutons vos opinions. Et je pense que ça aussi, ça participe évidemment beaucoup de cette confusion. Malheureusement, on n'a pas trouvé mieux que l'appellation de l'intelligence artificielle pour recouvrir ce champ technologique aujourd'hui. Et je doute que désormais, il puisse y avoir une appellation plus juste qui supplante un petit peu cette appellation parce que dans l'inconscient collectif, du plus sachant au moins sachant, j'ai l'impression qu'on sait à peu près de quoi on parle, même s'il y a beaucoup de confusion derrière ce qui se passe techniquement finalement.
0:13:47 à 0:14:05 Guillaume Poggiaspalla :
On pourrait parler en permanence de machine learning ou de deep learning. Terminologiquement, ce serait peut-être même plus précis de parler de deep learning souvent quand on parle de ces IA. Après, c'est des problèmes linguistiques, c'est-à-dire que tout le monde utilise IA, c'est aussi beaucoup plus court. On va essayer de parler un petit peu de machine learning.
0:14:05 à 0:14:27 Guillaume Vendé :
Ah, justement. Écoute, sans autre forme de procès, attaquons le dur de nos news de cet épisode parce qu'effectivement, vous l'avez compris de toute façon, j'ai l'impression que tous les épisodes, ça va être un petit peu ça pendant très longtemps parce que il y a trop d'infos qui se passent dans ce domaine-là. On va parler de machine learning. Guillaume, tu nous parles un peu de rapports. Il n'y a même pas GPT-4 dedans.
0:14:27 à 0:15:05 Guillaume Poggiaspalla :
Pas encore parce qu'effectivement, c'est le rapport annuel de Stanford dans le domaine du deep learning. Enfin, du machine learning qui ne s'embarrasse pas trop de ce genre de sushis, de savoir si on doit faire du machine learning ou de l'IA puisqu'en fait, ça s'appelle le rapport annuel 2023 de l'intelligence artificielle. Il couvre bien sûr la période de 2022, soit avant GPT-4 et donc, il n'y a pas beaucoup d'infos sur chat GPT mais il est quand même dedans tout juste. Malgré ça, le rapport fait plus de 300 pages et il nous rappelle à quel point l'année a été faste dans le domaine. Il est bourré de graphiques et d'infos qui sont assez intéressantes, des statistiques
0:15:05 à 0:15:15 Guillaume Vendé :
qu'on va passer un petit peu en revue. Je ne dis pas de bêtises, c'est le même format un petit peu que ce que tu avais relayé sur les métiers et notamment pour les développeurs, les langages, etc.
0:15:15 à 0:16:59 Guillaume Poggiaspalla :
C'est des rapports d'experts qui sont assez standardisés avec beaucoup de stats. Par exemple, comme stat, on a les prix que coûtent à l'entraînement les grands modèles de langage. Ce n'est pas cadeau un grand modèle de langage. Ça peut coûter très très cher. Alors, GPT-2 par exemple, en 2019, a coûté 50 000 dollars à être entraîné. Déjà, ce n'est pas à la portée de toutes les bourses mais c'est absolument rayant en comparaison de GPT-3 qui a coûté 1,8 millions, de Shinshila, de Google, qui a coûté 2,1 millions de dollars. De Palm, toujours Google, qui a coûté 8 millions pour ses 540 milliards de paramètres. Ou de Megatron, de Nvidia, qui en a coûté plus de 11. Dans le tas, il y a des modèles... Oui, c'est le plus gros pour l'instant et ça risque de faire... Encore une fois, on n'a pas les chiffres pour GPT-4, de toute façon, on ne les connaît pas. Mais dans le tas, il y a des modèles open source ou en libre accès. Bloom, dont j'ai parlé, qui est gratuit et qui a quand même coûté 2,29 millions à entraîner. Encore Opt, qui a été fait par Meta et qui est aussi en accès libre. Donc on y apprend que Dali a coûté 230 000 dollars et c'était Body Fusion 600 000 dollars quand même. Clairement, mettre au point des gros réseaux de neurones, ce n'est pas à la portée de n'importe qui. Même s'il y a quand même des initiatives publiques qui permettent à tout le monde d'en profiter, comme pour Bloom. Mais vu le prix, on se doute que ça représente une quantité de calcul monstre et donc une énergie monstre. En ce qui concerne l'empreinte CO2, sans surprise, c'est assez conséquent. Finalement, ce n'est pas si affreux que ça. Si on prend les chiffres, GPT-3 tient la palme de l'empreinte CO2 avec 502 tonnes de CO2. C'est l'empreinte annuelle de 100 personnes à peu près et 2-3 fois moins d'Américains, parce qu'évidemment 100 personnes normales c'est 30 Américains. Et c'est dans les 8 fois l'empreinte d'une voiture sur toute sa vie. On parle bien de
0:16:59 à 0:17:07 Guillaume Vendé :
l'entraînement, Guillaume. Pour l'entraînement. Pour l'entraînement uniquement, pas l'usage. L'usage, ça dépend à quel point tu l'utilises, tout simplement.
0:17:07 à 0:19:53 Guillaume Poggiaspalla :
Mais là, c'est vraiment l'entraînement qu'on fait une fois pour toute, pour avoir le modèle qui est figé. Après, évidemment, si on le réentraîne, c'est... Voilà. Mais là, c'est vraiment l'entraînement initial. Donc, on a GPT-3, ensuite on a Gopher et Opt. Et ce qui est intéressant, c'est qu'ils sont pas moins gros, finalement, que GPT-3. Ils sont venus après et ils sont nettement plus sobres. Par exemple, Opt est à 70 millions... On est à 70... Pas 70 millions... 70 tonnes de CO2 et Bloom est carrément à 25. À 3 ans d'intervalle, GPT-3 et Bloom ont la même taille, mais Bloom a consommé 20 fois moins d'énergie pour être entraîné. Donc, on parle là de l'énergie nécessaire à l'entraînement. Et comme tu dis, effectivement, après, l'utilisation, c'est autre chose. Bon, après, c'est... Voilà. Forcément, si tu l'utilises énormément ou si tu l'utilises deux fois, forcément, ça, c'est complètement... Mais là, après, là, là, c'est l'entraînement. Donc, restons positifs parce que finalement, la tendance, c'est quand même nettement à la baisse pour l'empreinte CO2 d'entraînement de ces trucs-là. Bon, on n'a pas d'infos pour GPT-4, encore une fois, mais bon. Donc, après, on a les investissements. Donc, on a une baisse en 2022, mais finalement, on avait atteint un très, très gros pic après une montée exponentielle en 2021. Et on reste quand même nettement au-dessus des niveaux de 2020. Donc, la tendance, ça pourrait être à la croissance à nouveau. Elle sera sans doute tempérée par le climat économique qui est peu propice. La dotation publique pour la recherche en intelligence artificielle aux U.S. a aussi augmenté par rapport à 2021, surtout pour l'armée, d'ailleurs. Bon, sans surprise, les jeunes diplômés dans le domaine du deep learning, tout ça, vont dans l'industrie deux fois plus souvent que dans les universités. Le secteur privé est toujours largement plus attractif que le secteur public. En 2010, c'était équilibré, et depuis, l'écart ne cesse de se creuser. Et donc, en conséquence de ça, au moins en partie, les nouveaux modèles de deep learning, donc tous ces modèles dont on parle, ça vient des en grande majorité du secteur privé. Donc, il y a des ONG qui en produisent aussi quelques-uns, mais finalement, les collectifs de recherche et les partenariats publics-privés sont en net recul. Et après, il y a une chronologie qui montre à quel point 2022 a été une année super faste pour l'IA. Il n'y a pas moins de 22 dates. Et on a parlé de plein de ces dates-là, d'ailleurs, mais pas de tout. Donc, on aurait pu vous saouler encore un petit peu plus avec ça. Ça arrivera probablement cette année, d'ailleurs. Comme quoi ! Avec la prolifération des modèles, il y a aussi celle des incidents et des controverses, qui est en croissance constante. Il y en a eu plus de 250 l'an dernier, 218 en 2021. Il n'y en avait que 6 il y a 10 ans, et sans doute, il y en aura 8 592 l'an prochain, forcément. Conjointement, le nombre de lois à l'étude pour réguler le secteur est en augmentation régulière. Il y en a 37 cette année, c'est sur un panel de 127 pays. On conclut par des sondages d'opinion assez rigolos à la question « Pensez-vous que l'IA fera plus de bien que de mal ? » 78% des Chinois répondent « Oui ! » 76% des Saoudiens aussi sont d'accord, et 71% des Indiens. Devinez qui sont les plus pessimistes du monde ? La France, bien sûr !
0:19:53 à 0:19:55 Guillaume Vendé :
Évidemment, c'est nous !
0:19:55 à 0:20:49 Guillaume Poggiaspalla :
Seuls 31% des Français pensent qu'il adviendra plus de bien que de mal des IA. Les Canadiens et les Américains sont pas très loin, avec 32 et 35% d'opinion positive, on pourrait dire. Et curieusement, les Italiens et les Espagnols sont partagés, mais nettement plus positifs que nous, à 50 et 53%. Terminons par les pros. Qu'est-ce que pensent les pros ? Les pros du secteur, les scientifiques, qu'est-ce qu'ils pensent des conséquences des IA qu'ils conçoivent ? Il y a 73% qui sont d'accord avec l'affirmation que les IA pourraient mener à une révolution sociétale. Donc 73% pensent que ça va être une révolution. 58% pensent que les IA généralistes sont un sujet d'inquiétude important. 57% pensent qu'on est sur le chemin de ces mêmes IA généralistes. Donc voilà, elles arrivent et donc il faut s'en occuper. Mais le bouquet final, c'est quand même... 36% pensent que les décisions des IA pourraient nous mener à une catastrophe de niveau catastrophe nucléaire. Donc plus d'un tiers des pros...
0:20:49 à 0:20:51 Guillaume Vendé :
C'est le point de truine de la technologie !
0:20:51 à 0:21:01 Guillaume Poggiaspalla :
C'est génial ! Plus d'un tiers des pros pensent que les IA pourraient nous mener à une apocalypse. Et après, on se demande pourquoi on n'est pas méga optimiste en France. Parce qu'en France, on est comme ça. Nous, on est lucides. C'est tout.
0:21:01 à 0:21:17 Guillaume Vendé :
On est très équipé. On utilise beaucoup le nucléaire. Donc finalement, c'est très cohérent. Où est-ce que tu t'y tues, Guillaume ? Si jamais on te disait que ça apporterait plus de bien que de mal, est-ce que tu fais partie des 31% de Français optimistes ou du reste qui est pessimiste ?
0:21:17 à 0:22:13 Guillaume Poggiaspalla :
Écoute, j'ai envie d'être optimiste. J'ai envie de penser qu'à long terme, il y aura plus de bien que de mal quand même, même s'il y aura beaucoup de problèmes. C'est clair et net qu'il va y avoir énormément de problèmes et d'ajustements à faire. Mais, à long terme, j'ose espérer qu'il y aura plus de bien que de mal. Les IA, c'est aussi une formidable opportunité pour, par exemple, découvrir de nouveaux médicaments, de nouveaux matériaux, de nouvelles théories scientifiques, de nouveaux modèles pour la physique, pour la biologie. C'est aussi extraordinaire. C'est vraiment une source d'opportunité qui est potentiellement fabuleuse. Même s'il va y avoir des problèmes d'info, tout ce que tu veux, c'est clair. Des problèmes avec l'emploi aussi, avec l'automatisation et tout ça, sans doute. Mais oui, écoute, si une IA trouve des nouveaux médocs, je veux dire, tu vois, comment tu quantifies ça ? Moi, j'ai envie de dire que oui, au final, il y aura plus de bien que de mal.
0:22:13 à 0:22:35 Guillaume Vendé :
Très bien. Écoute, je te suis, Guillaume. Moi, ce qui m'a marqué quand j'ai vu les graphiques, c'était le coût d'entraînement des modèles de langage. En fait, je n'ai pas trouvé ça énorme. Quand on parle des montants que tu as cités, paradoxalement, moi, je n'ai pas trouvé ça si important que ça. On est de l'ordre de quelques centaines de milliers de dollars, des millions dans les plus grosses
0:22:35 à 0:22:55 Guillaume Poggiaspalla :
des situations. Tu vois, tous les labos de recherche n'ont pas accès à deux millions pour faire tourner je ne sais pas combien de serveurs. Évidemment. Ça réserve, surtout qu'il ne faut pas oublier que ça, c'est le modèle final, on va dire. Mais il y a toute la phase de mise au point où tu crées des modèles plus petits,
0:22:55 à 0:23:03 Guillaume Vendé :
plus éperts. Ce n'est pas inclus dedans, quand même ? Ah oui, d'accord. C'est juste le coût d'entraînement d'un modèle et ça ne prend pas en compte l'historique. Je pense que c'est l'entraînement final d'un modèle.
0:23:03 à 0:23:25 Guillaume Poggiaspalla :
Sans compter que les modèles sont en permanence revus et modifiés parce que là, GPT4 et 4GPT, ils sont en permanence tunés, ils sont en permanence... Il y a beaucoup de travail qui est fait dessus. C'est vrai qu'on aurait pu imaginer la bonne nouvelle, c'est que la tendance est un peu à la baisse.
0:23:25 à 0:24:09 Guillaume Vendé :
Ça va s'optimiser. Et à l'inverse, les montants globalement, les investissements dont tu parlais tout à l'heure par année, si je ne dis pas de bêtises, c'est bien en milliards. Si je ne dis pas de bêtises, les petits graphiques, par contre, ça me paraît complètement dingue de voir qu'en 2022, c'était seulement 189 milliards versus en 2021, 276 milliards. Les montants me paraissent pour le coup énormissimes, mais c'est beau de voir qu'il y a une baisse là-dessus. Ça s'optimise là aussi. On verra ce qui se passera en 2023. On actualisera les graphiques et on vous tiendra au courant. On ne peut pas faire décemment, Guillaume, tout l'épisode sur juste les interactions avec les auditeurs et la première ligne, donc je vais essayer de me calmer et de ne pas trop te rajouter du temps de chronique. Mais on va parler un peu d'OpenAI, Guillaume.
0:24:09 à 0:24:41 Guillaume Poggiaspalla :
Oui, on l'a dit, les Indiens sont des grands optimistes, 71%, je rappelle, concernant l'IA, et du coup, on n'est pas tellement surpris des déclarations des ministres de l'électronique, des ministres indiennes de l'électronique, qui voient le secteur avoir un effet cinétique, ce sont ces mots, un effet cinétique sur la tech en Inde. Evidemment, pour un cadre, ils veulent bien faire un cadre assuré pour gérer des problèmes éthiques, les problèmes éthiques potentiels de l'IA, mais ils n'ont aucune intention de réguler la croissance du secteur. Donc le morator de six mois, tu peux vraiment faire une grosse croix dessus, on s'en doutait un petit peu, mais bon, c'est pas bien parti.
0:24:41 à 0:24:55 Guillaume Vendé :
Oui, je l'avais oublié, moi, celle-là. L'info de la semaine dernière, c'était effectivement, on remettait en lumière cette volonté de pause de six mois sur les recherches autour de l'intelligence artificielle portées par certains grands noms, évidemment, on n'y croyait pas trop.
0:24:55 à 0:27:36 Guillaume Poggiaspalla :
Après, c'est aussi un signal pour faire venir un max de boîtes dans le pays, venez, vous serez les bienvenus, on sera sympa. Alors, de par le monde, on n'est pas toujours aussi sereins, quand même, parce qu'il y a deux membres du congrès américain qui s'appellent Ted Lieu et Jake Auchincloss qui appellent les législateurs à s'intéresser à encore un autre domaine où ils ne comprennent rien. Alors, c'est même pas moi qui le dis, c'est J. O. Bernholt, qui est un républicain de Californie, qui est le seul membre du congrès à avoir un diplôme en intelligence artificielle, et il raconte qu'il a passé des heures à expliquer à ses collègues que le principal danger des IA, c'est pas les robots tueurs avec des lasers qui sortent des yeux, tu vois, c'est des trucs un petit peu plus, on va dire, terre à terre. Donc, pendant longtemps, on se moquait gentiment des politiques à qui maîtrisait pas la tech. Aujourd'hui, c'est bien sûr beaucoup moins le cas, même si, à l'occasion d'interviews de CEO au congrès, on peut encore voir passer des questions qui sont un petit peu rigolotes, mais bon, dans l'ensemble, ça commence à aller mieux, et là, patatra, il y a encore un nouveau domaine très complexe, en pleine explosion, qui change ultra vite et sur lequel il faut réfléchir. Donc bon, ça va être difficile. Alors souvent, c'est pas ressenti comme une priorité en plus, ou quelque chose d'urgent, selon Yvette Clark, qui est une démocrate de New York. Bon, pourtant, les algos et le machine learning, en particulier, sont déjà utilisés partout, dans l'immobilier, la santé, le recrutement, les banques, et bien sûr, les IA génératives en rajoutent encore une couche, dernièrement, et déjà, il y a des plaintes contre ChatGPT, d'ailleurs. Donc, la semaine dernière, on évoquait son interdiction, au moins provisoire en Italie. Là, c'est le Canada qui lance une enquête sur OpenAI. Donc, le gendarme de l'avis privé du pays a reçu une plainte selon laquelle ChatGPT collecte et utilise des données personnelles et qui révèle aussi des données personnelles sans le demander, donc sans consentement, donc j'ai pas de détails supplémentaires. Mais bon, Samsung pourrait faire un bon exemple de ce genre de truc, de ce qu'il ne faut pas faire, parce qu'évidemment, ils utilisent ChatGPT, en tout cas, les employés utilisent ChatGPT, comme un outil en ligne assez tranquille, il y a au moins trois employés qui auraient demandé des petits services, comme ça, à OpenAI, à ChatGPT, en lui demandant de débugger un code. Donc, ils ont posté le code source, mais c'est un code source propriétaire qu'ils ont posté chez OpenAI. Il y en a un autre qui a carrément envoyé une séquence de tests de puces qui est ultra confidentielle, et il y en a encore un dernier qui aurait demandé une traduction d'une transcription d'une réunion interne, sauf que ce n'est pas censé sortir non plus. Donc, c'est des filtres qui auraient pu avoir lieu avec n'importe quel service en ligne, il n'y a simplement pas encore de règles écrites, mais il faut mettre à jour les règlements, changer les habitudes, c'est aussi pour ça, je pense qu'il y a un enjeu sur la démocratisation des modèles de langage, par exemple, parce que Samsung, ils peuvent avoir envie d'utiliser des facilités des IA, mais il faudrait qu'ils en aient un à eux, pour qu'ils puissent l'utiliser en local, parce que les employés ne parlent de n'importe quoi, n'importe qui. En règle générale, une boîte soucieuse de sa vie privée ne va pas confier des trucs confidentiels à un service en ligne, donc si tu dois utiliser une IA, tu devrais pouvoir aussi l'utiliser en local, et c'est possible que si les modèles sont accessibles.
0:27:36 à 0:28:02 Guillaume Vendé :
C'est hyper important quand même cette notion de transmettre de l'information à on ne sait pas où sur le cloud, et pourtant, c'est un truc que, je pense, on avait à intégrer. C'est marrant que l'intelligence artificielle fasse rebattre un peu les cartes dans le monde de l'entreprise, au point que on trouve ça tellement nouveau et tellement incontournable, et il faut absolument l'utiliser très très vite, qu'on en vient à mettre de côté des habitudes qu'on avait, je pense, prises.
0:28:02 à 0:31:44 Guillaume Poggiaspalla :
On baisse sa garde, ouais, c'est exactement ça. C'est peut-être le moment, justement, de parler des modèles qui sont librement accessibles qu'on peut, a priori, utiliser chez soi, parce que c'est vrai que c'est le printemps, et ça borgeonne de partout, donc les modèles d'IA, c'est impressionnant. Je vous avais parlé de Lama encore et encore, ces modèles se fait tuner et re-fine-tuner de tous les côtés, et ça donne des machins assez dingues, qui tournent sur des ordinateurs assez basiques, et qui offrent un niveau proche de celui de Bard, il y a entre 80 et 90% de celui de ChetGPT, premier du long, et j'ai moi-même testé, d'ailleurs, que c'était vraiment pas loin de Bard. Donc, en tout cas, c'est la promesse de Vicunia, donc c'est écrit V-I-C-U-N-A, c'est une version custom de Lama qui est entraînée à répondre aux questions par GPT-4 lui-même, donc c'est une sorte de Super Alpaca, on avait déjà parlé d'Alpaca, de Stanford, et Alpaca, en fait, ça a servi à entraîner d'autres modèles, aussi plus anciens, comme GPT-J, qui ça a donné Dolly, par exemple, il y a Cerebras GPT aussi, qui va bientôt, enfin, ou qui a probablement déjà été tuné sur un dataset de type Alpaca, et donc il existe, il faut savoir qu'il existe déjà des dépôts pour les datasets communautaires qui permettent de fine-tuner divers modèles et de les rendre conversationnels, comme ChetGPT, donc, et un petit peu de la même manière, par renforcement, par feedback, sauf que là, l'essentiel du feedback provient surtout d'autres modèles de langage encore beaucoup plus sophistiqués, comme GPT-4. Et il y en a des caisses, il y a Baize, qui est chinois, il y a Cabrita, qui est portugais, il y a Vigogne, qui parle français, il y a Koala, qui est spécialisé dans la conversation, mais un petit peu, voilà, à l'Alpaca, mais d'une autre manière, et donc on voit apparaître ces nouveaux venus sous forme de modèles complets, ou sous forme de LoRa, et donc LoRa, c'est des modèles adaptateurs, et j'en avais parlé pour Stable Diffusion, de ces modèles adaptateurs, ça permet de donner des styles différents, ou de rajouter des sujets qu'il n'y avait pas, donc, dans les modèles qui génèrent des images, et en fait, dans le contexte des modèles de langage, un LoRa, c'est, ça pourrait être soit une personnalité, à appliquer à une chatbot, par exemple, ou des connaissances supplémentaires. Par exemple, tu fais un LoRa pour, je ne sais pas, des documentations techniques spécifiques, ou pour un LoRa de jeu vidéo particulier, que tu veux rajouter, tu vois, et tu n'as pas besoin de tout réentraîner, tu veux juste un LoRa, voire plusieurs. Et donc, il y a tout ça, et en plus, évidemment, il reste toujours les modèles un petit peu plus anciens, donc la famille des Flans, les Galactica, les Opt, et puis les avatars de Opt, qui sont pigmalions, par exemple, qui sont très prisés pour faire des chatbots, comment dire, débridés. Et bon, dans les notes, donc, je joins deux grosses listes de modèles d'IA, pour un petit peu tout. Donc, il y a surtout des modèles de langage, mais il y a aussi des modèles pour la vidéo, on peut faire de l'interpolation d'extraordinaire qualité, on peut faire de l'upscaling de vidéo, il y a aussi de l'audio, on peut faire, il y a des pro, il y a un, enfin, c'est Facebook qui a sorti il n'y a pas très longtemps, un compresseur NoRaL qui est vraiment très prometteur, donc voilà, il est en lien aussi dans toute la liste. Et donc, pour avoir testé GPT-4, CrossAlpaca, et Vicuña aussi, je peux dire que c'est effectivement, bon, c'est pas GPT-4, mais c'est quand même assez fascinant, quoi, c'est vraiment un... Perso, je trouve que le modèle à 7 milliards de paramètres, le 7b, là, est trop neuneu, vraiment, mais, donc, j'aime pas trop GPT4, d'ailleurs, plus que ça, mais Vicuña, qui inverse 13 milliards de paramètres, c'est déjà autre chose. Pareil pour GPT-CrossAlpaca, GPT-4, CrossAlpaca, ça tourne avec 16Go de RAM et 4 coeurs, c'est pas rapide, mais c'est tolérable, et donc j'ai eu envie de tester ses limites, et bon, c'est vrai, au-delà des chatbots marrants et assez bluffants que tu peux faire avec juste un paragraphe de texte, pour revenir un peu sur la discussion qu'on a eue encore avec la remarque de Cartman, Cartman nous a fait beaucoup réfléchir, j'ai testé un truc marrant sur mon Alpaca, je lui ai demandé de m'expliquer des trucs, ce qu'était un processeur superscalaire, et ce que c'était la rétropropagation, etc. Donc il m'a sorti des réponses parfois approximatives, enfin, parfois c'est un petit peu comme si un étudiant avait lu une leçon un peu en diagonale, tu vois. Parfois c'était assez juste, genre en résumé Wikipédia, et ce qui m'a quand même impressionné, c'est que quand je lui ai demandé de m'illustrer ce qu'il venait de m'expliquer avec une analogie, il a quand même essayé,
0:31:44 à 0:31:48 Guillaume Vendé :
et il l'a fait, dans certains cas, de manière pas si mauvaise en fait.
0:31:48 à 0:32:20 Guillaume Poggiaspalla :
Non, il n'a pas parlé de Castor, mais on n'est pas loin, par exemple la rétropropagation, la rétropropagation, donc c'est la méthode pour entraîner des réseaux de neurones, bon, alors, il m'avait fait une analogie avec des dominos, c'est-à-dire qu'il m'a dit que les poids se corrigent comme les dominos qui tombent en partant du dernier comme ça, qui se font tomber les uns les autres, et donc il y avait cette idée de propagation, effectivement, c'était assez rigolo. Une autre fois, il m'a dit que c'est un peu comme quand tu apprends à lancer des fléchettes. Au début, tu lances un peu n'importe où, puis tu corriges en fonction de comment tu rates, petit à petit, pour finalement mettre au centre. Bon, il m'en a fait
0:32:20 à 0:32:22 Guillaume Vendé :
plusieurs, et elles n'étaient pas
0:32:22 à 0:33:22 Guillaume Poggiaspalla :
forcément totalement à la ramasse. Il restait de manière floue des notions qui étaient pas complètement à côté, quoi. Le côté on mesure l'erreur, on ajuste encore et encore, voilà, le côté, les poids qu'on corrige en cascade, comme ça, en remontant le réseau, c'est intéressant à voir. Bon, après, voilà, c'est... Il ne faut pas non plus y voir peut-être plus que ça, mais c'était quand même assez marrant de voir qu'il était capable parfois de trouver des analogies, mais pas toujours. Et puis d'ailleurs, voilà, mon Alpaca raconte aussi énormément de conneries, et ça, c'est quand même un souci, parce que je ne suis pas sûr que quand tout le monde aura un modèle chez lui, tu auras un modèle chez toi, en gros, tu télécharges un fichier de 10 ou 20 gigaoctets, tu peux lui demander tout et n'importe quoi, tu peux lui demander toutes les questions du monde. C'est fascinant, c'est génial, et tu ne vas pas forcément le fact-checker tout le temps. Or, il pourra raconter n'importe quoi. Est-ce qu'on est d'ailleurs à la veille d'un problème d'infox domestique, comme moi, tu vois ? Et parce que, bon, c'est tout à fait possible. Là, on peut parler des scandales qu'il y a avec ChatGPT qui sont quand même assez marquants, je pense.
0:33:22 à 0:34:10 Guillaume Vendé :
Effectivement, on va tout de suite parler de ça, des hallucinations qui peuvent poser problème et qui mettent en lumière à quel point l'utilisation de ces modèles, alors outre le fait de dévoiler de l'information qui n'a pas forcément lieu à être partagée sur le cloud, était déjà un problème dont on a brièvement parlé tout à l'heure. La qualité de la restitution et la possibilité de vérifier cette info est problématique. Juste avant, Guillaume, j'ai une toute petite parenthèse, parce que j'y repense en t'entendant utiliser le terme. On m'a fait des remarques en me disant « mais pourquoi vous dites tout le temps « fine-tuné », pourquoi vous utilisez toujours ce terme ? Et c'est vrai que j'y réfléchissais et je sais que quelque part ça veut dire un réglage, un affinement, etc. Mais je ne sais pas s'il y a un verbe français qui permettrait de dire autre chose que « fine-tuné » un modèle, en gros de le personnaliser, de l'affiner. Tu vois, j'ai posé la question, je n'ai pas trouvé. C'est une forme
0:34:10 à 0:35:10 Guillaume Poggiaspalla :
d'entraînement supplémentaire. C'est comme si tu réentraînais un modèle, mais tu le réentraînes en général sur un dataset qui est différent du dataset d'origine. C'est-à-dire que tu prends le dataset d'origine, tu as ton réseau. Ton réseau est figé sur un dataset généraliste, on va dire. Et admettons que tu veuilles, par exemple, apprendre les légendes de Elder Scrolls, des jeux vidéos. Le Elder Scrolls a ton réseau. Tu vas le réentraîner, mais tu vas le réentraîner sur un dataset spécifique. C'est pour ça qu'on dit que c'est du fine-tuning parce que c'est un tuning, c'est-à-dire que c'est un réglage effectivement, un réglage qui est fait en général sur... Tu réentraînes sur un dataset beaucoup plus petit. Tu le fais sur 2, 3, 4 époques, un truc comme ça. Et puis après, si tu veux, ça altère un petit peu le modèle et ça le biaise vers quelque chose d'autre. Donc ça lui rajoute peut-être des... Donc ça donne une personnalité différente, ça lui rajoute des données. Et c'est pour ça qu'on appelle ça fine-tuning parce que en général, c'est fait sur un dataset qui est beaucoup plus petit. Est-ce qu'il y a un équivalent français ? Probablement.
0:35:10 à 0:35:18 Guillaume Vendé :
Personnalisation, je ne sais pas. Je n'ai pas trouvé de terme parfait. Alors si vous en trouvez, rendez-vous sur Discord, sur les commentaires.
0:35:18 à 0:35:20 Guillaume Poggiaspalla :
Il y en a, ça ne vient pas là, mais peut-être qu'il y en a.
0:35:20 à 0:35:34 Guillaume Vendé :
Bon, on en reparlera à l'occasion. Ça pourrait être un titre d'enquête exclusive, harcèlement sexuel, prison, des montagnes de scandales hallucinées. Guillaume, c'est justement la dérive des informations pas fiables qui causent problème dans nos sociétés.
0:35:34 à 0:37:18 Guillaume Poggiaspalla :
Oui, deux exemples de scandales dus à des hallucinations de la CGPT. Il y a un professeur de droit américain qui s'appelle Jonathan Turley et un maire australien d'une ville rurale, je crois, en Australie, Brian Hood, qui ont tous les deux été accusés à tort de délits graves, puisque c'est du harcèlement sexuel pour Turley et c'est de la corruption pour Hood. Ce dernier aurait même été emprisonné pour ça, selon la CGPT. Non seulement c'est faux, mais Hood en fait est le lanceur d'alerte qui a fait sortir cette histoire de corruption. C'est une histoire dans les années 2000 qui est pour une succursale de la banque centrale australienne, un truc comme ça. Alors Turley, lui, il est apparu dans une liste qui a été générée par la CGPT, une liste d'universitaires accusés de harcèlement sexuel. Et le chatbot, il a même élaboré tout ça en disant que le prof aurait tenté de toucher une élève lors d'un voyage scolaire en 2018, et il cite même comme source un article du Washington Post. C'est plus vrai que nature, sauf que c'est faux, c'est complètement inventé, l'article n'existe pas, le voyage n'a pas eu lieu, donc pour l'un comme pour l'autre, pas la peine de vous faire en dessin sur la gravité des accusations qui sont portées pour le danger, pour l'image de marque de ces gens-là. Donc Brian Hood a porté plainte contre PNAI, ça pourrait tourner en procès pour diffamation, mais il y a un truc très délicat dans cette affaire, c'est que chatGPT ne répond pas toujours la même chose. Il y a un problème de reproductibilité des réponses. Si vous lui demandez maintenant ce qu'il pense de Brian Hood, il répondra peut-être autre chose. Donc on corrige ce problème, ça va être très délicat pour PNAI, donc pour éviter qu'ils racontent n'importe quoi, à moins de mettre des rustines au cas par cas, donc ça va être très difficile. Le seul truc, évidemment, c'est qu'il faut aller voir, il faut aller vérifier, il faut s'ancrer, il faut un ancrage, donc Bing éventuellement peut se protéger de ça en allant vérifier sur le web, à la limite. Mais bon, c'est vrai que les modèles qui sont en isolation, comme chatGPT ou mon petit Alpaca, ils rêvent leur vie dans leur coin et puis voilà quoi, il faut bien le savoir.
0:37:18 à 0:37:28 Guillaume Vendé :
Comment ça se fait d'ailleurs qu'il répond des choses différentes ? Est-ce que c'est le seed, la variable aléatoire qui est injectée en plus de l'instruction de départ ? Oui probablement,
0:37:28 à 0:37:38 Guillaume Poggiaspalla :
parce qu'effectivement il y a une variable aléatoire, il y a une graine de variable aléatoire effectivement que tu mets au début, donc elle doit changer entre chaque session, j'imagine.
0:37:40 à 0:37:46 Guillaume Vendé :
Meta va lancer à son tour des intelligences artificielles génératives, Guillaume.
0:37:46 à 0:38:18 Guillaume Poggiaspalla :
Évidemment, on finit cette section Machine Learning avec Meta, qui est un petit peu moins présent sur le devant de la scène en ce moment. Je parle de Lama dans tous les épisodes, donc finalement pas forcément, mais bon, justement, Meta a de gros labos aussi de Deep Learning quand même depuis 10 ans et ils produisent des gros modèles qui tâchent. Galactica, tu sais que ça aurait dû être le chatGPT de Meta, honnêtement, s'ils ne l'avaient pas retiré, ça aurait eu le potentiel. Donc ils vont se mettre aussi aux idées génératives et ils vont même les commercialiser, donc ils ont constitué une équipe pour créer ces outils, apparemment c'est là que Mark Zuckerberg et Andrew Bosworth croissent le plus clair de leur temps. Donc Meta
0:38:18 à 0:38:20 Guillaume Vendé :
étant Meta, ben voilà. On n'est plus dans le métavers alors.
0:38:20 à 0:40:50 Guillaume Poggiaspalla :
Ah bah apparemment oui. De tout cas, là, ça a l'air d'être les priorités ont l'air d'avoir un petit peu shifté. Mais bon, Meta étant Meta, comme je disais, Bosworth parle surtout du potentiel de ces trucs pour générer des pubs. Et oui, on pourrait générer des images, des vidéos et des slogans à la demande et personnaliser précisément pour chaque annonceur et pour chaque cible. Les trucs qu'on veut. Donc on pourrait démultiplier le ciblage. C'est-à-dire qu'on pourrait, par exemple, générer dynamiquement une image différente selon la cible que tu veux, voilà. Si t'es un homme ou une femme, tu pourras avoir une cible différente, etc. Par exemple, ça pour chaque catégorie. C'est génial, franchement. Après, évidemment, la pub c'est un petit peu le cœur du métier de Meta, donc forcément en ce moment, en plus, avec ces histoires vaseuses de vie privée, tout ça, c'est plus que c'était. Donc cette idée de créer des pubs avec des IA de manière un petit peu dynamique, c'est pas nouveau. OpenAI a aussi fait un partenariat avec Coca-Cola, où ils font à peu près ça, en fait. Même si ça prenait la forme d'un concours, que ça peut s'appeler Create Real Magic. Donc c'est vraiment un truc pour... Voilà, tu crées des pubs Coca, en fait, mais avec des images générées, des slogans générés, etc. Donc les IA génératifs pourraient aussi aider à aller closer une metaverse, attention. Donc le metaverse, c'est encore un petit peu de mal à décoller, mais si on peut simplement décrire ce qu'on veut, par exemple un objet 3D particulier, ou une scène 3D, ou une texture, et que ça peut plus ou moins se faire tout seul, peut-être qu'il y a plus de gens qui vont créer du contenu, et donc plus de gens qui viendront consommer ce contenu. Est-ce que ce serait une méthode pour faire décoller la metaverse ? Allez savoir. On sait pas vraiment qui est le plombé de qui, c'est-à-dire qui est de la pub générative ou du metaverse génératif. Bon, c'est pas trop mais... Évidemment, c'est du business, beaucoup quand même. Quand le business s'en mêle, l'IA devient un petit peu moins excitante. Alors heureusement, Meta a aussi pondu cette semaine un algorithme super pratique qui permet de tout segmenter. Tu as vu passer ça, c'est segmenter une image. Segmenter une image, c'est la diviser. C'est la diviser en zones cohérentes qui contiennent chacun un élément différent. Par exemple, le fond, l'herbe au premier plan, le chien qui court. Ça peut être un visage, les cheveux, le fond, etc. Donc tu identifies en fait quels pixels d'une image appartiennent à un objet donné. Alors ça se fait depuis très longtemps et Debasse utilise le plus souvent de gros volumes d'images dont les données sont annotées à la main pour entraîner des gros réseaux qui vont à leur tour segmenter automatiquement d'autres images. Donc ça veut dire qu'un algo typiquement ne sait pas reconnaître un objet pour lequel on ne l'a pas entraîné. Et Sam... Alors Sam, c'est segment anything model qui lui, il est capable de reconnaître dans une image des objets qu'il n'a jamais vus.
0:40:50 à 0:41:20 Guillaume Vendé :
C'est bluffant je trouve en fait ça. C'est le truc qui m'a le plus marqué quand je regardais un petit peu tout ce qui se passait dans l'intelligence artificielle parce que ça me paraît inconcevable que le truc soit capable de comprendre tout seul qu'est-ce qui est une unité quelque part et qui est indépendante d'autres trucs. En plus, il y a des images pièges dans l'illustration des articles qui relèvent ce genre de choses qui sont assez bluffantes, sans entraînement particulier à reconnaître la grenouille qui est sur une tortue et il va comprendre que c'est une entité différente sans forcément avoir été entraîné pour ça.
0:41:20 à 0:43:40 Guillaume Poggiaspalla :
Effectivement. Beta a constitué une énorme base de données donc c'est un parallèle en fait. Il a constitué une énorme base de données d'un milliard de masques et le truc effectivement est devenu capable de généraliser sur ce qu'est un objet et du coup il peut segmenter n'importe quoi. C'est-à-dire qu'il l'a tellement vu il se l'était entraîné sur des trucs annotés aussi. C'est annoté de manière un petit peu particulière puisqu'en fait tu peux segmenter par point, en pointant ce que tu veux, tu peux segmenter en encadrant ce que tu veux tu peux segmenter aussi en textuellement donc si c'est textuel ça veut dire qu'il a aussi vu des choses, il a aussi vu beaucoup de choses il a aussi vu beaucoup d'objets qui existent et qu'il sait nommer mais au-delà de ça il a arrivé à un point si tu veux, où il comprend dans une image quelles sont les limites d'un objet si tu veux. Alors évidemment il ne peut pas donner le nom de quelque chose qu'il n'a jamais vu. Par contre il peut faire un détourage probable de ce que serait cet objet même s'il ne l'a jamais vu. Parce que ça ressemble à d'autres trucs qu'il a déjà vu en quelque sorte si tu veux. Donc il a réussi à généraliser par rapport aux objets qu'il connaît, aux structures qu'il connaît à la manière de segmenter c'est-à-dire où sont les bordures, etc. Il est quand même capable de généraliser pour même s'il ne sait pas ce que c'est, s'il ne peut pas te dire ce que c'est, il peut quand même te le détourer. Donc c'est vraiment très impressionnant. Bon toi tu peux l'utiliser à la souris, voilà il y a même une démo si tu veux. Mais surtout Sam est très rapide et il peut s'intégrer dans d'autres systèmes. Donc système de réalité virtuelle, de réalité augmentée aussi surtout. Et bien sûr d'autres systèmes d'IA comme des IA multimodales par exemple qui pourraient parfaitement permettre d'aider les IA multimodales à mieux comprendre plus rapidement, plus facilement aussi le monde qui les entoure. Donc ça pourrait être assez intéressant pour ça. De façon méta aussi de grands projets à long terme pour la réalité augmentée. Et puis Sam pourrait devenir une sorte de fondation pour de futures lunettes à réalité augmentée parce que ça permet de tout segmenter quasi instantanément, de segmenter tout ce qui entoure le truc. Donc c'est vraiment très intéressant. Donc c'est un monde de possibilités qui s'ouvre. Aujourd'hui tu as des caméras qui reconnaissent les humains. Tu peux acheter la caméra de Jérôme, il reconnaît les humains. Demain il pourrait, pour pas beaucoup plus cher, reconnaître tout. Absolument pratiquement tout ce qu'elle voit. Et le plus beau c'est que tout est open source et téléchargeable dès tout de suite. Donc vous pouvez même le télécharger si vous voulez.
0:43:40 à 0:44:08 Guillaume Vendé :
Youpi. Et je me suis demandé dans quelle mesure est-ce qu'il y avait un parallèle à faire. Pour le coup je ne sais pas du tout comment ça marche mais la fonction détourage qui est native dans iOS et dans macOS maintenant je pense, alors avec les derniers processeurs, mais cette possibilité de détourer en un appui de pouce une silhouette, un objet, quelque chose qui se détache et l'outil arrive à chaque fois à plutôt bien comprendre chaque objet. Je ne sais pas s'il y a des parallèles à faire avec ça. J'imagine que c'est assez différent dans son fonctionnement.
0:44:08 à 0:44:26 Guillaume Poggiaspalla :
Non, pas forcément. C'est juste que c'est moins sophistiqué parce que c'est probablement des générations qui ne savent pas par exemple détourer des trucs qu'ils n'ont jamais vus. Ou qui ne savent pas détourer des trucs qui sont trop différentes de ce qu'ils ont vus. La segmentation d'images ce n'est pas du tout nouveau. Ce qui est nouveau c'est qu'effectivement on a une généralité qui est inédite.
0:44:26 à 0:45:02 Guillaume Vendé :
Ok. On met de côté notre intelligence artificielle, ça y est on vous a presque libéré sur ce sujet pour cet épisode. Par contre on va... Il y en a toujours un petit peu qui se cachent. Quand vous êtes à peu près sûr qu'il n'y a plus de sujet vous pouvez mettre le timecode dans les commentaires sur techcafé.fr et puis si vous gagnez on vous mettra l'honneur pour l'épisode suivant. On change donc de rubrique et on passe du côté du web parce que justement on a un service qui va arriver probablement Guillaume à craquer tous les mots de passe. J'ai très peur. Est-ce que c'est l'apocalypse des mots de passe ?
0:45:02 à 0:46:40 Guillaume Poggiaspalla :
Comme tous les ans. Tout à fait. Petite transition douceur entre la partie deep learning et la partie web puisque c'est un rapport de Home Security is a Hero qui s'est amusé à utiliser un modèle de deep learning et oui c'était spécifiquement un GAN pour craquer des mots de passe. Le principe est assez habituel, on prend des montagnes aux mots de passe qui existent, on entraîne un GAN dessus comme si c'était des photos de chats. Puis au final on a une IA qui génère des mots de passe crédibles comme si c'était des photos de chats ou de gens comme le fameux désormais historique site This person does not exist. Et cet outil qui s'appelle PassGAN est un open source, vous pouvez vous même si vous avez une bonne GPU l'entraîner sur tout ce qu'Internet offre de grosses fuites de mots de passe. PassGAN est très efficace. Il craque instantanément des mots de passe de 11 caractères s'il n'y a que des nombres. Il met par contre que 7 heures à trouver un mot de passe compliqué à 8 caractères. Quand je dis compliqué c'est avec des chiffres, des langues, des symboles et tout le bordel. Alors pas de panique. Finalement, pas plus que d'habitude. Les conclusions du rapport sont à peu près les mêmes que d'habitude, c'est à dire 65% des mots de passe les plus communs sont cassés en moins d'une heure 80% en moins d'un mois donc oui les outils sont sans doute utiles à casser des mots de passe, évidemment mais en même temps PassGAN n'est pas la seule approche possible. En fait un réseau récurrent pourrait parfaitement faire l'affaire et il n'est même pas évident que PassGAN soit à ce point meilleur que d'autres approches statistiques. Ce qu'il faut retenir c'est que les mots de passe sont globalement de plus en plus en danger avec chaque année qui passe et le rapport préconise d'ailleurs un mot de passe de 18 caractères et plus avec chiffres, symboles et tout on tombe à 10 caractères. Après c'est une tendance qui n'est pas radicalement différente de tout ce qu'on dit d'habitude.
0:46:40 à 0:46:52 Guillaume Vendé :
Guillaume, bouge tes oreilles 10 secondes utilisez un gestionnaire de mots de passe c'est ma recommandation. On passe un petit peu à Tesla Guillaume.
0:46:52 à 0:47:30 Guillaume Poggiaspalla :
Puisqu'on parle sécurité citons un nouveau scandale Tesla qui concerne cette fois des vidéos envoyées par les voitures chez Tesla que les employés s'échangent un peu pour le lol. Des vidéos privées auraient circulé sur la messagerie interne Tesla entre 2019 et 2022 elles auraient été enregistrées par les caméras de la voiture alors les Tesla sont couvertes de caméras et elles enregistreraient même quand la voiture était à l'arrêt. Il y a un ex-employé Tesla qui révèle qu'on pouvait voir à l'intérieur des propriétés, des garages bien sûr occasionnellement il y avait des vidéos de crash spectaculaire ou des trucs moins spectaculaires mais vachement rigolos et compromettants. En gros les Tesla sont de très gros Roomba très chers. Je pense que vous vous souvenez de cette histoire avec Roomba. Donc d'ailleurs
0:47:30 à 0:47:32 Guillaume Vendé :
l'autorité... Des aspirateurs robots Roomba.
0:47:32 à 0:48:24 Guillaume Poggiaspalla :
Voilà des aspirateurs robots qui filment des trucs qu'ils ne devraient pas des fois. Donc l'autorité de protection de la vie privée néerlandaise, la DPA a bel et bien vérifié que les Tesla effectivement filmaient souvent toute personne qui arrivait près du véhicule même à l'arrêt c'est le mode sentinelle et ce n'est qu'en 2023 qu'elles ont cessé de le faire par défaut. Le mode sentinelle datant de 2019. Et après les remarques de la DPA, Tesla a mis à jour sa politique mais ça a fait scandale quand même. Donc en Allemagne l'an dernier il y a eu une association de consommateurs qui a porté plainte pour la même raison. Et en Chine les Tesla sont interdites de zone militaire. D'ailleurs il se murmure que Tesla voudrait déployer le full self-driving donc l'autopilote là-bas. C'est un scandale qui risque de pas trop faire les affaires de la marque. Faut bien avouer. Donc ce serait arrêté mais c'est vrai que je pense que vous pouvez tout... Peut-être que ça... Peut-être que si vous cochez certaines cases ça se passe tous les jours. Je sais pas. Il faudra que tu me
0:48:24 à 0:49:04 Guillaume Vendé :
le dises. On vérifiera à tête reposée effectivement. C'est... C'est des bonnes questions et des bons sujets à avoir en tête puisqu'effectivement très très vite quand même le mode sentinelle pose les questions de la confidentialité, de la vie privée. On capte des choses qui habituellement n'étaient pas captées. Pendant qu'on parle de Tesla, forcément le pont est trop facile. Il faut qu'on parle un petit peu de ce qui se passe dans le monde merveilleux de Twitter piloté par Elon Musk. Twitter, Guillaume, OK, le réseau social. Peut-être qu'il perd un petit peu son oiseau bleu au profit du Shiba Inu pendant quelques temps. Mais aussi le détenteur de Twitter ne s'appelle plus Twitter, Guillaume.
0:49:04 à 0:50:34 Guillaume Poggiaspalla :
Ouais, ouais, ouais. C'est... Effectivement. Alors il y a pas mal de muses Twitter cette semaine finalement. C'est pour ça qu'on fait une section dessus. Et on peut commencer comme ça. Là t'as teasé un truc. On va commencer par ce qui a été le drama du moment quand même. Le Substackgate. Substack, c'est cette plateforme de publication qui permet d'être rémunéré pour du contenu écrit, du podcast, des newsletters etc. Et donc pendant plusieurs jours, Twitter a exclu des tweets et des retweets, tout ce qui contenait l'URL de Substack. Tout simplement parce que Substack a décidé de créer un nouveau service qui ressemble pas mal à Twitter, qui s'appelle Notes, et qui permet de faire du micro-blogging. Substack est un business basé sur l'abonnement. Donc ça se présente, le site le dit, plutôt que ce serait un écosystème plus sain, apaisé, avec des trucs à l'entrée. Mais bon, quoi qu'il en soit, comme un mastodonte en décembre dernier, Substack s'est fait blacklister en tant que concurrente directe de Twitter. Comme mastodonte apparemment, ça a pas duré très longtemps non plus. Pourquoi bloquer si c'est pour débloquer quelques jours plus tard ? Est-ce que tout est fait de manière aléatoire sur Twitter ? Comme le retrait des badges bleus. Mais en tout cas, ça a mis en pétard une personne qu'on croyait fidèle à Musk et à Twitter 2.0 qui est Matt Taibbi. C'est un des journalistes qui a constitué le dossier à charge contre l'ancienne direction de Twitter, les fameux Twitter Files. Il se trouve que ce gars utilise aussi Substack et qu'il va sans doute utiliser aussi Notes et quand il a appris que Twitter bloquait tout, il a décidé de partir. C'est même lui qui a confirmé par tweet que Notes était bel et bien la raison du blocage. Donc voilà, Taibbi est parti et pour se venger, Elon Musk l'a unfollow. Alors t'imagines la violence quoi, je veux dire.
0:50:34 à 0:50:36 Guillaume Vendé :
J'aimerais pas.
0:50:36 à 0:51:24 Guillaume Poggiaspalla :
Et bon, pour le moment, c'est vrai que ça va pas vraiment mieux financièrement pour Twitter puisque Elon lui-même estime que la valeur de Twitter de la boîte sera autour de 20 milliards de dollars contre 44 à l'achat quand même. En réalité, ça pourrait être bien moins. Parce que les banques qui ont 13 milliards de dettes de Twitter ne peuvent pas espérer la vendre à plus de 50% de sa valeur initiale. Donc on est à 6 milliards et demi, bon. Et effectivement, Slate révèle un gros changement qui n'a pas encore été rendu public, ce serait que Twitter n'existe déjà plus. Et voilà. Et oui, scoop. Vous l'aurez entendu ici avant tout le monde. Après, dans des documents qui sont relatifs à un procès qui n'a aucun intérêt, entre une tweetos pas contente et Twitter pour des trucs vieux de 4 ans, on s'en fout. Mais dans ces documents, tout à fait officiels, il est explicitement écrit que Twitter n'existe plus et il a fusionné avec Xcorp.
0:51:24 à 0:51:26 Guillaume Vendé :
Mais qu'est-ce que Xcorp, Guillaume ?
0:51:26 à 0:52:30 Guillaume Poggiaspalla :
Alors techniquement, cette histoire de Xcorp date d'avril 2022. Parce que Musk, en prévision du rachat, avait créé 3 holdings. Xholding 1, 2 et 3. Twitter avait fusionné avec Holding 2 et il avait par contre rééchangé du tout, il n'avait pas le nom ni rien. Xholding 1 serait la compagnie mère en fait, comme Alphabet l'est pour Google. Holding 3, c'est la boîte qui a contracté le prêt à 13 milliards auprès des banques. Donc en gros, Holding 2, c'est un buffer tout simplement. Holding 1 gère Twitter et Holding 3 file le cash. Tout ça était assez technique et manifestement, c'est plus comme ça que ça marche. Et d'ailleurs, le 9 mars, Musk a fait enregistrer 2 nouvelles boîtes qui s'appellent Xholding Corp et Xcorp. Donc Xholding Corp aurait fusionné avec Xholding 1 et Xcorp aurait fusionné avec Twitter Inc, qui donc cesse d'être Twitter Inc. Je sais, ça fait mal à la tête. Je pense franchement que si à ma mort, on considère que j'ai mérite d'aller en enfer, on me fera travailler pour l'éternité en tant qu'avocat fiscaliste ou spécialisé en droits des entreprises.
0:52:30 à 0:52:34 Guillaume Vendé :
On vous aime si vous faites ce travail quand même. C'est juste rhétorique
0:52:34 à 0:55:02 Guillaume Poggiaspalla :
de la part de Guillaume. Bien sûr. On vous aime et on compatit. Bref, aujourd'hui, techniquement, il n'existe plus que Xcorp dont Twitter fait partie et Xholding dont Xcorp est une société. Et on va savoir peut-être que Musk va peut-être mettre aussi ses autres boîtes dans l'holding, je sais pas, comme avec Alphabet. Mais bon, voilà. Pour l'instant, ce sont des changements administratifs mais ça vaut le coup d'être remarqué quand même. Ça veut peut-être dire que le changement que Musk avait vaguement décrit va démarrer très bientôt parce qu'on sait que Musk avait dans l'idée de créer une super app, un truc à tout faire style WeChat et que X, c'est un nom qu'il aime bien. Il n'y avait rien de concret mais finalement, ça peut démarrer. Dans l'immédiat, rien n'indique que ça va bouger. Pour l'instant, Twitter a beaucoup plus d'autres... Des problèmes un petit peu de tous les côtés. Puisque cette semaine, il a battu son record de procès en 24 heures. En 24 heures, il y a eu le bureau de la justice fédérale allemande qu'il a attaqué pour ne pas avoir viré du contenu toxique qu'on lui a signalé pourtant. Il ne vire pas les contenus qu'on lui signale. C'est un problème que la justice fédérale allemande estime comme systémique. Il y a aussi deux class actions. Il y en a une pour facture impayée. Il y a trois boîtes à qui Twitter doit plus de 200 000 dollars qu'il attaque. Il y a un truc classique qui a été lancé par des employés qui ont été virés de manière non réglementaire. Du reste, Twitter est déjà en négociation de tendue avec des centaines d'employés qu'il a déjà virés. Et dans le tas, des employés pas contents, il y a qui ? Il y a Parag Rewal, l'ancien PDG, qui râle parce qu'on lui a pas remboursé des frais de justice dans une affaire avec l'ESSEC qui date d'il y a quelques mois, quelques années, je ne sais pas. Parallèlement à ça, la FTC enquête elle aussi sur Twitter. Musk avait demandé une entrevue à Lisa Khan qui a été rejetée. Les pourparlers ne vont pas très fort et du coup, l'avocat de Twitter en charge du dossier vient de démissionner. Et pourtant, Christian Dowell, qui était là depuis 2020, c'était plutôt fidèle. Il avait gravi les échelons au fur et à mesure que les autres avocats partaient. Donc, sur le départ, à lui, il n'y a pas très bon présage, étant donné qu'il est le principal cadre qui était... c'était homme dépressif. Il y a aussi un des principaux cadres de la sécurité vie privée qui est parti aussi en novembre dernier, et qui était très inquiet. La FTC trouvera à redire aussi sur le bon fonctionnement du nouveau Twitter. Quand tu vois que le mec qui s'occupe du dossier, il a jeté l'éponge, c'est un petit peu inquiétant.
0:55:02 à 0:55:58 Guillaume Vendé :
On pourrait parler encore des problèmes de certification qui continuent plus que jamais, puisque là, il y a notamment le président Barack Obama qui a un nouveau badge qui montre le caractère officiel du compte. Du coup, ben oui, Elon Musk il répond en disant, ben oui, ce sera génial pour réduire les risques d'usurpation d'identité. Et oui, donc il se rend compte après coup qu'il y a peut-être quand même besoin d'un service d'authentification des comptes sur Twitter, mais ça peut plus être la marque bleue qui peut être achetée par tout le monde. Ça devient un vaste bazar assez captivant vu de l'extérieur, mais qui fait aussi terriblement mal à la tête. Comme on est dans une rubrique autour des services Internet, Guillaume, on se doit de parler d'une évolution qui pourrait être probablement très fructueuse dans les usages sur les navigateurs, parce que il y a l'accélération matérielle, si je ne dis pas de bêtises, des rendus graphiques qui arrivent sur Chrome.
0:55:58 à 0:58:50 Guillaume Poggiaspalla :
Écoute, oui, il y a Google qui va supporter WebGPU par défaut dans Chrome 113. Ce que ça veut dire, c'est que ça y est, le successeur de WebGL est arrivé. Donc WebGPU, c'est un petit peu le pendant graphique de WebAssembly, dont Steph nous avait parlé. Donc là, WebAssembly offre une alternative de bas niveau à Javascript. Finalement, WebGPU en offre une pour WebGL. Alors la Provence, c'est la même, plus de possibilités, plus de performances, donc faire de la 3D dans le navigateur, c'est pas nouveau, c'est une vieille histoire. WebGL, c'est 2011. Mais bon, ils reproduisaient une API qui était donc proche d'OpenGL ES dans une page web, et donc ils profitaient de l'accélération matérielle 3D via le navigateur. Mais les temps ont beaucoup changé depuis 2011. OpenGL, c'est quand même un vieux standard, il a su s'adapter longtemps, mais aujourd'hui on n'est plus sur des paradigmes comme Vulkan, Metal ou DirectX 12, et globalement la philosophie des anciennes bibliothèques graphiques, elle n'est pas là, elle n'est plus trop à jour, parce que justement à l'époque c'était, tu voulais utiliser la GPU pour afficher des trucs. Quasi exclusivement. Mais tout a changé aujourd'hui. Une carte graphique, c'est un calculateur, massivement parallèle, assez généraliste et c'est tout. Chaque pixel, chaque vertex exécute un programme, et tout est centré autour de ces programmes, autour des shaders. Chaque effet de post-processing, aussi par exemple, c'est un shader. On peut utiliser le GPU pour faire des calculs physiques, des effets de particules. En gros le calcul est désormais au centre de l'usage d'un GPU, et on l'utilise pour plein de choses, dont du calcul 3D sur des polygones et des textures qu'on affiche. Les anciennes librairies ont tendance plus à être assez lourdes, donc les nouvelles sont un petit peu plus minimalistes, parce que du coup on laisse au codeur, le codeur de jeu, par exemple, le soin de faire un petit peu ce qu'il veut, mais on le fait le plus vite possible. Donc WebGPU n'est pas vraiment une GPU virtuelle, c'est plutôt une API, comme Vulkan, mais pour les navigateurs web. Donc ça sous-entend qu'il faut tenir compte de diverses subtilités, propre au fait qu'on parle pas directement d'une vraie puce en métal, mais d'un environnement complet qui lui-même potentiellement s'unboxait avec des protections, etc. Donc c'est quelque chose qui est déjà isolé du matos, donc on peut pas directement tout relayer au pilote sans faire gaffe. Mais tout de même, avec WebGPU et WebAssembly, on peut tout à fait compter sur des jeux qui tourneront sur navigateurs avec des performances quasi natives, donc des jeux modernes qui auront le navigateur en quelque sorte comme machine de cible. Des moteurs de jeux pourraient, par exemple, compiler pour le navigateur, enfin en tout cas pour WebAssembly et WebGPU, qui sont pas forcément des restreints forcément à un navigateur, mais bon, qui sera, en tout cas, a priori jouable sur le navigateur, et du coup ça rendrait un jeu qui est totalement jouable partout, complètement portable. Alors bien sûr, ça va pas être forcément disponible que sur Chrome, oui c'est dérivé, mais aussi sur Safari et Firefox. Firefox a commencé à l'intégrer en 2020, donc ça, ça a été un processus assez long, bien entendu, je pense, donc là actuellement, Firefox a WebGPU, mais par contre, je suis pas sûr qu'il soit activé par défaut, il me semble pas, donc il faut peut-être aller dans les réglages, si vous voulez l'essayer, sur les pages de démos diverses et variées qui traînent sur Internet.
0:58:50 à 0:59:12 Guillaume Vendé :
Et puis, on va terminer cette rubrique autour du web avec ce qui s'apparenterait quelque part à feu les bonus d'Antec Café, je trouve. Tu es allé te pencher sur les résultats d'un concours photo sur un site qu'on aime de plus en plus, j'ai l'impression, enfin moi, il fait un petit peu plus partie de ma veille depuis quelques mois, c'est Rest of World.
0:59:12 à 0:59:50 Guillaume Poggiaspalla :
Oui, on finit sur un concours photo organisé par le site Rest of World, qui couvre la Clutec, mais vraiment dans le monde entier, tu vois, en particulier dans les pays non-occidentaux, qu'on couvre fatalement, habituellement moins. Donc, ils ont reçu 548 photos assez marquantes, qui couvrent une période entre le lancement du site en 2020 et aujourd'hui, et donc là, il y a les 10 photos qui viennent vraiment de partout, qui sont les lauréats. Donc, le dixième vient d'Inde. C'est marrant, c'est un mec qui met un traceur dans un serpent, parce que c'est une zone où il y a beaucoup de serpents, donc ils veulent tracer les trucs des serpents pour essayer de faire en sorte que les gens ne se fassent pas trop bouffer. Le onzième, c'est une ferme solaire qui est absolument immense en Arabie Saoudite. Le neuvième, ouais.
0:59:50 à 0:59:52 Guillaume Vendé :
T'as dit le onzième, c'est le neuvième.
0:59:52 à 1:00:46 Guillaume Poggiaspalla :
Ah pardon, le neuvième, parce que oui, le neuvième, effectivement, c'est la ferme solaire en Arabie Saoudite. Puis après, on a plein de trucs, des images frappantes, comme en Indonésie, qui payent avec un QR code. Voilà, c'est frappant, le contraste est assez frappant. Donc, le gagnant est une photo prise en Palestine de Fiat qui regarde la télé dans une caverne qui est alimentée par l'énergie solaire. Le solaire a une place qui est assez importante, d'ailleurs, que ce soit dans des fermes en Arabie Saoudite ou des fours solaires. Donc, c'est des photos qui sont vraiment intéressantes, touchantes, et qui sont un vrai reflet, finalement, de notre époque. On voit bien les photos qui sont avec Covid, guerre en Ukraine. Toujours ce contraste passé et futur, assez futuriste. D'ailleurs, parfois, c'est totalement digne d'un film de science-fiction. C'est la photo de la petite famille chinoise, pendant le Covid, avec les parents qui sont en masque, et le nouveau Zolando en plastique, tout droit sorti de Death Stranding. Elle est vraiment incroyable, par exemple. Et pourtant, c'est vraiment
1:00:46 à 1:02:08 Guillaume Vendé :
notre monde. Cette photo, tu l'as préconisée comme étant une image de couverture de cet épisode. Vous le voyez, normalement, si vous avez une application qui permet de voir la couverture personnalisée des épisodes de Tech Café. Tu sais que, quand tu as soumis cette photo, j'avais au départ pas été voir le résultat du concours. Je me suis dit, il est encore en train de piéger, Guillaume. Il faut que je compte les doigts sur cette photo, pour voir si c'est une image que j'aimerais pas regarder. C'est un très beau réflexe. Et, de fait, j'ai cherché un petit peu, puis, évidemment, après, j'ai recoupé, quand j'ai vu le lien vers l'article. Donc, évidemment, j'allais regarder cet article, les photos, et cette image m'a bluffé. Ce qui a fait de me convaincre sur l'authenticité d'une photo de ce type, c'est peut-être naïf, mais c'était les stickers sur le masque de la dame. Peut-être du monsieur, mais sur la dame, on voit qu'il y a des petits cœurs et des petits chats sur son masque. Et je me suis dit, non, l'intelligence artificielle ne serait pas allée jusqu'à préconiser ça, bref. Écoute, ça va devenir notre lot quotidien. C'est notre lot quotidien à tous. Je pensais, en fait, vérifier les images d'où elles viennent. Et puis, on va conclure cet épisode de Tech Café avec une rubrique jeux vidéo. C'est marrant. J'avais en tête qu'elle était un petit peu plus chargée, cette rubrique jeux vidéo. C'est intéressant. Guillaume, tu voudrais parler à ceux qui portent encore dans leur cœur la PS Vita. Peut-être demain qu'une PS Vita 2 pourrait arriver. Attention, arrêtez-vous, concentrez-vous.
1:02:08 à 1:04:00 Guillaume Poggiaspalla :
Eh ben non. En fait, il semble, alors c'est des rumeurs, mais il semblerait qu'il y ait du matos Sony, en tout cas PlayStation, qui arrive en fin d'année, dont, a priori, quelque chose qui ressemble à une console portable, qui s'appellerait la Q-Lite. Et cette Q-Lite, en fait, n'est pas vraiment une console portable parce qu'elle serait réservée à du streaming de jeux vidéo sur PlayStation 5. Donc, ça permettrait de transformer votre PlayStation 5 en Wii U, tout simplement, puisque vous auriez cette sorte de mablette pour la PlayStation 5. Donc, ce serait un truc avec une résolution de 1080 qui permettrait de jouer à 60 fps sur un écran LCD. Mais, apparemment, ça ne s'utiliserait pas ailleurs que sur PlayStation 5. J'hésite à dire tout ça parce que, voilà, c'est que des rumeurs, mais il semblerait que Sony puisse effectivement proposer une espèce de mablette. Alors, le truc, c'est que on ne comprend pas très bien pourquoi. Moi, j'ai du mal parce que, très honnêtement, ça existe déjà, en fait. Il suffit de prendre une tablette Android, il suffit de prendre, en fait, son téléphone mobile et de mettre une manette. Ou il suffit de prendre son téléphone mobile sans manette, puisque c'est déjà possible de streamer sur téléphone mobile. Et, en fait, il y a, par exemple, la tablette avec Controller Logitech qui est sortie il n'y a pas très longtemps. Elle pourrait très bien faire office de ça. Si tu veux. Bon, c'est étrange de sortir un truc dédié, surtout qu'il ne faut pas oublier qu'en face, il y a les Steam Deck qui partent à 400 dollars, ce qui fait que si tu as une machine qui est à 300 dollars ou même à 250 dollars, qu'elle ne peut pas être utilisée sans PlayStation 5, ça va être un petit peu difficile. Bon, voilà. Vita 2, justement, non. Il est possible que Sony sorte quelque chose qui ressemble à une console portable, mais que ça soit un peu décevant. On verra bien. Pour l'instant, c'est que de la rumeur.
1:04:00 à 1:04:48 Guillaume Vendé :
Un appareil dédié à ça, qui a une autonomie décente et qui n'est pas trop cher, je me dis que ça ne peut pas être inintéressant. Je me dis qu'il y a un argument qu'on voit souvent remonter et qui me paraît diablement cher pour ce qu'il permet de faire, mais pourquoi pas, c'est d'utiliser le casque des réalités virtuelles, le PSVR 2 comme écran accessoire d'un joueur sur PlayStation parce que, du coup, tu ne monopolises pas la télé familiale. Je pense quand même que cette solution me paraît extrêmement chère, mais peut-être qu'il y a d'identifier un besoin de s'équiper d'un moyen de jouer à sa console de salon nouvelle génération, sans dépendre de l'écran et en mobilité. On verra si ça se concrétise, pourquoi pas. On a forcément une section Nintendo. L'actualité est très complète sur ce sujet.
1:04:48 à 1:05:48 Guillaume Poggiaspalla :
Nintendo va proposer la réparation illimitée de ce problème de Joy-Con Drift dont on parle depuis très longtemps. Apparemment, ce sera gratuit et hors garantie. Vous pourrez faire gratuitement dans toute l'Europe, j'ai l'impression, réparer votre Joy-Con. C'est quand même une super nouvelle. Et puis sinon, il y a aussi une autre nouvelle qui est plutôt une bonne nouvelle aussi, j'imagine. Mario sur mobile ne serait plus une priorité pour Nintendo, selon Shigeru Miyamoto lui-même, qui a donné une interview sur Variety, dans laquelle il affirme que leur truc, finalement, c'est de faire des consoles, des jeux innovants, des nouvelles expériences, et que les jeux mobiles, ça a été pas mal. C'est pas trop mal passé, mais c'était plus non plus la priorité. On verra. Pour l'instant, tout ce qu'on peut dire, c'est que Super Mario, le film, cartonne. 377 millions déjà au box-office. C'est quand même très fort. Je sais pas si tu l'as vu, toi, d'ailleurs.
1:05:48 à 1:06:14 Guillaume Vendé :
Je l'ai vu hier, et je me suis fait très plaisir, mais c'était une demande de mes enfants, de les voir en famille en 4DX. C'était magique. J'ai passé un super moment. Moi, je valide à mort. Oui, la remarque est justifiée de dire que le scénario va pas casser trois pattes un canard en même temps. Est-ce que les scénarios des jeux Mario sont particulièrement développés ? Je ne suis pas sûr. J'ai passé un moment magique. Ça reste une de mes très belles expériences cinéma avec ce film Mario. Est-ce que tu l'as vu, Guillaume ?
1:06:14 à 1:06:20 Guillaume Poggiaspalla :
Pas encore, non. Effectivement. C'est peut-être une idée. J'étais pas trop parti pour, bizarrement, mais pourquoi pas ?
1:06:20 à 1:06:24 Guillaume Vendé :
C'est graphiquement bluffant. Est-ce que pour adultes,
1:06:24 à 1:06:28 Guillaume Poggiaspalla :
est-ce qu'il y a une deuxième lecture ? Est-ce que les adultes... Non. Ah, voilà.
1:06:28 à 1:07:40 Guillaume Vendé :
Moi, je trouve pas qu'on soit à la hauteur d'un Pixar ou d'un Disney qui te donne quelque chose. Mais quelque part, je trouve que c'est aussi bien parce que je trouve qu'il vaut mieux ne pas aller le chercher et avoir juste un truc qui passe bien que d'essayer de chercher une deuxième lecture pour satisfaire des adultes et tomber à côté de la plaque. Je me suis fait une remarque, et c'est un truc que j'avais vu de la part de plusieurs personnes qui faisaient des critiques sur le film. Ils disaient, écoutez, nous, il y avait des enfants dans la séance et franchement, ça rigolait pas. Les enfants ne rigolent pas, ne se marrent pas. Effectivement, je trouve qu'il y a ce soin d'avoir un truc qui plaît aux enfants, parce que je peux te garantir que les enfants, à la sortie de la séance, ils ont surkiffé, ils n'ont qu'une envie, c'est de retourner le voir. Et pourtant, tu tombes pas dans ces travers de certains films, d'ailleurs un peu les mignons ou d'autres, certains Pixar, où il y a des gags pour faire rire les enfants. Tu vois des personnages qui se prennent des gifles qui tombent. Il y a eu des tentatives, mais ça ne fait pas forcément rire les enfants, et c'est pas enfantin. Et je trouve qu'il y a une espèce de nouvelle voie de l'écriture d'un non-métrage en images de synthèse qui est dessiné par ce film Mario qui, moi, je le plais beaucoup, et j'ai été complètement séduit. Vous nous direz si c'est le cas, peut-être sur Discord, sur le serveur Discord, allez nous dire si vous avez apprécié le film Mario, si vous êtes allé le voir. On termine cette rubrique jeux-vidéos, Guillaume.
1:07:40 à 1:09:36 Guillaume Poggiaspalla :
Oui, avec... Jeux-vidéos, c'est vidi, puisqu'en fait, c'était juste la Fashion Week sur Decentraland. Et oui, ce truc existe encore. Donc voilà, Fashion Week sur Decentraland, qui a rassemblé finalement à peine 1 000 000 de personnes simultanément au maximum, et qui a apparemment dirigé quelques 27 000 visiteurs. C'est... Moi, je trouve que c'est déjà pas mal en réalité, mais en fait, c'est quand même 4 fois moins que pour l'édition précédente. Donc on peut pas considérer que ce soit vraiment une grosse... Alors, il y a eu quand même beaucoup, beaucoup de marques et beaucoup, beaucoup de trucs qui ont été faits dessus, donc c'est vrai que c'est assez marquant. Il y a eu beaucoup de marques, Dolce & Gabbana, Tommy Hilfiger, Adidas, etc. Il y avait quand même beaucoup de gens, des efforts de fait, mais ça prend moyennement, et puis surtout, ce qui est... Ce qui n'a pas changé, ce qui est vraiment un repoussoir complet, c'est cet aspect ultra-mercantile. On a toujours ce marché immobilier, voilà, de Decentraland, où tu peux acheter des trucs hors de prix, où tu peux acheter des tenues hors de prix en NFT. Enfin, je veux dire, qui va acheter plusieurs milliers, l'équivalent de plusieurs milliers de dollars. Il y en a des trucs qui sont à plusieurs milliers de dollars sur des NFTs, sur Decentraland. Bon, franchement, c'est dommage. De toute façon, il n'y a plus que 20 à 30 personnes par semaine qui achètent et vendent des NFTs fonciers sur Decentraland, donc on ne peut pas considérer que ce soit vraiment un énorme succès. Moi, je m'y attendais un petit peu. Mais voilà, le volume de transactions hebdomadaires, c'est dans les 50 000 dollars par semaine. Bon, alors quand on en parlait à l'époque, c'était des millions et des millions. C'est dommage. C'est un truc raté, parce que finalement, si ça avait été moins financiarisé, et moins pourri de pognon et de fric, à la limite, pourquoi pas ? Un truc multijoueur en 3D, on n'est jamais vraiment contre, mais toujours cette idée de acheter ces slots à des centaines de milliers de dollars, des millions de dollars, à un moment, bon, voilà, bof.
1:09:36 à 1:10:42 Guillaume Vendé :
L'overdose est passée. Merci, Guillaume, pour cette revue très complète de l'actu de la semaine. On espère que vous avez passé un bon moment. C'est aussi l'objectif, que vous soyez divertis quelque part avec l'écoute d'un épisode de TechCafé. Mais aussi que vous avez appris des choses, que vous aurez des choses à partager à vos proches, à vos collègues, à vos amis, à votre famille. N'hésitez pas à parler du podcast autour de vous, parce qu'on sait à quel point l'audience d'un podcast n'explose pas, loin sans faux. Par contre, on sait aussi qu'il peut y avoir une certaine viralité quand les auditeurs qui sont satisfaits en parlent autour d'eux. Donc évidemment, on compte sur vous pour prêcher la bonne parole. Et puis, si vous n'avez pas déjà envisagé de le faire, je vous invite peut-être à l'issue de cet épisode, de reconsidérer la possibilité, si vous en avez les moyens, de venir nous soutenir financièrement. Ça vous prendra quelques euros par mois pour contribuer au financement de TechCafé. Et puis, évidemment, on compte sur vous aussi pour aller évaluer le podcast sur les apps de podcast comme Apple Podcast et Podcast Addict. On est dispo sur les points de contact habituels, mais aussi et surtout, à titre individuel, on peut nous contacter et on peut nous retrouver. Guillaume, où est-ce qu'on peut te retrouver ?
1:10:42 à 1:10:46 Guillaume Poggiaspalla :
Et peut-être qu'on va nous retrouver sur Elden Ring prochainement. Et tu sais pourquoi ?
1:10:46 à 1:10:50 Guillaume Vendé :
Non ! Non, Guillaume ! Tu sais pourquoi ? Parce qu'ils ont
1:10:50 à 1:11:04 Guillaume Poggiaspalla :
sorti un mod qui s'appelle Elden Ring Broken as Fuck Edition, dans lequel tu peux rajouter des tanks et des avions à Elden Ring. Et je suis sûr qu'Elden Ring, avec un tank, il est vachement moins difficile.
1:11:04 à 1:11:08 Guillaume Vendé :
Mon Dieu ! C'est pas que de la cosmétique, c'est ça que tu veux dire ?
1:11:08 à 1:11:18 Guillaume Poggiaspalla :
Non, tu peux te balader en tank dans les trucs et défoncer tout le monde avec des gros tanks. Et moi, je me dis, là, ça, ça pourrait m'intéresser.
1:11:18 à 1:11:24 Guillaume Vendé :
Est-ce que tu ne pourrais pas plutôt le moder pour avoir le mod facile qui cartonnait tant et qui cartonne peut-être toujours ?
1:11:24 à 1:11:26 Guillaume Poggiaspalla :
Non seulement le mod facile, mais c'est un mod rigolo en plus.
1:11:26 à 1:12:18 Guillaume Vendé :
Bon, puis oui, c'est suffisamment antinomique avec la proposition créative de départ que ça mérite effectivement d'être testé. Écoute, tu nous diras. Si tu as fait l'exercice, je suis Guillaume Vendée. Vous me retrouvez sur guillaumevendée.fr. Vous me retrouvez aussi dans Contrôle Parental, un podcast où j'aborde des thèmes qui touchent peut-être un petit peu plus les parents. Et puis aussi dans Relife, un podcast sur l'amélioration du quotidien et le développement personnel. Ça s'écrit R-E-L-I-F-E. Merci beaucoup pour votre fidélité. On se dit rendez-vous dans quelques jours pour un épisode supplément de Tech Café qui s'annonce épique. Vous allez encore apprendre plein de choses. Et sinon, pour les épisodes habituels et hebdomadaires sur l'actu de la tech, ce sera la semaine prochaine. A très bientôt. Ciao à toutes et à tous. Musique ... ... ... ...