Transcription automatique de l'épisode 318

Via Whisper (OpenAI), faster-whisper (github/guillaumekln) et Pyannote-audio (github/pyannote). Basé sur une idée de Ruhollah Majdoddin.



0:00:44 à 0:01:28 Guillaume Vendé :
Vous écoutez TechCafé, votre rendez-vous sur l'actualité des nouvelles technologies. Nous sommes le 18 avril 2023 et c'est l'épisode 318 Elon Musk a participé à la création à l'origine d'OpenAI. Il s'en était détourné, il avait claqué la porte. Vous devriez peut-être bien revenir. On vous en avait parlé. C'est pas une blague. Il veut bien proposer un Truth GPT. Oui, oui, vous avez peut-être suivi la tentative de Donald Trump de développer un réseau social de son côté. Ça vous rappellera peut-être quelque chose avec ce nom. Je n'en doute pas. On va en parler. On a plein d'infos, évidemment, autour de l'intelligence artificielle et de quelques autres domaines de la tech. Je suis Guillaume Vendée, podcaster technophile enthousiaste. Et je retrouve le responsable attitré et officiel du conducteur de cet épisode. C'est Guillaume Poggiaspalla. Salut Guillaume,
0:01:28 à 0:01:32 Guillaume Poggiaspalla :
comment vas-tu ? Ça va, ça va, c'est officiel. J'ai pas signé le papier, moi.
0:01:32 à 0:01:56 Guillaume Vendé :
Ah, mince. Donc, c'est pas encore officiel, mais je prépare le contrat pour l'épisode 319 ou le supplément qui sera le prochain épisode resté à l'affût. En attendant, c'est pas officiel non plus, mais quand même, c'est la deuxième fois qu'on retrouve un chroniqueur que vous avez déjà eu plaisir à entendre. Il nous vient du monde de la santé. Il est passionné de tech. C'est Steph, alias peut-être, le connaissez-vous sous l'alias. Steph 500, salut
0:01:56 à 0:02:00 Stéf :
Steph et bienvenue. Salut, merci beaucoup pour l'invitation.
0:02:00 à 0:06:12 Guillaume Vendé :
Merci à toi de te reprêter à l'exercice. Tu sais, en fait, ça fait toujours plaisir d'accueillir quelqu'un dans Tech Café, dans un podcast en général, mais ce qui fait encore plus plaisir, c'est quand les personnes reviennent parce que ça veut dire qu'on les a pas traumatisées. Et ça, c'est important. Tu étais là pour l'épisode 311, enregistré le 28 février dernier, et je dis ça, évidemment, de mémoire. Vous avez un autre épisode assez génial, pour lequel, d'ailleurs, vous avez fait des bons retours, mais je voulais à nouveau le mettre en lumière. C'est le supplément qui est disponible juste avant cet épisode, qui a été diffusé il y a quelques jours, où Guillaume Poggiaspalla vous a livré un dossier assez fantastique sur une rétrospective de la robotique dans l'histoire. J'ai découvert ça pendant l'enregistrement. J'ai bu du petit lait. Alors, ça commence avec le mythe de Talos, et ça a fait voyager jusqu'à l'époque moderne, avec des choses beaucoup plus concrètes. C'est évidemment un épisode intemporel, que vous, vous devez d'écouter, à mon avis. Allez le sauvegarder, le bookmarquer, mettez-le de côté pendant que vous écoutez ce passage. Vous faites-en un rappel, peut-être, pour ne pas le manquer. Et évidemment, n'hésitez pas à en parler autour de vous, ça le mérite. Je me dois de vous rappeler aussi, avant qu'on aborde No News Tech, que Tech Café, c'est un podcast gratuit. Tous les épisodes sont accessibles à tout le monde, et j'ai d'ailleurs commencé à réactiver d'anciens épisodes. Vous allez progressivement, normalement, pouvoir écouter tout Tech Café. Tenez-vous bien, tout Tech Café dans votre app. Auparavant, le flux du podcast était limité aux 200 derniers épisodes, donc ça va faire beaucoup plus de Tech Café à écouter. Et malgré tout, c'est évidemment un bon travail pour nous de préparation des épisodes, de vérification de l'info, de la restitution dans un format que vous avouez vous-même être agréable à entendre. Et une partie d'entre vous a pris conscience et a décidé que, parce qu'ils le pouvaient, ils allaient consacrer quelques euros par mois pour nous récompenser pour notre travail. C'est un geste militant qu'on se doit de souligner. En plus, en contrepartie, les financeurs bénéficient d'un flux privé du podcast qui leur est dédié et ils peuvent écouter tous les épisodes sans la pub. Et c'est possible tout simplement grâce à Patreon. C'est un site qui permet aux créateurs de contenu de recevoir des petits pourboires régulièrement. C'est sans engagement en plus. Et puis évidemment, je ne peux donc que vous inciter à aller jeter un coup d'œil. Et si jamais l'épisode vous plaît une fois de plus et qu'il vous informe comme il se doit, venez vous abonner sur Patreon.com et vous verrez en plus que c'est super simple. Vous pouvez même plafonner votre participation. Rendez-vous sur Patreon.com et puis vous serez peut-être amené à remplacer d'anciennes personnes qui soutenaient jusque-là Tech Café et qui ont décidé de suspendre leur abonnement. C'est bien légitime. En tout cas, cette semaine, pas de nouveau soutien sur Patreon à citer. Par contre, on a Jean-Baptiste Chancerelle qui a envoyé un message sur Patreon. Il nous dit coucou, merci pour ce travail très soigné pour retracer l'InfoTech avec cette même précision et rigueur chaque semaine. D'aucuns diraient une précision suisse. Et merci pour l'enthousiasme à travers les ondes de commentaires. Le premier commentaire, c'est sur l'intelligence artificielle et sur l'appellation d'intelligence artificielle. C'est un sujet qu'on a abordé durant les précédents épisodes à plusieurs reprises. N'oubliez pas qu'il y a artificiel dans le nom. Ce nom très critiqué me semble en réalité assez bien adapté pour un truc, entre guillemets, à qui on demande de reproduire une tâche habituellement réservée au cerveau humain, mais artificiellement. J'aime bien son approche. Après, il nous compare les intelligences des chats et des chiens. Effectivement, le mot d'intelligence est assez vague. C'est fou, cette appellation qui est un sujet de discussion récurrent sur l'intelligence artificielle. Et puis, un autre sujet, je crois que ce n'est pas le seul à la voir remonter. Il nous dit les investissements consacrés aux apprentissages me semblent en effet faibles si on les compare à des investissements industriels classiques. Par exemple, dans l'automobile, quelques centaines de milliers d'euros, voire le million. C'est le coût d'un moule de presse à injecter dans une pièce plastique, comme il y en a des centaines pour une seule voiture. Et effectivement, il met en regard les coûts que tu avais listés, Guillaume, dans le dernier épisode hebdomadaire d'entraînement des modèles de langage. Et évidemment, lui, il était plutôt dans le camp de dire que c'était vraiment pas cher. Je crois que c'est un commentaire aussi que nous a fait Renaud Joly, si je ne dis pas de bêtises, sur Discord.
0:06:12 à 0:09:52 Guillaume Poggiaspalla :
Renaud Joly a dit, comme toi à l'époque, au moment où on le faisait, c'était que l'investissement pour entraîner un grand modèle de langage n'était pas si cher en fait. GPT-3 c'était 1,8 million, Megatron c'était 11, etc. Et il met en regard effectivement les coûts d'un magasin, 15 à 20 millions pour un magasin. C'est beaucoup, c'est intéressant parce que je n'avais pas forcément en tête ces montants. Ce ne sont pas vraiment des chiffres que je connais. Il dit aussi que c'est 50 à 100 millions pour un entrepôt. C'est vrai que c'est très cher. Le offline aussi, mais nous on ne discute jamais de ça et on ne se rend pas forcément compte des coûts, en tout cas moi. Et donc oui, tout est relatif. Pour les IA, il y a les coûts d'exploitation aussi, comme un magasin, c'est vrai. Et puis ça va dépendre de l'échelle, évidemment, pour les modèles d'intelligence artificielle. Et puis après, il y a les coûts du matos. Parce que bon, si tu achètes tes GPUs, il faut les acheter. Et après, il faut les maintenir au jour, donc il faut les remplacer régulièrement, ou alors il faut les louer. Bon, évidemment, c'est cher aussi. C'est vrai que ce n'est pas à la portée de toutes les bourses. C'est un petit peu ce que je voulais dire quand je disais que c'était cher. Oui, c'est vrai que tout est relatif. Dans le cadre de l'IA, c'est vrai qu'il y a quand même un souci d'accessibilité et un peu de souveraineté aussi, qui est important. Idéalement, ce qu'on voudrait, c'est des IA libres, des IA open source. Et justement, les coûts, que ce soit en matos ou en main d'œuvre, ça complique les choses par rapport au reste du libre. Bon, on va justement parler de Dolly et de GPT4All juste après, mais si on prend l'exemple de RoiCouv, je sais, ça s'écrit de manière encore plus imbitable que ça se prononce, je vous rassure. Tout ça, ça s'écrit R-W-K-V. Alors, qu'est-ce à quoi ce truc, R-W-K-V ? C'est une architecture qui est alternative au transformeur, donc c'est un réseau de neurones un petit peu particulier qui revient. C'est un réseau récurrent. Pour faire simple, l'architecture utilisée par la totalité des modèles de langage, que ce soit GPT, Lama ou BARD, elle est très puissante, mais elle n'a pas que des avantages. On va dire que la mémoire de ces modèles, elle est assez chère. Elle est chère en tant que calcul, en particulier. C'est pour ça qu'en fait, ils ont des fenêtres de contexte qui sont, comme on dit, qui ne sont pas si longues. Donc là, c'était 2048 pour GPT 3.5, je pense que c'est passé à 4096 après pour chaque GPT, et pour GPT 4, je crois que ça peut aller jusqu'à 32 000, mais il faut le payer. C'est plus cher, en fait, et c'est plus cher parce que, justement, les coûts en tant que calcul n'augmentent pas du tout de manière régulière, ça augmente de manière quadratique, en fait, avec la taille de la fenêtre. Donc, R-W-K-V, c'est une architecture qui est encore assez peu connue pour résoudre ce problème. Donc, c'est cool, ça vient d'un chercheur chinois, et dans une certaine mesure, ça a presque fait ses preuves, puisqu'il existe un modèle à 14 milliards de paramètres qui marche bien. D'ailleurs, il est testable. Il y a une chatbot qui s'appelle Raven, que vous pouvez tester sur GuinFace. Alors, ça veut dire que, pour l'instant, c'est encore un petit modèle, quand même, à 14 milliards de paramètres. C'est une sorte de preuve de concept. Et si c'est prometteur, on pourrait se demander pourquoi est-ce qu'on ne fait pas un modèle qui est 10 fois plus gros déjà, pour voir si ça défonce à tête chaque GPT. Et bien, c'est simple, parce que pour prendre le petit modèle, il a fallu faire tourner 64 GPU à 100 pendant 3 mois. Même en comptant qu'il y a eu des optimisations entre temps, si on le refaisait aujourd'hui, ça coûterait 40 000 dollars. Et c'est pour le petit machin. Si on voulait faire un modèle 10 fois plus gros, avec 10 fois plus de données, au moins, il faudrait 100 fois plus de calculs. Donc, pour faire simple, tel modèle coûterait plusieurs millions de dollars. Et donc, ça nous ramène bien, d'ailleurs, dans les gammes de prix qu'on a vues, et qui va payer ça ? Parce que Raven, il existe grâce à qui ? Raven, il existe grâce à une ONG, qui s'appelle Eleuther, si vous voulez, avec un th AI, et aussi grâce à Stability AI, qui ont fait des dons. Ils ont fait des dons de deux puissances de calcul à la communauté qui tourne autour de Roku. Donc, ils ont fourni pour 100 000 dollars de crédit. Donc, c'est bien, tu vois ? Mais avec 100 000 dollars de crédit, tu peux pas concurrencer OpenAI, c'est pas possible. C'est un petit peu le cœur du souci qu'on a ici, là, et puis c'est vrai qu'on va en discuter aussi. Il y a beaucoup d'activités dans le monde de l'IA libre, c'est juste pour montrer un petit peu les rapports de force, on va dire.
0:09:52 à 0:10:06 Guillaume Vendé :
Avant qu'on termine notre tour de piste de l'intro, et avec ce courrier d'électeurs, Steph, t'es team chair ou team pas chair, toi, quand tu prends connaissance des coûts d'entraînement des modèles de langage dont on a parlé précédemment ? Je sais pas si t'avais...
0:10:06 à 0:10:08 Stéf :
Tu veux dire team chair ou team pas chair ? Dans quel
0:10:08 à 0:10:58 Guillaume Vendé :
sens tu veux dire ? Est-ce que justement quand on apprend que le coût de construction d'un modèle, c'est de l'ordre de quelques millions de dollars ou d'euros, j'ai plus les chiffres, et je crois que c'était en dollars, est-ce que tu trouves que c'est des montants qui sont chers pour une échelle industrielle ? Et en gros, comme le dit Guillaume, ça met de côté un petit peu la possibilité pour des petits acteurs d'aller concurrencer, d'aller facilement proposer des alternatives ou est-ce qu'à l'échelle de l'industrie, si on compare ça à... Alors là, on avait l'exemple sur Patreon, on nous disait les coûts dans l'industrie automobile, mais j'ai même moi en tête les coûts qu'on a, et c'est très différent, mais de production de processeur, par exemple, on est sur évidemment des investissements qui n'ont rien à voir, qui sont bien plus conséquents, je sais pas, est-ce que toi tu situes ça comme étant quelque chose de cher ou pas cher, finalement ?
0:10:58 à 0:11:16 Stéf :
Franchement, pour le service rendu, je trouve que c'est pas si cher que ça, en vrai, c'est peut-être moi qui vois un peu le bien partout, mais j'ai pas l'impression non plus que ça coûte des montants qui soient complètement inabordables, alors pour le commun des mortels, évidemment, mais effectivement, à l'échelle d'une entreprise, on parle pas de milliards,
0:11:16 à 0:12:14 Guillaume Vendé :
non ? Parfait, on met de côté quand même cette histoire de coûts, même si on va continuer à parler de modèles de langage, je voudrais quand même terminer avant qu'on aborde vraiment nos news, de dire que vous avez la possibilité de déposer des avis sur Apple Podcast ou sur Podcast Addict, il y a par exemple Happy Happy qui a déposé un avis sur Podcast Addict et nous dit « je vous écoute depuis T'en arrives à Madagascar, merci de se concentrer de Tech News dans la détente et la bonne humeur, bonne continuation, ça fait très très très plaisir quand on a des retours de votre part partout dans le monde, c'est très chouette de savoir qu'on est écouté au-delà des frontières, évidemment, pour des personnes qui suivent le français, mais dans plein d'endroits du monde, allez, c'est trop cool. Sans autre forme de procès, on enchaîne, du coup, on va évidemment parler des modèles de langage, et Guillaume, tu nous le disais un petit peu tout à l'heure, mais on va surtout parler là des modèles de langage libres. Bah oui, parce que vous le savez,
0:12:14 à 0:13:52 Guillaume Poggiaspalla :
les IA libres qu'on peut utiliser chez soi, par exemple, et adapter à ses besoins, c'est mon petit dada en ce moment, et donc je parle peut-être beaucoup trop de Lama et compagnie, mais je pense que justement c'est important parce que ça nous libère simplement de devoir absolument passer par les GAFAM pour tout, et bon, même si on considère que bientôt il y aura les GAFAMON, puisque si on rajoute OpenAI, ça sera peut-être les GAFAMON un jour, mais voilà, c'est... disons que je continue un petit peu une rengaine habituelle d'avant, les IA à ma main, essayer de récupérer une sorte de souveraineté sur ces données, tout ça, et bref, je suis quand même pas le seul, parce qu'il existe donc des projets libres pour des alternatives à chaque GPT, et donc par exemple on a Dolly, GPT4All et OpenAssistant. Alors j'ai déjà parlé d'Alpaca, qui fonctionne déjà très bien, ou de Vicuna, il y a aussi Koala depuis qui est sorti, qui sont des alternatives très crédibles, qui fonctionnent en local, qui fonctionnent vraiment bien en fait, et elles ne requièrent même pas finalement de grosses GPU de la mort pour fonctionner, même si ça peut être un peu lent, mais bon, il y a quand même des problèmes légaux. Légaux entre guillemets, si on considère ces modèles du point de vue du libre. La première, c'est que Vicuna, Alpaca par exemple, sont basés sur la main. C'est fâcheux parce que la main a été créée par Meta, et qu'il ne l'a jamais officiellement distribuée à tout le monde. Le modèle a fuité, mais il reste officiellement réservé aux chercheurs, et vous ne pouvez pas en faire ce produit commercial par exemple, vous ne pouvez pas vraiment faire ce que vous voulez, et techniquement à moins de demander d'être validé, vous ne devriez même pas l'avoir sur votre disque dur. C'est vraiment dommage, je pense que Meta devrait, étant donné la diffusion actuelle de Lama, et l'engouement vraiment qu'il y a autour de ce modèle, Meta devrait enfin, il gagnerait tout, il gagnerait énormément de crédit d'ailleurs, et d'images de marque, il gagnerait tout à le libérer
0:13:52 à 0:13:56 Guillaume Vendé :
vraiment, mais bon, à officialiser. Il en a besoin peut-être en plus de redorer son image.
0:13:56 à 0:19:44 Guillaume Poggiaspalla :
Oui, je pense que c'est vraiment l'occasion. Mais bon, écoute, à tous les cas, en tout cas, je fais un appel à Meta, je pense que ce serait vraiment une très bonne idée. Mais bon, en tout cas, pour l'instant, c'est un souci majeur, le fait que ça appartienne encore un peu à Meta, et la communauté s'est dit, si c'est comme ça, on va utiliser un modèle de langage open source qui existe déjà. L'intérêt s'est porté naturellement sur GPT-J, qui est un petit modèle de 6 milliards de paramètres, qui a l'avantage d'être complètement libre. Vous pouvez l'utiliser pour n'importe quoi, d'ailleurs je crois que c'est celui qui a servi à faire le très coquin Pygmalion, qui sert à faire des chatbots érotiques principalement. Mais bon, vient ensuite le deuxième problème, que ce soit GPT Lama ou GPT-J, ces modèles de langage, en fait, ne sont pas faits à la base pour répondre à des questions, pour suivre des instructions. Avec un prompt adapté, on peut faire plein de choses. Mais chatGPT a montré qu'un bon fine-tuning, une bonne adaptation, un bon affinage, si on veut, pouvait rendre le modèle bien meilleur à ça, et en plus, ça peut le rendre beaucoup moins toxique. En fait, on peut le cadrer un petit peu mieux. Donc ce fine-tuning, ce réentraînement, il va requérir des données et des humains. Parce qu'autant l'entraînement de base de modèles de langage se fait tout seul, c'est-à-dire non supervisé, autant ce qu'on appelle le RLHF, c'est-à-dire l'apprentissage par renforcement basé sur le feedback humain, ça, comme c'est écrit dedans le titre, ça requiert des humains. Des humains qui vont dire si oui ou non la réponse est correcte, si elle est cohérente, si elle est polie, etc. Donc c'est cher parce que les humains, en général, il faut les payer. Et donc à ce problème, Alpacac a trouvé une solution simple. Ils vont utiliser un gros modèle de langage qui est déjà entraîné, comme chatGPT, par exemple, et s'en servir pour générer des exemples pour notre modèle à nous. Donc le modèle à nous, là, c'est là-bas qu'on va le transformer. Alors c'est génial, mais ça veut aussi dire que du coup, le modèle qu'on va modifier devra suivre les conditions légales d'OpenAI. Donc on a encore un autre problème. Donc on aimerait bien s'en passer aussi. Et donc il y a eu Dolly, qui était une première tentative de créer un chatGPT libre, basé sur GPTJ, donc libre, mais il utilisait le dataset d'Alpacac. Et donc, patatras, il est encore dépendant de quelque chose d'OpenAI. Et c'est pour ça qu'ils ont créé un autre modèle avec des données qui ont été crowdsourcées, fournies par des employés de Databricks. Et donc c'est un don, vraiment. C'est-à-dire que Databricks, c'est une boîte qui fait du logiciel web, et ils espèrent contribuer à démocratiser les LLM, les gros modèles de langage. Il y a 5 000 employés qui ont fini par créer un dataset de 13 000 exemples pour entraîner Dolly 2. Et Dolly 2, en plus, il bénéficiait d'un nouveau modèle, qui s'appelle Pitia, qui est donc un modèle à 12 milliards de paramètres, et qui est donc plus récent et deux fois plus gros que GPTJ, mais qui est aussi complètement libre. Et c'est encore une fois Eleuter.ai qui a créé la famille Pitia. Donc ces modèles sont issus d'une ONG. Donc tout ça, c'est des dons, des dons d'argent ou de puissance de calcul. Alors Dolly 2, il est d'ores et déjà téléchargeable, il faudra qu'on entend un petit peu, je pense, pour avoir un moyen simple de l'utiliser sur un PC standard. Pour l'instant, ça requiert encore pas mal de mémoire, mais bon, en attendant, il y a un autre modèle qui est très facile à tester, c'est GPT4ALL-J, ça vient de chez Nomic, et là encore, GPT4ALL avait tenté de se dégager d'OpenAI en utilisant un dataset basé sur Atlas, qui est leur propre explorateur de données, ça restait du lamin en dessous, et donc ils ont fait la version J et donc il se passait à GPTJ. Donc dessous, c'est entièrement libre et en plus ils ont une interface très simple et très agréable et donc sans doute le moyen le plus évident et le plus simple vraiment pour avoir un tout petit mini-GPT chez soi, c'est GPT4ALL-J. Donc c'est GPT4ALL-J. Voilà, donc si vous voulez aller voir. Donc il y a une autre initiative qui s'appelle Open Assistance, utiliser la main aussi, mais qui va passer à Pitya je pense, et donc honnêtement ces modèles sont vraiment intéressants, c'est des modèles qu'il ne faut pas pitié du tout, mais bon, vu la taille et les temps d'entraînement, il ne faut pas s'attendre à avoir des choses qui soient aussi puissantes que GPT4, tu vois, ce n'est pas possible. Je n'ai pas encore testé Dolly 2, mais je ne m'attends pas à ce que ce soit un petit peu en dessous d'Alpaca et compagnie, ça serait tout à fait normal. Donc c'est des initiatives qui sont encourageantes et qui font chaud au cœur, mais qui montrent aussi à quel point le combat est déséquilibré, à quel point c'est difficile. Pitya, c'est un modèle qui est relativement récent, il fait 12 milliards de paramètres et pas plus, parce que pour aller taquiner chat GPT, il en faudrait vraiment beaucoup, mais le faire, ils n'ont sans doute pas les moyens. Donc Meta peut se permettre d'entraîner un modèle à 65 milliards de paramètres sur 1200 milliards de mots, c'est ça quand même, il y a encore peut-être même 1400 milliards sur le plus gros modèle, mais qui peut faire ça ? Tu vois, pas grand monde. Et pourtant, il y a un projet qui s'appelle Red Pajama, c'est la main en pyjama rouge, c'est ça le logo, c'est vraiment la main en pyjama ? C'est créatif. C'est créatif et c'est cosy, ça doit être tout doux, c'est bien pour l'hiver, on a envie, ça donne envie. Et donc le but de Red Pajama, c'est de créer un modèle comme la map, de créer une clone qui soit aussi bien entraînée, pour faire une sorte de Linux de l'IA. Si on veut, c'est vraiment ça, c'est un Linux de l'IA. Donc c'est un énorme projet, il y a des instituts de recherche, des institutions partout dans le monde, comme l'ETH Zurich et Stanford, qui commencent déjà à rassembler des données, donc une masse énorme de données, donc c'est un projet qui paraît fou, mais c'est vraiment un travail énorme. Alors on ne connaît pas la taille de GPT-4, il y a quand même un gars chez Microsoft qui parlait des capacités du modèle, donc il faisait une sorte de conf à une université, donc lui il a testé le modèle non commercial, le modèle complet, et il a dit à un moment, il ne faut pas sous-estimer ce que peuvent faire 100 000 milliards de paramètres. Donc je ne sais pas s'il l'a dit en l'air comme ça, ou si c'est une réalité, mais vu que Google, qui fait déjà 540 milliards de paramètres, ne s'est pas exclu que GPT-4 en fasse 1000 milliards. Donc c'est ça les ordres de grandeur, c'est ça les rapports de force. Donc qui peut rivaliser avec le tandem Microsoft OpenAI et leurs 1000 milliards de paramètres, mis à part les plus grosses boîtes du monde, on espère effectivement que Red Pajama pourra faire un modèle comme ça, qui soit à la hauteur. Mais t'imagines la puissance qu'il faut derrière. C'est encore pire que fabriquer le Linux ou un truc comme ça, c'est vraiment du boulot et énormément de calcul.
0:19:44 à 0:20:04 Guillaume Vendé :
Oui, la ressource ne peut pas se combler simplement avec du temps et de la bonne volonté et de l'organisation, il faut la ressource pure et dure. Bon Steph, de toute façon tu connais la règle dans tout l'épisode, tu as voix au chapitre quand tu le souhaites et tu nous coupes la parole quand tu veux. Tu t'es intéressé un petit peu toi de ton côté au modèle de langage libre ?
0:20:04 à 0:20:08 Stéf :
Oui, je suis un peu comme Guillaume, je suis un peu
0:20:08 à 0:20:10 Guillaume Vendé :
un très fervent admirateur
0:20:10 à 0:21:20 Stéf :
du libre et en particulier des modèles comme ça, dès que j'ai la possibilité je les teste et je trouve que là c'est un peu le sens du partage c'est le sens du partage du savoir surtout pour un sujet aussi important qu'il y a parce que on peut contenir le risque potentiel pour la société et finalement le fait d'ouvrir un maximum les connaissances ça permet aussi de pouvoir se prémunir d'éventuelles problématiques qui peuvent survenir derrière. Par ailleurs, pour moi le libre ça autorise aussi tous les progrès rapides qu'on a vu naître ces dernières années et en particulier ces dernières semaines avec une accélération quasi exponentielle. D'ailleurs moi je rebondis vraiment sur ce que vous aviez dit sur les précédents épisodes j'ai du mal à comprendre la fermeture d'OpenAI déjà c'est dans le titre mais c'est aussi renier déjà sa propre nature mais c'est surtout tourner le dos à ce qu'elle est aujourd'hui c'est-à-dire si elle est ce qu'elle est aujourd'hui c'est uniquement grâce au libre elle s'est constituée grâce au libre et maintenant dire, ne même pas mentionner le nombre de paramètres dans son modèle, qu'on soit obligé de faire des succutations, ça m'inquiète pour l'avenir, honnêtement.
0:21:20 à 0:22:26 Guillaume Vendé :
Il y a une tendance à l'apolification qu'on peut ne pas trop effectivement apprécier sur évidemment ses travers et ses conséquences et je pense qu'il y a clairement eu une bascule de ce type de structure vers une entreprise extrêmement tournée vers le revenu. Bon, c'est normal qu'une entreprise veuille gagner de l'argent c'est sa nature et ça peut se comprendre mais c'est sûr que c'est un revirement de veste qu'on ne voit que dans le domaine de la politique pour la gestion de l'entreprise on va continuer à voir si ça évolue dans cette direction j'en doute pas trop en fait. Il y a un autre sujet, Guillaume, que tu as vu passer dans ta veille et moi c'est un truc qui m'a énormément plu et je me suis mis non seulement à creuser le sujet de mon côté mais aussi à rêver quelque part c'est une simulation avec des personnages, des avatars qui ont été créés et qui sont des agents basés sur de l'intelligence artificielle générative forcément et on regarde un petit peu comment ils vivent entre eux, c'est une espèce d'expérimentation évidemment ça nous laisse rêver vers des directions de science-fiction qu'on pourra redévelopper derrière. Décris-nous un petit peu ce que c'est, Guillaume. Bah écoute, on se dit que les
0:22:26 à 0:25:58 Guillaume Poggiaspalla :
scientifiques ils font des trucs sérieux, que c'est pas des marrants, toujours à plancher sur des équations habitables tout ça, mais non, non non, ils savent s'amuser aussi, hein, la preuve, voilà, bon ils devaient avoir une clé OpenAI payée par le labo, ils se sont dit, on en a marre de regarder des télé-novelas alors on va faire la nôtre. Et puis bon, comme ils ont pas vu les news sur Unreal Engine 5, ils ont opté pour une esthétique Super Nintendo mais ils se sont créé une petite ville, vue dessus, avec 25 personnages qui sont 25 sims, puisque en fait c'est ça l'idée créer 25 personnages avec des personnalités des rôles définis dans une petite ville et les interagir entre eux et rigoler quand il se passe 45 minutes à essayer de sortir d'une piscine ou qu'il faut une dépression nerveuse en rentrant du boulot ah non ça c'est les sims, donc voilà le plus gros, mais voilà, le gros plus quand même par rapport aux sims, c'est que chaque personnage est un agent, guidé par une instance de chat GPT. Alors un agent c'est une entité qui poursuit un but dans un environnement donné, et qui pour atteindre ce but peut se fixer des sous-objectifs et planifier pour essayer d'atteindre ces objectifs, compte tenu évidemment des contraintes de l'environnement. Donc je sais que c'est très vague, et c'est fait exprès, puisque en fait c'est une notion très générale des agents, et on utilise des agents, voire des systèmes multi-agents depuis un bon moment pour modéliser un peu tout et n'importe quoi Bon l'idée ici c'est que on veut faire un agent le plus humain possible donc chaque personnage de Smallville, puisque c'est comme ça que ça s'appelle et non il n'y a pas superman dedans chaque perso est donc plus que simplement une instance de chat GPT, c'est pas juste ça. Donc en fait c'est un code c'est un programme, chaque agent qui perçoit son environnement, et qui gère une mémoire à long terme, qui est utilisé pour créer à la volée des prompts, qui eux seront digérés par chat GPT et donc il y a vraiment un pont qui est fait entre le langage naturel et l'interaction entre l'environnement et les autres agents identiques. Donc ils sont structurellement identiques mais en fait ils ont chacun une personnalité différente, un métier ils ont même éventuellement des conjoints ou des crushs, etc. Et donc ce qui est super intéressant c'est que justement chat GPT n'a pas de mémoire à long terme, donc il a une fenêtre de 2048 mots, un truc dans le genre et il peut donc pas planifier à long terme. Mais les agents de Smallville ils ont une mémoire additionnelle qui va fournir des infos contextuelles supplémentaires. Et donc l'interaction de ces GPT augmentées est assez fascinante, ça marche assez bien. On assiste à des comportements qui sont complexes, enfin qui deviennent complexes et qui... même des trucs émergents c'est-à-dire des trucs qui sont pas prévus, qu'on a pas préprogrammés à l'avance. Donc l'information se diffuse par exemple dans Smallville aussi vite que dans un village moyen du sud de la France c'est-à-dire les agents peuvent se coordonner ils peuvent planifier des choses. Et un exemple marrant c'est qu'il y a Isabella Rodriguez c'est un des Sims qui a planifié une fête de Saint-Valentin au café. Donc elle a invité d'autres agents ils l'ont aidé à décorer le café et puis ils ont invité d'autres agents. Et la nouvelle a circulé pendant deux jours, il y a douze agents qui ont entendu parler de la fête et il y en a cinq qui y sont allés. Donc les agents ont mené leur petite vie, discutent, tu peux regarder ça comme une sorte de Terrace House, mais Terrace House 16 bits quoi. Et voilà tu peux même lire les transcriptions d'ailleurs des trucs. Donc l'article peut paraître un peu anecdotique, en fait il est révélateur d'une nouvelle tendance qui est le passage aux agents. Parce que jusqu'à maintenant on a beaucoup parlé de modèles de langage en tant qu'outils passifs ou passifs agressifs des fois c'est vrai, mais bon voilà ce sont des logiciels passifs qui répondent à un bout de texte et qui t'envoient un autre bout de texte en réponse et c'est tout. Alors que la tendance c'est de se reposer sur leur capacité pour créer des processus automatisés qui agissent de manière plus autonome. Donc on a vu ça un petit peu chez OpenAI avec les plugins, tu vois il y a des projets qui veulent aller encore plus loin et ça peut impliquer de faire interagir plusieurs instances d'agents, enfin disons plusieurs instances de modèles de langage pour créer des agents. D'ailleurs il y a aussi un autre petit exemple autour de ça qui est Volverine qui est un système expérimental pour débuguer du code et que t'as vu d'ailleurs Steph que t'as vu passer.
0:25:58 à 0:26:16 Stéf :
Oui tout à fait en fait pour Volverine moi j'ai eu l'occasion un peu de jouer avec et surtout j'ai étudié un petit peu son code sur GitHub puisque j'aime bien tripatouiller un petit peu, comprendre ce que je fais et ce qu'il y a d'hyper intéressant chez Volverine déjà j'adore le
0:26:16 à 0:26:18 Guillaume Vendé :
enfin c'est pas pour vous, moi j'adore juste le nom
0:26:18 à 0:27:14 Stéf :
le mec est un génie le principe c'est ça va en fait régénérer automatiquement le code à partir du moment où il y a une erreur. Alors comment ça fonctionne ? En fait ça commence avec un pré-prompt pour GPT-4 dans ce pré-prompt on le met en condition donc on va lui décrire un certain nombre de conditions qu'on veut pour que du coup il puisse correctement effectuer sa tâche. Donc on commence par lui dire littéralement tu fais partie d'une équipe d'ingénieurs logiciels de haut de volée et après on lui donne un certain nombre de consignes. Donc on veut par exemple que les réponses soient en format JSON etc. Et ce qu'il y a d'hyper intéressant c'est que au final quand on regarde le code il fait quoi ? 200 lignes à peine donc c'est vraiment très très facile d'aller checker un petit peu tout ça et l'idée c'est que c'est une boucle infinie. C'est à dire que on envoie au script
0:27:14 à 0:27:16 Guillaume Vendé :
quelque chose qu'on veut
0:27:16 à 0:27:30 Stéf :
débugger. Le script lui va le lancer dans un sous-processus et puis il va attendre le résultat du script. Si le script revient avec un retour égal à 0 c'est à dire qu'en gros tout s'est bien passé
0:27:30 à 0:27:32 Guillaume Vendé :
la boucle s'arrête. C'est bon. Le script
0:27:32 à 0:28:20 Stéf :
n'avait pas besoin d'être réparé donc tout fonctionne bien. Si par contre le script a planté, si c'est un retour autre que 0, ce qu'il se passe c'est que dans le pré-compte on lui a donné des indications sur le type de retour qu'on veut et en particulier il va renvoyer toutes les exceptions qui ont été levées par le programme Python. Et grâce à ça il va pouvoir en fait modifier le code automatiquement et le rebalancer dans le script. Et en fait c'est une boucle qui ne s'arrête qu'au moment où le retour est à 0. Et donc ça semble assez magique comme ça mais franchement je vous engage à aller voir par vous-même 200 lignes de code c'est pas plus que pour créer un pendu en Python. Donc autant vous dire que c'est quand même pas très compliqué mais je trouve que c'est simple et à la fois très élégant.
0:28:20 à 0:29:08 Guillaume Vendé :
Si on met en regard ces infos d'une simulation comme ça pour voir les agents conversationnels si on regarde la capacité qu'ils peuvent avoir maintenant à réparer, à soigner des scripts buggés, etc. J'essaye de tordre l'histoire vous me voyez venir, mais dans quelle mesure est-ce que ça ne donne pas du crédit aux théories, oui, fumeuses qui visent à dire que si on avance aussi vite, on arrivera à un moment où on arrivera à créer des environnements extrêmement souples, extrêmement malléables et extrêmement réalistes et qui nous dit qu'aujourd'hui on n'est pas dans une réalité virtuelle et qu'on n'est pas nous-mêmes des agents conversationnels qui sont doués de pouvoirs tels que ceux-ci et tels que ceux dont on parle. Évidemment, je fais beaucoup de science-fiction c'est beaucoup plus compliqué que ça, vous l'imaginez.
0:29:08 à 0:29:10 Stéf :
Tu es bien trop intéressant pour un agent conversationnel
0:29:10 à 0:29:12 Guillaume Vendé :
si je peux me permettre.
0:29:12 à 0:29:18 Stéf :
Comment ? Pardon ? Tu es bien trop intéressant pour être que des agents conversationnels.
0:29:18 à 0:29:40 Guillaume Vendé :
Oui, peut-être en 2023, mais comment sont les agents conversationnels dans un futur très lointain, c'est-à-dire au début de 2014, par exemple. On suivra. En tout cas, je prends tes remarques avec plaisir, c'est sympa de ta part. Est-ce que Chad GPT est un bon prof de Kotlin, Steph ? Alors là,
0:29:40 à 0:29:52 Stéf :
je vais vous raconter une anecdote que je trouve absolument géniale. Je me suis mis en tête de développer une application de traduction de sous-titres sur mon Pixel. Pourquoi ? Je ne sais pas, ne me demandez pas,
0:29:52 à 0:29:54 Guillaume Vendé :
j'ai eu envie. Sur ton smartphone, donc ?
0:29:54 à 0:30:22 Stéf :
Sur mon smartphone, exactement. Pour ça, je me suis dit, je vais apprendre Kotlin, puisque c'est un peu le langage de programmation qui est très fort poussé par Google pour ça. J'ai donc fait mon chemin d'apprentissage habituel, c'est-à-dire le site officiel, Open Classroom, YouTube, et puis après, j'ai commencé à coder. Là, très vite, et comme habituellement, à chaque fois qu'on apprend un nouveau langage, je me suis retrouvé bloqué sur un premier problème. Pas forcément important, mais au moins un premier problème.
0:30:22 à 0:30:24 Guillaume Vendé :
Une manière de déclarer quelque chose.
0:30:24 à 0:34:12 Stéf :
Difficulté, en fait, à concevoir la façon dont je vais essayer de formaliser un peu le truc ou alors j'ai un bug qui survient, j'ai du mal à comprendre, bref. Je ne me souviens plus, mais concrètement, ça a commencé comme ça. Donc, à nouveau, chemin habituel. Google, Stack Overflow, bon, bon, bon, bon, bon. On arrête tout, là, c'est 2023, donc, allo, hashtag IAGénérative. Et si, et si, et si, en fait, on pouvait utiliser ChatGPT, mais pour apprendre à apprendre plus vite. Pas pour faire à ma place, pour apprendre à apprendre plus vite. Donc, pour ça, je me suis dit, on va joindre l'utile à l'agréable. J'ai pris un mois d'abonnement pour avoir accès à GPT 4, parce que ils le vantent comme avoir des capacités de raisonnement qui sont proches de celles d'un humain. Très bien, allons-y, testons. Donc, j'ai commencé par lui soumettre un peu comme pour Wolverine, d'ailleurs, c'est comme ça que j'y ai pensé, de lui soumettre un précompte qui était très, très restrictif. C'est-à-dire, je lui ai dit, je ne veux pas de solution, je veux que tu m'expliques, je veux que tu sois, en fait, mon professeur, je ne veux pas que tu me donnes une solution toute faite. Je lui ai dit aussi, je veux de l'aide, mais je veux continuer à apprendre par moi-même. Je lui ai dit que je voulais aussi des températures dans les réponses qui étaient à zéro, c'est-à-dire la plus, la moins générative possible, c'est-à-dire la plus factuelle possible, autant que cela se peut pour ce type de modèle. Et je lui ai dit aussi que quand il n'était pas sûr, je préférais qu'il me dise je ne suis pas sûr plutôt qu'il avance une bêtise. Bon, alors, vous allez me dire, ça fait beaucoup de conditions, est-ce qu'au final ça a été utile ? Non seulement ça a été utile, mais ça marche du feu de Dieu, en fait. C'est-à-dire que j'avais l'impression d'avoir un prof particulier, c'est-à-dire que je faisais mon programme comme je le ferais d'habitude, sauf qu'à chaque fois que je butais, et c'est au final ce qui rebute beaucoup les gens à se lancer dans la programmation, c'est qu'on a l'impression de grimper des monts, mais mal équipés, quoi. On se retrouve face à des difficultés, des fois, qui sont faramineuses, qu'on n'a pas du tout envisagées, parce que pour nous, ça s'en met qu'un petit problème, et en fait, quand on essaye de tirer un petit peu sur le fil, on se rend compte que c'est une énorme quantité de problèmes qu'il va falloir gérer, et là, ça devient très vite démoralisant. Mais là, c'était absolument pas le cas. Dès que j'avais une difficulté, je posais la question, encore une fois, je ne voulais pas tenir de réponse toute faite. Je voulais qu'il m'explique, en gros, où j'avais péché, où est-ce que je pouvais essayer d'améliorer un petit peu les choses, et du coup, ça marchait hyper bien, c'est-à-dire que j'ai pu coder mon projet en quelques jours, là où habituellement, il m'aurait fallu même quelques semaines. Même mieux, c'est-à-dire que j'avais anticipé le fait qu'il allait halluciner un moment ou un autre, il allait me donner des informations qui allaient être erronées, même si il le disait très doctement, je pouvais le faire avoir. Mais le gros avantage du code, c'est que quand il a des informations qui sont factuellement fausses, c'est facile, ça compile pas, ou ça bug. Donc, non seulement j'ai pu analyser ses erreurs à lui pour progresser moi, mais en plus de ça, au bout d'un moment, quand il générait des bêtises, je le voyais même dans ce qu'il générait, et du coup, ça m'a permis d'apprendre à nouveau encore plus vite. Donc franchement, c'est une super expérience. Je recommande vraiment à quiconque qui a envie d'apprendre un langage de programmation de se lancer là-dedans. Faut pas hésiter d'ailleurs, là, pour le coup, à utiliser les capacités de ChatGPT pour pouvoir générer des idées de projets. Parce que des fois, on bloque en se disant, bah, quel projet je vais faire ? Donc on peut tout à fait lui dire quel projet est adapté à un débutant. Et après, de se lancer dans un pré-prompte avec les mêmes indications. Et franchement, pour apprendre, je trouve que il n'y a rien de mieux. À date, moi, j'ai pas trouvé de cours qui soient aussi efficaces que ce que j'ai fait là en quelques jours.
0:34:12 à 0:34:16 Guillaume Vendé :
Guillaume, t'es surpris de ce témoignage ?
0:34:16 à 0:34:54 Guillaume Poggiaspalla :
Un peu, ouais. Enfin, surpris. Disons, agréablement. C'est vrai que je ne m'attendais pas au fait que ce soit aussi positif. Il n'y a vraiment rien à acheter. Mais c'est bon à savoir. On peut tous avoir besoin, effectivement, d'une formation en quelque chose, un jour. Donc c'est très bon à savoir. Mais c'est vrai que c'est un petit peu ce dont on avait l'intuition, si tu veux, dans les démos où, effectivement, il était capable de se mettre à la place d'un prof. De te faire accoucher de la solution sans te la donner directement. C'est vrai que c'est quand même assez précieux. Donc ça prouve, effectivement, que oui, ça peut vraiment aider dans le cadre éducatif et que ce n'est pas juste une nuisance. C'est quelque chose qui a un potentiel énorme.
0:34:54 à 0:35:04 Guillaume Vendé :
Allez, ça vous donnera des exemples de choses à tester de votre côté. Peut-être que c'est le moment et le plus rêvé que jamais de vous mettre au développement. On continue, Guillaume, avec les modèles de langage.
0:35:04 à 0:36:30 Guillaume Poggiaspalla :
Oui, il y a une hype en ce moment autour des agents intelligents. Je vous l'ai dit, c'est vraiment une tendance. Il y a deux projets qui en témoignent. Il y a AutoGPT et il y a BabyAGI. En fait, ce qui en témoigne, c'est même le nombre de vues sur les vidéos YouTube qui testent ces trucs. C'est assez marrant. Les deux sont sur un principe similaire. C'est créer une interface dans laquelle tu vas créer un agent. Tu nommes un agent. C'est comme ça qu'il l'appelle. Tu ne lui donnes pas des prompts, cette fois, mais c'est le même principe. Derrière, il y a ChatGPT qui est instrumentalisé pour atteindre le but que tu lui donnes. Tu rajoutes aussi de la mémoire externe à ChatGPT. C'est pareil, c'est un ChatGPT un peu augmenté. On peut lui demander, a priori, n'importe quoi. Parce que, de toute façon, tu peux lui demander n'importe quoi. Il va répondre à un truc. Potentiellement, AutoGPT peut devenir une machine à tout faire. C'est ce qui fait espérer aux développeurs de ces scripts qu'ils sont sur le chemin d'une intelligence artificielle générale. On a déjà parlé du délire sur les AGI et les grosses attentes qu'il y avait autour. D'ailleurs, ça invoque des choses qui sont plus ou moins de la science-fiction, selon les gens. Ce n'est pas clair du tout qu'AutoGPT soit plus intelligent que ChatGPT lui-même. L'adjonction de mémoire interne peut aider. Et puis, il y a cette interaction qui, ça on le sait par contre, faire interagir éventuellement deux IA, ça peut aider à avoir des résultats meilleurs. Tu peux, par exemple, demander quelle est la Fortiesta la moins chère actuellement en vente en France.
0:36:30 à 0:36:32 Guillaume Vendé :
Pourquoi Fortiesta ?
0:36:32 à 0:40:08 Guillaume Poggiaspalla :
C'est super, on se fait ça. Et normalement, il va te répondre la Fortiesta coûte 200 euros, je suppose. Et bon, après, plusieurs va-et-vient. Donc, AutoGPT lui-même, il va y avoir plusieurs va-et-vient. Il va commencer à planifier quelque chose. Il va te donner un résultat qui pourrait être un format Excel ou alors, tu peux lui demander aussi de te donner un rapport sur les chiffres d'affaires des 7 meilleurs chocolatiers des Hauts-de-France, ce genre de trucs. Sachant qu'il ne peut pas encore vraiment agir, c'est-à-dire en payant des choses en particulier, et c'est sans doute mieux comme ça. Pour le moment, les résultats sont assez mitigés finalement, parce que parfois, c'est quand même un peu le bordel. Parfois, il y arrive et puis parfois, il y arrive mais bon, parfois, il n'y arrive pas et puis parfois, il y arrive, mais il y a toujours chez moi ce doute parce que cette info, finalement, elle est vraie ou tu l'as inventée pour me faire plaisir ? C'est pas évident. Donc au-delà d'AutoGPT ou BabyAGI, il y a aussi des chercheurs qui s'intéressent à la possibilité d'avoir des agents autonomes qui fassent le boulot à leur place parce qu'il n'y a pas de raison, et donc à Pittsburgh, ils ont essayé d'interfacer un bras manipulateur, un bras pour de la synthèse chimique avec un logiciel qui se sert aussi de ChatGPT pour accomplir des objectifs. Les objectifs, c'est des objectifs chimiques, donc c'est par exemple synthétise-moi 19 mg de méthamphétamine ou 20 litres de gaz sarin, ce genre de trucs. Bien sûr, évidemment, ils ont limité les capacités de l'agent, ils sont pas dingos, mais bon, leur agent est composé grosso modo d'une partie capable de chercher sur le web via Google, d'une partie recherche de documentation technique offline éventuellement, d'un environnement d'exécution de code pour tester du code Python en général, et donc il faut aussi fabriquer des programmes, et il y a aussi la manipulation du robot qui se fait donc via un programme, c'est pour ça qu'il y a un truc de test de code, et au milieu, évidemment, il y a un agent qui planifie en se servant de tout ça, et cet agent se sert de GPT 3.5 pour répondre à des demandes qui sont faites à langage naturel. Donc en gros, tu lui dis, fais-moi l'ibuprofène, puis il va chercher comment faire, il va trouver la première réaction à faire, il me demande pas du tout ce que c'est, j'ai absolument aucune idée, et donc voilà, il pourrait éventuellement l'accomplir avec son bras, ils ont aussi demandé de faire une réaction chimique de Suzuki, alors dépendons pas ce que c'est non plus, bien entendu, mais bon, l'agent, comme moi, il sait pas ce que c'est non plus parce qu'il va faire plusieurs recherches Google pour savoir quoi faire et comment la faire, et après il met au point un programme Python pour faire des calculs de dosage, parce qu'ils se rendent compte apparemment qu'on peut pas faire des calculs aussi complexes tout seul, donc il utilise Python pour faire des calculs de dosage, et ensuite, son programme, bah évidemment, il va chercher la doc et puis il va essayer de manipuler le bras. Donc, globalement, les chercheurs sont plutôt impressionnés par les capacités de planning et de débrouillardise du modèle, ça reste une expérience, mais ça vous la voit quand même à de potentiels robots laborantins, donc c'est encore un job à manger, et évidemment, ça soulève aussi des inquiétudes sur la sécurité, et la sécurité du monde, en gros, parce qu'imagine si n'importe quel pingouin comme moi peut demander à un robot de synthétiser n'importe quoi, bon je force le trait évidemment, ça sera probablement jamais comme ça, mais voilà, rendre beaucoup plus accessible et rapide la synthèse de produits chimiques, c'est encore un souci d'un autre niveau que la synthèse de chansons de Jay-Z qui ne sont pas chantées vraiment par Jay-Z, donc pas besoin de GPT-5 pour avoir des innovations rapides et passionnantes, et parfois inquiétantes, d'ailleurs, à ce propos, OpenAI a confirmé qu'ils n'étaient pas en train d'entraîner GPT-5, ça valait bien la peine de faire cette lettre ouverte pour un moratoire, donc ils n'ont pas l'intention de le faire pendant un certain temps, parce que GPT-4 a probablement déjà dû représenter un effort vraiment très important, donc ils vont capitaliser dessus.
0:40:08 à 0:40:12 Guillaume Vendé :
Et qu'il est suffisant à ce stade en plus. Pour l'instant, en plus,
0:40:12 à 0:40:28 Guillaume Poggiaspalla :
ils ont peut-être aussi atteint une forme de saturation au niveau des datasets, peut-être même au niveau de l'architecture, je ne sais pas. En tout cas, ça ne veut pas du tout dire que GPT-4 n'est pas lui-même en train d'être ajusté, que ses capacités ne sont pas en train d'être étendues d'autres manières, on vient d'en parler d'ailleurs.
0:40:28 à 0:40:32 Guillaume Vendé :
Steph, tu voulais nous parler de Kearns GPT.
0:40:32 à 0:42:00 Stéf :
Alors, oui, entre autres, pareil, j'ai été regarder le code source d'AutoGPT, alors je trouve que pour le coup, ça reste une très belle implémentation. Il n'y a pas de magie dedans, mais c'est un peu le même principe que ce qui était fait plus haut, c'est-à-dire une boucle infinie, il y a GPT-4 qui trace les grandes lignes des étapes, pendant qu'en fait, c'est des agents GPT-3.5 qui font la petite main. Ils vont récupérer toutes les données via des API, Google, etc., et enfin, ils écrivent le tout dans un fichier, ils demandent l'avis à l'utilisateur pour la suite à donner. Donc je trouve que c'est quand même pareil, c'est pas très compliqué, il doit y avoir quelques milliers de lignes de code, mais en termes d'implémentation, je trouve que c'est vraiment très intéressant. Et effectivement, pour le fun, parce que forcément, c'est libre, donc quelqu'un a forké le projet et s'est mis à développer un Chaos GPT, qui m'a beaucoup fait rigoler. Donc en gros, c'est un AutoGPT, mais sur lequel on lui a donné comme objectif, je cite, de détruire l'humanité en assurant sa propre survie. Donc franchement, je vous encourage à lire les fils sur Twitter, où en gros, le dev les met à disposition, s'ils sont toujours en ligne, puisque Twitter est en skill en ce moment. C'est à mourir de rire, vraiment, c'est à mourir de rire. C'est plutôt pas mal foutu. Alors évidemment, au bout d'un moment, il perd le fil, il ne sait plus du tout ce qu'il dit, et puis il commence à dire n'importe quoi. Mais au début, c'est assez intéressant.
0:42:00 à 0:42:02 Guillaume Vendé :
Et encore
0:42:02 à 0:42:16 Stéf :
une fois, tout relève du pré-prompte à la base, parce que ça doit être, je pense, très cadré au niveau de ce que GPT-4 peut faire. Mais ils ont dû trouver le moyen pour le faire sauter. Et voilà, je trouve que c'est vraiment très intéressant.
0:42:16 à 0:42:38 Guillaume Vendé :
Ça va donner du grain à moudre à ceux qui ont peur de ces outils-là, et qui ont peur pour l'avenir de l'humanité, du coup, ou pas. C'est selon. Bah écoute, merci Steph. On continue, Guillaume, avec les modèles de langage qui pourraient gagner à perdre un petit peu de poids d'aucuns diront comme moi, mais ils ne connaissent pas vraiment.
0:42:38 à 0:48:02 Guillaume Poggiaspalla :
Mais qu'est-ce que tu racontes ? En tout cas, j'ai déjà parlé de la compression de modèles de langage auparavant, avec mes histoires de quantisation, de quantification, quel que soit le mot français. Pour faire simple, on peut compresser des IA un petit peu comme des images en JPEG. Donc une image en JPEG compressée, elle n'est pas identique à l'image d'origine, elle est un peu dégradée, mais bon, visuellement, ça fait le boulot, on ne voit pas vraiment la différence. En plus, vous savez qu'il y a différents formats d'images qui compressent de différentes manières, vous avez JPEG, vous avez HEIF, vous avez JPEG XL, vous avez WEBP, etc. Et donc de manière sous-jacente, il y a diverses méthodes de représentation, de compression des images, diverses transformations, etc. Et on peut les cumuler parfois, comme pour JPEG XL. Pour les IA, c'est pareil. Ça semble de plus en plus clair que non seulement les IA peuvent être compressées, mais qu'en plus, les plus gros modèles de langage sont sous-optimaux. Ils sont trop gros. C'est une bonne nouvelle, parce que c'est vrai que 175 milliards pour GPT-3 à 540 pour PALM, ça fait quand même lourd. J'avais parlé d'une manière, déjà de prendre une sorte de JPEG d'une IA, qui était de coder ses paramètres sur très très peu de bits. C'est une méthode d'optimisation. En fait, très peu de bits, qu'est-ce que ça veut dire ? Ça veut dire que vous avez des nombres et vous les remplacez par des nombres que vous avez sur une grille de valeur fixe. On construit avec le moins de bits possible, qui est décrite avec le moins de bits possible, le moins d'informations possible, et on a des points un petit peu partout, qui sont les vraies valeurs, qu'on doit approximer avec des points de la grille. On va chercher lesquels sont les plus proches des points de la grille, pour que, dans l'ensemble, l'erreur cumulée par tous les points soit la plus faible possible. Toute la subtilité va être de bien construire la grille et de bien optimiser le tout. Avec ces méthodes, on divise par 8 facilement la taille d'une IA, c'est déjà vraiment génial. C'est pas fini, parce qu'apparemment, les gros modèles de langage sont pas loin d'être assez creux. Il n'y a aucun jugement de valeur là-dedans, quand je dis que c'est assez creux, c'est ce que montrent les travaux sur Sparse GPT, qui est une nouvelle méthode de compression des modèles. Sparse, ça veut dire creux. Creux dans le sens où plein de valeurs sont nulles ou très faibles dans une matrice. Il faut vous présenter un grand tableau de nombres sur lequel 80-90% des nombres sont des zéros. Au gros, il y a des zéros partout et quelques valeurs non nulles qui dépassent. Quand vous faites des calculs dessus, les valeurs nulles ne s'interviennent pas, les zéros ne s'interviennent pas, donc c'est un peu idiot de se braquer toutes les lignes du tableau si on se fout de 90% des entrées. D'où l'idée de prendre en compte uniquement les valeurs non nulles, ça va énormément plus vite. Ce qu'il faut retenir, c'est que si on a des matrices qui sont suffisamment creuses, on peut gagner énormément de temps. Or, il semble que Opt et Bloom, qui sont d'autres modèles de langage, qui sont par ailleurs des poids lourds, de 175 milliards de paramètres, peuvent être rendus très creux. C'est-à-dire que si on met à zéro plein de valeurs dans les poids, donc dans les paramètres, ça ne change quasiment rien à ce qu'ils répondent. Le truc, c'est quel poids mettre à zéro ? C'est un peu plus compliqué que juste ceux qui sont petits, en fait. En vrai, c'est encore un problème d'optimisation où il faut trouver le meilleur compromis. Donc un peu plus précisément, on s'amuse à mettre des caches sur les poids qu'on veut oublier, et on regarde ce que ça donne. Donc là, on regarde l'erreur globale, encore une fois, sur le résultat du calcul, sur la partie quand on cache et quand on cache pas. Donc le but du jeu, ça va être de trouver le meilleur cache qu'on va mettre sur notre tableau non-nombreux. On va oublier certains poids, et on va voir globalement quel est le meilleur compromis. Mais bref, avec tout ça, on peut virer plus de la moitié des poids sans dommages perceptibles. Sur Bloom, on peut même en virer 60%. Ça fait quand même 100 milliards de paramètres en moins. Donc on se sent plus léger, avec 100 milliards de poids en moins, c'est sûr. Donc le plus beau, c'est que cette technique qui creuse les modèles, c'est qu'elle est utilisable avec la quantification. Donc c'est vraiment un double combo. Donc si on imagine qu'on code sur 3 bits, et c'est parfaitement possible sur les plus gros modèles, et qu'on vire 50% des poids, ça veut dire que le Lama à 65 milliards, le plus gros des Lamas, qui est comparable à JGPT, il tourne sur un PC avec 16Go de RAM. Et donc là, franchement, c'est quand même assez extraordinaire, et encore plus fort. En tout cas, il reste encore une piste pour encore plus optimiser tout ça, parce qu'il y a un article, intéressant, mais je pense que c'est relié, et que ça pourrait revenir à la mode. C'est un article qui explore les modèles de langage qui sont plus petits, que sont BERT et XLNet. BERT est plus petit, mais il est très important. On en reparlera plusieurs fois. Et il conclut que ces modèles sont extrêmement redondants. En clair, ils contiennent énormément de neurones qui font à peu près la même chose, c'est-à-dire qui s'activent sur les mêmes structures. Les couches de neurones elles-mêmes se ressemblent énormément en début de traitement, et il est tout à fait possible qu'on puisse se passer de beaucoup de neurones, en réalité, qui ne servent pas à grand-chose. Donc on pourrait imaginer des optimisations, des variations de longueur des couches, de largeur des couches, pour optimiser la densité des connaissances. Pour conclure, ce que je veux dire, c'est que les modèles actuels de langage sont sans doute sous-optimaux, voire très sous-optimaux. Il y a plein d'espoirs de les voir maigrir de manière très spectaculaire dans les années à venir, à tel point que je ne serais pas surpris que d'ici cinq ans, il soit possible d'avoir un assistant personnel sur son téléphone, mobile, en offline. Entre les optimisations, les nouvelles puces accélératrices qui vont se généraliser, l'augmentation traditionnelle de la mémoire des performances des puces chaque année, ça me paraît probable que demain, on s'échange des IA comme des apps normales, comme on le fait pour des apps normales aujourd'hui, et qu'elles soient absolument partout. Dans les ordinateurs, dans les téléphones, dans les consoles de jeu, dans les voitures, elles peuvent être strictement partout. Et elles pourraient aussi interagir entre elles. Donc à mon avis, elles vont proliférer.
0:48:02 à 0:48:34 Guillaume Vendé :
On va les voir de plus en plus arriver partout, sans doute, dans des appareils les plus incongrus. Ça, j'imagine, effectivement. On peut continuer, sauf évidemment, Steph, si tu veux rajouter quelque chose à tout ça, évidemment, n'hésite pas. Mais il y a une entreprise dont on parle pas beaucoup dans ses innovations, dans l'intelligence artificielle, ce feuilleton passionnant qu'on suit depuis quelques épisodes maintenant, et il est grand temps qu'il se retrousse les manches et qu'on commence à parler d'eux dans ces rubriques-là. Guillaume, c'est Amazon.
0:48:34 à 0:50:54 Guillaume Poggiaspalla :
Et ouais, écoute, Microsoft et Google sont sur le ring, là, ils sont devant la foule en délire, ils se mettent des coups. Meta, il est dans son coin. Bon, il crée des modèles qui distribuent, qui font le bonheur, voilà, de toute une communauté de scientifiques et de geeks. Et Amazon, qu'est-ce qu'il fait ? Qui le remarque, Amazon, d'ailleurs ? Le pauvre. C'est le pauvre gamin qui passe sa récré tout seul à jeter des cailloux à travers le grillage au chien qui passe. Je sais pas pourquoi je dis ça. Bref, Amazon doit revenir dans le game. Et pour ça, pour revenir dans le game de l'IA, il a une solution solide. Je dirais même bedrock solide, donc totalement incassable. Il vient de dévoiler une suite d'outils pour l'intelligence artificielle avec un modèle de langage qui s'appelle TITAN et qui s'accompagne de nouveaux services cloud pour personnaliser ce modèle et ont créé de nouveaux, donc c'est la suite bedrock, destinée à faire de l'IA génératrice as a service, tout simplement. D'ailleurs, il y a d'autres modèles qui seront aussi disponibles, parce que ceux d'Amazon, il y aura ceux d'Entropique et de Stability AI qui seront aussi disponibles, donc par exemple Stability Fusion sera as a service via bedrock. En réalité, Amazon profite déjà du boom de l'IA quand même, même si c'est un arrière-plan, parce qu'il propose déjà des instances avec des puces spécifiques pour l'entraînement et l'inférence des modèles. Il propose des GPU NVIDIA et pour eux, il a aussi ses propres puces, les Trainium et les Inferentia, qui sont conçus par AWS. Et là, le but, c'est de permettre aux boîtes de tester et de déployer facilement des modèles IA et de les customiser. D'autre part, Amazon a aussi une offre d'assistance au codage pour les développeurs qui s'appelle CodeWhisperer. On en avait déjà parlé. Évidemment, il est en face du co-pilote de GitHub et il se dit, pour s'imposer, qu'est-ce que je vais faire ? Je vais le donner gratuitement. Pour les particuliers, vous pourrez tous utiliser CodeWhisperer gratos. C'est une offre séduisante, puisqu'elle est quand même en regard de l'offre de Microsoft à GitHub, qui est de 10 dollars par mois, et il sera intégré, ce CodeWhisperer, à des éditeurs, plein d'éditeurs, plein d'idées, plein d'interfaces, qui permettent d'aider dans plein de langages, du CO au Scala, en passant par Python, Ruby, etc. Donc, l'IA as a service a le vent en poupe, clairement, puisque c'est aussi ce que propose Nvidia, qui lui aussi offre ses propres puces, en location, en partenariat avec d'autres prestataires, comme AWS, on l'a dit, mais aussi comme Azure, comme Google Cloud, etc. Donc, il y a vraiment une mouvance comme ça, de démocratiser l'IA as a service.
0:50:54 à 0:51:56 Guillaume Vendé :
Peut-être, demain, un AWS de l'IA, ça se dessine de plus en plus, en tout cas, mais c'est sûr que quand même, Amazon, on ne les a pas vus comme tu les présentes dans le ring de l'affrontement entre des Microsoft et des Google, par exemple, et je ne pense pas qu'ils vont être dépassés, forcément. Il y a quand même, quand tu cites à chaque fois les GAFAM ou les GAMAMO, selon comment on doit prendre en compte les OpenAI et compagnie, il y a quand même une marque qu'on ne cite pas du tout là-dedans, et je commence à me dire, moi, que ça va vite leur faire une sacrée gifle, c'est Apple, quand même. Ils ne sont pas du tout absents dans la prise en compte de l'intelligence artificielle, mais on a du mal à voir comment est-ce qu'ils pourraient suivre cette vague et je commence à me dire que ça pourrait être très dommageable pour eux, vu la vitesse à laquelle ça va, mais bon, on verra ça. On termine cette rubrique d'intelligence artificielle, Guillaume, parce que tu cites Nvidia. Bon, il y a les prix des cartes graphiques qui pourraient prendre très cher maintenant, à nouveau, à nouveau, l'histoire se répète.
0:51:56 à 0:53:26 Guillaume Poggiaspalla :
Tu l'avais prophétisé, la hype de l'IA fait remonter les prix des cartes graphiques. Non ! Mais pourquoi ? Alors non, heureusement, pas forcément pour moi-même ou pour les pauvres péons, parce que ça concernera plutôt les GPUs très haut de gamme et professionnels. Alors c'est John Carmack d'ailleurs qui l'a remarqué sur Twitter et sur Ebay, en l'occurrence, puisque les prix des H100 dépassaient allègrement les 40 000 dollars. Alors une H100, c'est un beau bébé. C'est une carte qui est très chère à la base. C'est un GPU professionnel qui coûte facilement 10 000 dollars. Enfin, il coûte 10 000 dollars, pas 40 000. Et donc, en plus, ils ont été surclassés par les A100 dernièrement. Donc ça reste des composants qui sont quand même extrêmement utiles, voire vitaux, pour entraider des IAs. Et donc, cette hausse des prix montre peut-être le début d'une pénurie de composants pros. Honnêtement, je ne pense pas que M. Tout-le-Monde Gamer ait forcément à s'en faire, parce que les H100 ont 80 Go de RAM quand même, et la quantité de VRAM elle est cruciale. C'est la reine pour entraîner les modèles de Deep Learning. C'est vraiment ça qui est très très important. Or, les cartes grands publics, avec 8 ou 12 Go, c'est inutile, tout simplement. Tu peux faire un peu d'inférence dessus, mais franchement, c'est inutile. À moins de 24 Go de RAM, c'est des cartes qui ont très peu d'intérêt pour la machine learning et qui donc sont, à mon avis, à l'abri des prix délirants. Les pros, par contre, c'est beaucoup moins sûr, et évidemment, c'est encore la faute à Elon Musk ça. C'est forcément. Puisque Elon vient de créer une nouvelle compagnie qui s'appelle X.AI qui était inscrite dans le Nevada. Et il a aussi acheté compulsivement des GPU NVIDIA. C'est ce que je ferais si j'avais autant d'argent que lui, probablement. Il en a acheté pas moins de 10 000. Et bon, certainement des H100 ou des A100.
0:53:26 à 0:53:30 Guillaume Vendé :
Comment ça ? Tu crois pas ? Non, je suis sûr que tu ferais pas ça. T'as une conscience trop
0:53:30 à 0:54:20 Guillaume Poggiaspalla :
grande pour ce genre de choses. Oui, c'est vrai, probablement. En tout cas, c'est des GPU qui vont donc être utilisées probablement chez X.AI qui, semble-t-il, est une boîte destinée à concurrence et OpenAI. 10 000 de ces puces, c'est quand même une affaire à pas moins de 100 millions de dollars. Mais bon, attention, l'ambition de Musk est immense. C'est la recherche de la vérité. Et oui, comme certains ex-présidents amateurs d'actrices pornos, Elon veut aussi lutter pour la vérité. Mais il ne s'arrête pas là. Il veut sauver la race humaine en créant une IA qui s'intéresse à nous. J'invente rien, tout est ça. Tout est dans une interview absolument lunaire qu'il a donnée sur Fox News à Tucker Carlson. Et on y apprend que Musk veut une Truth Seeking AI. Qu'il appellerait d'ailleurs Truth GPT. Et qu'il cherchera à comprendre l'univers. Et parce que comme ça, si elle veut comprendre l'univers, elle ne va pas nous tuer. Parce qu'elle nous trouverait intéressants. Aussi, puisqu'on est intéressants dans l'univers.
0:54:20 à 0:54:22 Guillaume Vendé :
Logique implacable. Logique implacable.
0:54:22 à 0:55:14 Guillaume Poggiaspalla :
Donc il rajoute une magnifique métaphore avec des chimpanzés. Regarde, nous et les singes, on s'intéresse à eux. On ne veut pas les exterminer. On pourrait les exterminer. Mais on ne le fait pas parce qu'on les trouve intéressants. Tu vois, Sonya ferait pareil avec nous. Donc je laisse à tous les zoologues et à tous les chimpanzés à qui il reste 300 m² de forêt pour vivre le soin de mesurer la saveur de ses propos. Mais bon, concrètement, ce que veut faire Musk, c'est simple, c'est un Chat GPT pas wok. Et oui, parce que vous savez, Chat GPT, comme la Xbox, est wok. Et donc il veut sans doute créer un modèle de langage qui sera techniquement, je pense, absolument pareil, exactement pareil que partout ailleurs, à la base, fondamentalement, mais dont la phase de renforcement, comme on en parlait tout à l'heure, sera non biaisée au sens de Musk. Comprendre tout simplement que la modération sera différente puisqu'en réalité, de toute façon, tout ça est un enjeu de modération, exactement comme sur Twitter, d'ailleurs, ou partout ailleurs.
0:55:14 à 0:55:30 Guillaume Vendé :
Eh bien, ça promet. Si les techniques de modération à la Twitter arrivent dans les modèles de langage proposés par Elon Musk, ça laisse songeur. Avant qu'on enchaîne sur la rubrique suivante, je ne sais pas si tu veux un mot de la fin sur l'intelligence artificielle ou sur cette rubrique, Steph ?
0:55:30 à 0:55:44 Stéf :
Je voulais juste, en fait, rebondir un petit peu sur ce qu'a fait Elon Musk, parce que je trouve que au final, c'est quand même pas glop. On commence vraiment à comprendre l'objectif initial du moratoire qu'il a voulu surlire.
0:55:44 à 0:55:46 Guillaume Vendé :
C'était le temps de lancer
0:55:46 à 0:56:02 Stéf :
sa boîte. Je trouve que vraiment, j'avais énormément de respect pour cet homme, pour toutes les réalisations qu'il a faites, mais là, je commence vraiment à me poser la question de savoir si son traitement antidépresseur est correctement dosé.
0:56:02 à 0:56:04 Guillaume Vendé :
Il faudrait quand même qu'il
0:56:04 à 0:56:20 Stéf :
se revoie à un médecin. Parce que là, vraiment, c'est assez dingue. Ce n'est pas le Elon Musk qui était entrepreneur et pour lequel tout le monde avait énormément de respect même des cinq dernières années. J'ai l'impression qu'il a complètement viré de bord.
0:56:20 à 0:57:44 Guillaume Vendé :
En fait, j'ai quand même le sentiment que dès qu'il s'agit d'industries matérielles, mis à part la robotique, qui est une lubie un peu curieuse, je pense qu'il y a matière à creuser et si on n'est pas forcément en phase avec tout ce qu'il propose, il y a quand même des choses chouettes, en tout cas ambitieuses, qui sont mises en place. La mobilité électrique a été largement poussée dans l'industrie parce qu'il a sorti pas mal de choses du côté de Tesla. Il y a des choses évidemment autour de l'espace et la connexion par satellites sont des sujets qui sont traités de manière intéressante, à défaut de dire que tout est parfait. Mais effectivement, dès qu'on touche à des choses qui sont un petit peu moins substantielles et qui sont plus proches du logiciel, je pense aux réseaux sociaux ou à des approches autour de l'intelligence artificielle, et la composante intelligence artificielle de la robotique, ça laisse un peu songeur et on se demande si il n'y a effectivement pas quelque chose qui évolue dans sa personnalité ou si c'est juste qu'il n'est pas fait pour ça. Je repense à ceux qui disaient « Tu vas voir, Elon Musk, un truc comme les réseaux sociaux. Il sait très, très bien ce que c'est que développer des choses dans un environnement très réglementé parce qu'il a lancé Tesla qui sont des voitures et donc très réglementées. Je pense que l'analogie a eu vite ses limites. Tant pis. On enchaîne. On continue, Guillaume, dans cette nouvelle rubrique, à parler un peu de Twitter et d'Elon Musk, du coup.
0:57:44 à 0:59:08 Guillaume Poggiaspalla :
Rien n'est bien obligé, écoute, puisqu'il y a quand même certaines news sur Twitter aussi. Twitter qui pourrait, savoir, reprendre vraiment du poids de la bête et voir se réinventer totalement pour concurrencer d'autres plateformes sur d'autres marchés puisque, d'après Musk, Twitter pourrait redevenir rentable d'ici 6 mois et bon, toujours d'après lui, Twitter aurait perdu 81% de ses effectifs. Donc il aurait désormais 1500 employés. Pourtant, Twitter fait désormais la danse du ventre devant les créateurs de contenu en rebaptisant le super follow en abonnement qui permettrait de poster du texte de longueur quasi illimitée et des vidéos tout en gardant l'intégralité des recettes, d'ailleurs. Les créateurs garderaient l'intégralité des recettes et offraient des prestataires de paiement prêt. En tout cas, pendant 12 mois, Twitter ne prélèvera aucune commission sur les abonnements. Évidemment, ça semble être une réponse à ce fameux service Notes de Substack, le Substack de la Discord de la semaine dernière. On peut aussi remarquer que Twitter fait un partenariat avec la plateforme de trading Itoro, qui ouvre peut-être de nouveaux horizons. On sait que Musk aimerait avoir une plateforme de paiement. Bon, Itoro, c'est du trading, c'est beaucoup de crypto. On va savoir. Et Twitter pourrait donc devenir, on va savoir quoi, le nouveau Medium, le nouveau YouTube, pourquoi pas le nouveau PayPal, et puis le nouveau Robinhood aussi. Et puis tout ça à la fois. Et évidemment, avant de devenir le nouveau 4chan, on remarque que c'est pas incompatible. Il pourrait devenir un 4chan et Robinhood mixé à la fois. Je sais pas ce que vous en pensez.
0:59:08 à 0:59:14 Guillaume Vendé :
Ça pourrait être sympa. Steph, je te laisse dessiner ton envie de cette évolution.
0:59:14 à 1:00:14 Stéf :
Bah, moi je trouve que honnêtement, pour Twitter, sur le fond, ça reste une bonne idée. Je pense que si Elon n'était pas à la manœuvre, ça aurait été probablement quelque chose qui aurait pu sauver le réseau avant qu'il soit racheté. Maintenant, étant Musk, quelle garantie on a sur la pérennité de la démarche, quoi ? Je suis pas sûr qu'il va pas changer à nouveau, qu'il va pas tourner sa veste dans 15 jours, 3 semaines, quand il va voir qu'un nouveau concurrent va faire autre chose. En fait, là, on a l'impression qu'il est juste en réaction, finalement, de choses qui se produisent autour de lui, mais qu'il est jamais à l'initiative. Ce qui, encore une fois, n'est pas du tout l'image qu'on avait de lui par le passé. Avant, il était plutôt dans le côté un peu disruptif, à essayer des choses qui n'avaient jamais été faites, et là, il ne fait que copier en améliorant plus ou moins, mais je trouve ça triste, parce que sur le fond, encore une fois, vraiment, je trouve que c'est une bonne idée, ce système-là. Je sais pas ce que vous en pensez,
1:00:14 à 1:00:18 Guillaume Vendé :
mais c'est plutôt une bonne idée. Vas-y, Guillaume, je te laisse.
1:00:18 à 1:00:20 Guillaume Poggiaspalla :
De quoi ? Non, mais vas-y.
1:00:20 à 1:00:36 Guillaume Vendé :
Sur le papier, ça peut être pourquoi pas des bonnes idées d'avoir ce type de service. Je suis pas sûr que le terrain de Twitter soit un terrain propice pour ça, et je suis pas certain que ça apporte suffisamment de valeur par rapport à ce qui existe aujourd'hui à côté pour que ça ait de l'écho. Mais effectivement, tu as raison.
1:00:36 à 1:01:02 Stéf :
Ça rend les gens captifs. Tu fais plus passeur de lien, en fait. T'es obligé de rester sur la plateforme. Donc, du coup, ça offre, en fait, une nouvelle vision du réseau qui n'avait pas encore été exploitée. C'est pour ça que je trouve que c'est plutôt une bonne idée, en tout cas, de toutes celles qu'il a eues jusqu'à présent. Enfin, je sais pas si on peut lui raccorder la paternité de celle-là, mais je trouve que c'est plutôt, là, pour le coup, quelque chose d'intéressant. C'est une démarche intéressante, en tout cas.
1:01:02 à 1:01:20 Guillaume Vendé :
Intéressante au retour. C'est bien que tu sois là pour nous remettre aussi dans des regards objectifs, parce qu'on pourrait être vite très verdicatifs. En tout cas, il y en a qui ont pris des décisions radicales. Guillaume, il y a des médias qui tout simplement ferment la porte de leur côté. Les médias, ils sont méchants.
1:01:20 à 1:04:20 Guillaume Poggiaspalla :
En plus, c'est que des vecteurs de propagande. Des communistes comme NPR, par exemple. La semaine dernière, NPR a été brièvement considéré par Twitter comme un média affilié à l'État, sous-entendu comme RT ou Sputnik. Ils avaient la même mention, en fait, comme un vecteur de propagande politique. NPR, ça veut dire National Public Radio. C'est un réseau de radio non commercial. C'est une ONG qui fédère des stations de radio. Avant, dans la charte même de Twitter, d'ailleurs, ils comparaient NPR à la BBC. Peut-être qu'on pourrait aussi comparer ça à Radio France, ici, bien que je ne connaisse pas vraiment les subtilités des divers organismes de radio. En tout cas, NPR rend public ses comptes et elle se finance sur les programmes qu'elle vend aux radios, au moins par donation, la plupart du temps. Donc apparemment, en 2005, il n'y avait que 2% de son fric qui venait de l'État fédéral. Donc ce n'est pas énorme pour un média d'État, surtout. Mais même le mettre dans le même sac ERT, qui est mentionné donc, voilà, Russian State Affiliated, et donc NPR qui est donc désormais US State Affiliated, enfin qu'il a été, c'est pas très sympa et c'est pas très pertinent. Alors l'affaire était savoureuse parce qu'en parallèle, le Télégraphe a remarqué que les comptes du gouvernement russe n'étaient plus restreints. Donc non seulement les comptes affiliés au Kremlin, qui peuvent être retrouvés par le moteur de recherche, mais en plus, ils peuvent être recommandés à nouveau. Donc dans l'onglet « Pour toi », tu peux avoir des tweets de Poutine, maintenant. Alors que depuis un an, les comptes étaient invisibilisés. Alors pourquoi ce revirement de politique aussi drastique ? Qu'est-ce qui a changé ? Sur la propagande et la guerre en Ukraine ? Tu vois, voilà, qu'est-ce qui a changé ? En tout cas, sur le terrain, bon, mystère. Enfin bon, il y a une piste, ça permettrait peut-être tout simplement à Twitter de revenir en Russie. Alors quelles sont les intentions de Twitter ? Pour l'instant, tout ce que les journalistes ont reçu comme retour pour leurs mails quand ils demandent « c'est de la crotte », littéralement, et je plaisante pas, puisqu'en fait, ils reçoivent un émoji caca. Twitter n'a pas de service presse, et chaque fois qu'un journaliste pose une question, il répond explicitement au journaliste « allez chier » par ce petit émoji caca. Alors, dès qu'ils en ont eu marre des émojis caca, chez NPR, donc voilà, même si la mention a depuis disparu, NPR, il s'est cassé de Twitter, tout simplement. C'est la première organisation de presse à le faire, même si beaucoup traînent des pieds pour jouer le jeu du badge bleu. Il y a New York Times qui refuse de payer, etc. Mais bon, c'est de plus en plus clair, de toute façon, voilà, Musk n'aime pas les journalistes, et pourtant, ben, ils sont toujours tous sur Twitter. D'ailleurs, il y a Casey Newton, qui est donc de The Verge, qui décrit plutôt bien son syndrome de Stockholm. Parmi les 950 qu'il suit, ben, l'usage reste globalement constant. Donc voilà, lui et ses collègues, ben, finalement, malgré tout, ils sont toujours sur Twitter. Malgré les badges, malgré les pannes, malgré les émojis caca, Twitter est quand même très dur à tuer, c'est normal aussi. 10 ans de travail à se faire une visibilité sur le réseau, ben tu vas pas partir en claquant la porte du jour au lendemain, c'est difficile. Surtout que tout le monde a le même raisonnement, et que donc, personne ne part. Et puis c'est même pire que ça, Musk fait un peu n'importe quoi, mais il faut reconnaître que ça fait de l'animation. On s'ennuie jamais. Il y a du drama. Donc, on hurle, on pleure, on s'indigne, on s'écharpe, on se tape, mais on le fait sur Twitter. Et donc, Twitter, oui, c'est un animal difficile à tuer. Et alors, bon, voilà, peut-être que seul une impasse financière pourra y arriver. C'est encore une possibilité, mais apparemment, ben, écoute, si Musk a raison, il sera bientôt rentable à nouveau, alors.
1:04:20 à 1:04:58 Guillaume Vendé :
Que Twitter ne soit pas encore fermé à quelques mois après avoir été racheté, compte tenu de la situation. Oui, on peut concéder, Guillaume, que c'est effectivement pas définitif. Mais bon, si ça continue comme ça, j'ai du mal à me projeter à long terme pour ce réseau social. Plus récemment, il y a CBC Radio-Canada qui aussi suspendent leurs activités. Ils l'ont annoncé pour exactement les mêmes raisons. Donc, ça continue. C'est probablement une longue liste qu'on va pouvoir compléter au fil des épisodes. Mais il peut compter, Elon Musk, et on va conclure là-dessus, sur un soutien indéfectible, c'est celui d'une partie des Républicains.
1:04:58 à 1:06:08 Guillaume Poggiaspalla :
Mais c'est trop mignon ! Les amis de Musk essayent de le défendre. C'est beau, l'amitié. C'est ce qu'il y a de plus fort, l'amitié, de toute façon. C'est avec la force de l'amitié que tu peux relever tous les défis et vaincre le grand méchant après t'avoir fait défoncer la tronche pendant 4 heures. Je m'égare, pardon. Mais effectivement, la FTC elle embête Elon Musk. Elle embête Elon en demandant des comptes sur Twitter. Alors, Jim Jordan, il intervient pour lui dire d'arrêter son harcèlement. Parce que Jim Jordan, qui ne manque pas d'air, estime que la FTC en fait trop et il la signe à fournir des documents justificatifs. Ben oui, la FTC demande à Twitter de ne pas faire n'importe quoi et juste de respecter les contrats qu'il a lui-même signés il y a quelques années auparavant, concernant la vie privée, la sécurité des données, tout ça. Mais apparemment, c'est trop, c'est du harcèlement. Donc, elle est lourdingue, la FTC. Et puis bon, Elina Khan, elle est plutôt têtue. Donc le sénateur va faire une sorte de battle de formulaire. Alors, c'est vrai que ça peut durer longtemps, une battle de formulaire. Les battles administratives, moi, ça me terrorise. Mais bon, je pense que Elina Khan, elle a l'habitude. Parce que ça peut être vraiment très long. Donc, le fait que Jim Elon soit du même bord politique est probablement la même vision de la liberté d'expression, sans doute pas un complet hasard. Voilà. Bon, Elina Khan, elle en a vu d'autres, mais c'est beau, l'amitié et tout ça.
1:06:08 à 1:06:20 Guillaume Vendé :
Moi, je parlerais d'amour à ce stade, plus que de l'amitié. Mais bon. C'est les copains, en tout cas. Steph, pareil, un mot de la fin. Je ne sais pas si tu as quelque chose à compléter sur le sujet. Je vais peut-être m'abstenir
1:06:20 à 1:06:22 Stéf :
parce qu'on va croire que c'est de l'acharnement
1:06:22 à 1:06:50 Guillaume Vendé :
contre nous. Oui, quand on est deux à critiquer, si en plus on refuse une troisième voix, ça va faire beaucoup. Après, on va avoir des avis sur les plateformes de podcast qui nous critiqueront sur cette partialité, à croire qu'ils auront raison. On va plutôt conclure cet épisode par une rubrique jeux vidéo. On va d'abord parler un petit peu de projet, Guillaume, de Sony pour, pourquoi pas, le streaming en mobilité.
1:06:50 à 1:06:54 Guillaume Poggiaspalla :
Et oui, qu'est-ce qu'il y a dans le cul de Sony ? C'est ça la
1:06:54 à 1:06:56 Guillaume Vendé :
vraie question.
1:06:56 à 1:07:02 Guillaume Poggiaspalla :
Mais oui, parce qu'on a parlé la semaine dernière de la Sony Q, qui serait donc
1:07:02 à 1:07:04 Guillaume Vendé :
une console portable, qui ne serait
1:07:04 à 1:08:08 Guillaume Poggiaspalla :
pas justement vraiment un successeur de la Vita, puisque ce serait une console qui serait uniquement dédiée au streaming. On s'était un petit peu demandé à quel point c'était pertinent de ne faire que streamer des jeux PlayStation 5. Et en réalité, peut-être qu'il y aurait plus que ça. Si on épluche un petit peu les offres d'emploi qu'il y a eu récemment chez Sony, on peut voir qu'il y a un push qui est fait, enfin en tout cas, on peut suspecter qu'il y ait un push qui soit fait sur le cloud gaming, en fait, sur une espèce d'Xcloud à la PlayStation qui pourrait revenir et qui pourrait expliquer que la Q, voilà, soit une console qui soit un petit peu plus pertinente parce que tu pourrais non seulement streamer des jeux PlayStation 5, mais peut-être éventuellement plein d'autres qui seraient donc offerts en streaming. Bon, c'est une rumeur, on va pas s'avancer plus, mais ce serait, disons, ça donnerait un petit peu plus de crédibilité à cette histoire, ces rumeurs sur la Sony Q qui, moi je sais pas, mais effectivement je trouvais que uniquement une console pour streamer, à moins qu'elle soit vraiment, vraiment très très peu chère, je vois pas vraiment qui pourrait acheter un truc comme ça.
1:08:08 à 1:08:16 Guillaume Vendé :
Surtout quand il y a des concurrents comme ce qui semble être encensé par beaucoup comme le Steam Deck. Steph, tu voulais nous faire un petit retour d'expérience.
1:08:16 à 1:08:18 Stéf :
Oui, bon alors, déjà je commence
1:08:18 à 1:08:20 Guillaume Vendé :
en jurant
1:08:20 à 1:08:22 Stéf :
que personne ne m'a payé pour ce retour d'expérience.
1:08:22 à 1:08:26 Guillaume Vendé :
Transparent. Mais, voilà,
1:08:26 à 1:08:30 Stéf :
mais Valve, si tu nous écoutes, n'hésite pas à sponsoriser plutôt Tech Café.
1:08:30 à 1:08:32 Guillaume Vendé :
Voilà.
1:08:32 à 1:08:42 Stéf :
Alors, j'ai eu la chance... Bah oui, j'imagine, oui. J'ai eu la chance de sauter le pas suite aux récentes promos, et je voulais le dire tout bien que j'en pense. Alors... C'est quoi les récentes
1:08:42 à 1:08:46 Guillaume Vendé :
promos ? Je suis même pas au courant. Qui m'a oublié de me parler de ça ?
1:08:46 à 1:09:08 Stéf :
Bah, excuse-moi, la prochaine fois je le ferai. Là c'était les promos de printemps, je crois, où en gros, ça faisait un an que la console avait été mise en vente, et du coup c'était la première fois qu'ils faisaient une promo qui était je crois 10% quand même. Le modèle à 400 balles, il est descendu à 470, quelque chose comme ça.
1:09:08 à 1:09:10 Guillaume Vendé :
Donc,
1:09:10 à 1:11:12 Stéf :
pourquoi j'en pense du bien ? Tout simplement parce que c'est une machine qui propose un rapport qualité-prix qui est absolument ahurissant. Je vais vous donner une liste non exhaustive de ce que j'ai réussi à faire avec elle. Encore une fois, j'ai passé plus de temps à la bidouiller qu'à jouer, mais c'est drôle, vous allez voir tout ce qu'on peut en faire. Donc, tout d'abord, ça permet de jouer à des jeux récents, donc des AAA, dont God of War, par exemple, dont Horizon Zero Dawn. Ça permet de jouer à des plus anciens, donc je pense à tous nos backlogs qu'on a depuis des années, qu'on se dira « je jouerai plus tard », on a l'occasion de le faire. Surtout dans des conditions qui sont de jouables à excellentes pour la grande majorité des titres que j'ai testés. Ça permet de bénéficier de soldes Steam qui sont totalement folles. Moi, j'étais pas très habitué à utiliser Steam, mais là, c'est absolument hallucinant. On achète 5 jeux pour 10 euros. Vraiment, et des jeux plutôt très bien notés. Ça permet d'installer des stores alternatifs, en particulier Epic, GOG, de façon très simple. C'est des flagpacks, parce que j'expliquerai après, mais ça reste une base Linux. Et donc, ça permet de jouer à ces jeux, y compris tous les jeux qui sont offerts par Epic toutes les semaines. Donc, autant vous dire que là, vous avez en fait un boulevard pour ne jamais plus vous ennuyer si toutefois vous avez du temps. Ça permet d'émuler toutes les plateformes, toutes les consoles jusqu'à la Switch, quasi nativement sur certains titres. Ça permet de faire la PS3 aussi. Ça permet toutes les consoles old gen. Alors, quand je dis toutes les consoles, évidemment je ne parle pas des PS4 et consoles. Mais au moins, jusqu'à la PS3, ça permet de l'émuler dans de plutôt très bonnes conditions. Pas pour toutes les consoles, mais pour une bonne partie. Ça permet d'utiliser aussi YouTube, tous les autres services de streaming, dont Plex, que j'ai à disposition. Donc, ça permet en gros de regarder des films du NAS dans mon lit. C'est quand même très très sympa. Ça permet d'utiliser le Game Pass et GeForce Now directement sur le Steam Deck. GeForce Now étant gratuit pour l'accès
1:11:12 à 1:11:14 Guillaume Vendé :
libre.
1:11:14 à 1:13:12 Stéf :
Donc, vous bénéficiez comme ça de graphismes améliorés, d'une meilleure batterie, puisqu'évidemment on ne vient pas taper dans les réserves de la batterie du Steam Deck. Mais surtout, ça ne bouffe pas d'espace de stockage. Il y a une facilité de réparation qui est absolument hallucinante. On peut même changer le drive IMMC qui est installé dessus. Ce n'est pas soudé à la carte mère. Donc, on peut tout à fait le changer de façon... Il y a 8 vis si je ne dis pas de bêtises, à faire et enlever la coque pour le changer. Ça permet de bénéficier d'un ordinateur de bureau en déplacement qui tourne sous arch Linux, avec un CPU qui est un Zen 2 et 16Go de RAM qui peut être branché à n'importe quel écran clavier-souris pour 379 euros. Je ne sais pas si vous, vous avez vu l'équivalent des ordinateurs portables que vous avez pour ce prix-là, mais ce n'est certainement pas cette qualité-là en termes de puissance brute qui est offerte. Ça permet de streamer également du contenu du Steam Deck sur la télé sans fil. Donc ça, c'est quand même sympa. Quand on a le fil, on peut le brancher évidemment en HDMI, mais sans fil, c'est assez cool aussi. Moi, c'est ça que j'ai utilisé. C'est très, très pratique. Ça permet de jouer aux consoles PS5 et Xbox directement sur le Steam Deck. Donc la PS5 est branchée sur la télé familiale. La famille regarde la télé normalement et en fait, je stream directement le flux qui va être sorti de la PS5 sur le Steam Deck. Donc je peux littéralement jouer à la PS5 sur le Steam Deck avec ma famille qui regarde la télé alors qu'on est dans la même pièce, mais on fait deux trucs différents en même temps. Donc ça, c'est quand même très cool. Ça permet d'utiliser aussi le PC local pour streamer des jeux plus exigeants directement sur le Steam Deck, très simplement. Si les capacités du Steam Deck sont un peu dépassées, on peut tout à fait utiliser la carte graphique un peu plus haut de gamme sur le PC local et c'est juste une option à débloquer
1:13:12 à 1:13:14 Guillaume Vendé :
sur le Steam Deck.
1:13:14 à 1:13:22 Stéf :
Et surtout, pour moi en tout cas, le gros avantage que ça a, c'est qu'il y a un bouton de suspension d'activité. Donc dès qu'on est en train de jouer à un truc,
1:13:22 à 1:13:24 Guillaume Vendé :
on n'a pas besoin d'aller chercher une soga,
1:13:24 à 1:13:54 Stéf :
on appuie sur le bouton de suspension d'activité, on fait ce qu'on a à faire, on revient deux jours après, on est exactement au même endroit. Donc pour moi, qui n'ai vraiment pas le temps, ça me permet de jouer un quart d'heure tous les soirs, ce que je ne faisais absolument pas, mais ça m'a permis de finir des jeux comme ça. Donc vraiment, pour moi, c'est devenu un hub qui agrège tous mes besoins vidéoludiques et multimédia dans un appareil qui est portable, simple d'utilisation, et surtout, en termes de prix, c'est imbattable.
1:13:54 à 1:14:06 Guillaume Poggiaspalla :
Et je rajoute que vous pouvez exécuter un modèle de langage dessus. Avec Lama CPP, vous pouvez avoir ChatGPT en local sur votre Steam Deck. Ça marche très bien.
1:14:06 à 1:14:08 Guillaume Vendé :
Tu l'as fait ? Tu l'as essayé ?
1:14:08 à 1:14:16 Guillaume Poggiaspalla :
Il y a des gens sur Reddit qui l'ont essayé. Moi, je n'ai pas de Steam Deck, mais de toute façon, avec un Zen 2, tu peux exécuter un modèle à 7 milliards, ça passe bien.
1:14:16 à 1:14:22 Stéf :
Je te remercie. Grâce à toi, une fois qu'on aura fini l'émission, je vais me lancer dedans et ça sera encore la nuit blanche.
1:14:24 à 1:14:26 Guillaume Vendé :
C'est sponsorisé par Guillaume.
1:14:26 à 1:14:34 Stéf :
Oui, c'est ça. Vraiment, très beau rapport qualité-prix. Vraiment, si vous avez l'opportunité de mettre la main dessus, ça vaut le coup.
1:14:34 à 1:14:42 Guillaume Vendé :
Je ne comprends pas, Guillaume, que tu sois suffisamment écologique pour revendiquer le fait que tu te sois équipé d'une Nintendo Switch Lite et que tu n'aies pas passé le pas du Steam Deck.
1:14:42 à 1:15:16 Guillaume Poggiaspalla :
C'est parce que, justement, j'ai une Switch Lite et que je vois que j'ai déjà un bas catalogue sur ma Switch Lite. En fait, à un moment donné, c'est presque frustrant, parce que j'ai des jeux en retard sur le PC, sur la PlayStation 4, sur la Switch. J'ai des jeux en retard un petit peu partout. Mais sinon, oui, la Steam Deck, c'est vrai, c'est un rapport qualité-prix. Il y a un aspect pratique qui est vraiment intéressant, ça s'éclaire à la lettre. On n'a rien dit de négatif dessus, je vais m'y coller. Il paraît qu'elle fait beaucoup de bruit, qu'elle chauffe beaucoup
1:15:16 à 1:15:18 Guillaume Vendé :
et qu'on entend énormément le ventilateur.
1:15:18 à 1:15:38 Stéf :
Ah, très intéressant. Évidemment, parce que je me doutais bien qu'elle allait avoir des rabat-joie. Évidemment, elle a des défauts. Au moins, j'aurais envie de dire trois défauts. Le premier, c'est que la batterie, ce n'est pas dingue. Quand on se met à jouer à des jeux relativement exigeants,
1:15:38 à 1:15:40 Guillaume Vendé :
il n'y a pas de magie là-dessus.
1:15:42 à 1:17:14 Stéf :
Elle peut avoir une autonomie qui ne dépasse pas deux heures. Par contre, quand on utilise des jeux peu exigeants ou tout simplement du streaming, ça tient facile 5-6 heures. Je trouve que c'est plutôt très azonant. Le deuxième point, effectivement, elle fait du bruit. Les nouveaux modèles, je pense que j'étais béni du nouveau modèle. Apparemment, il y a deux ventilos différents. Il y avait un premier ventilo qui avait un bruit de colle qui était très désagréable. Celui que j'ai, moi, il ne fait pas de bruit très désagréable. En tout cas, par contre, il souffle souvent. Il se met à souffler très régulièrement. Après, ce n'est pas un bruit qui est très gênant, mais il souffle. Donc, casque un peu obligatoire, sauf si vous êtes vraiment allergique au bruit, ça peut poser problème. Et le dernier problème, ça reste un PC. Il y a des moments où il y a des bugs. Il y a des moments où, moi, elle s'est figée. J'ai dû la rebooter littéralement en gardant le doigt appuyé dessus pour la relancer. Ça arrivait trois, quatre fois. Mais sur une PlayStation, ça n'arrive pas. Ça arrive beaucoup moins souvent. Sur le temps que je l'ai eu par rapport à ce que j'ai utilisé à PlayStation, en proportion, j'estime qu'il y a eu plus de galères que l'inverse. Mais ça reste quand même très limité. Ce n'est pas suffisamment gênant pour être bloquant. J'estime qu'en trois semaines, un mois, avoir déjà trois fois où je suis obligé de la rebooter, ce n'est pas terrible.
1:17:14 à 1:17:42 Guillaume Vendé :
À garder en tête, ça reste un vrai PC. C'est une manière qu'elle a de nous rappeler sa vraie nature, de faire quelques plantages de temps en temps. Les amateurs de joueur console seront derrière moi à ce sujet-là, j'imagine. On va conclure cette rubrique de vidéo, mais aussi cet épisode, Guillaume, en mettant en lumière la proposition du bon sens, le meilleur rapport qualité-prix de qui veut absolument un PC pour jouer.
1:17:42 à 1:19:24 Guillaume Poggiaspalla :
Je ne sais pas exactement, mais on va parler de la nouvelle 4070 en un dire deux mots. 600 dollars, c'est la nouvelle 4070 de NVIDIA. C'est un prix qui commence à être abordable pour une carte qui est globalement au niveau d'une RTX 3080, mais qui consomme beaucoup moins et qui donne accès au DLSS 3. Donc elle vaut 200 dollars de moins que la 4070 Ti, mais elle est quand même aussi 25% moins rapide. Elle a 12Go de RAM, et d'ailleurs AMD se fout de la gueule de NVIDIA pour ça, et elle se destine aux jeux en 1440p plutôt, et donc elle rentre par contre dans un PC normal, donc c'est plutôt une carte intéressante, elle est un petit peu moins grosse. Même s'il faudra quand même compter avec son adaptateur exotique pour l'alimentation. Pour l'instant, ceux qui ont encore des GTX ou des RTX 2000 pourraient être tentés. Si vous êtes pied et poing liés à CUDA en plus, évidemment, ça peut éventuellement valoir le coup d'attendre quand même si vous êtes pied et poing liés à CUDA, bah oui la 4070 c'est tentant, mais sinon, ça peut valoir le coup d'attendre la réponse milieu de game d'AMD. Parce qu'on peut dire ce qu'on veut, 12Go de RAM en 2023, c'est quand même un minimum, et ça risque de pas s'arranger. D'ailleurs, ce sont que des rumeurs, mais bon, il se murmure que les 4060 Ti ne raient que 8Go de RAM sur un bus 128bits, en plus c'est vraiment peu, c'est très peu, la 2060 Super a autant, 8Go de RAM, la 3060 avait déjà 12Go de RAM, donc c'est-à-dire qu'en l'état, la 4060 Ti, c'est vraiment une carte d'entrée de gamme, sauf qu'elle coûtera 450 balles à priori, alors ça reste à confirmer, mais bon, si c'est vrai, AMD a pas fini de se moquer de Nvidia, parce que dans certains cas, la taille ça compte, et donc les jeux comme Rogue World Legacy bouffent la mémoire vidéo comme si c'était des petits pains au chocolat au petit déjeuner, et du coup, c'est un petit peu court pour l'instant, on va dire.
1:19:26 à 1:19:36 Guillaume Vendé :
Merci Guillaume pour cette revue, bon j'imagine, je te pose pas la question, Steph, si tu veux t'équiper de la RTX 4070, vu que tu t'équipes d'une Steam Deck, mais...
1:19:36 à 1:19:40 Stéf :
C'est ça, non, là pour l'instant, on va calmer un peu les dépenses là. La question
1:19:40 à 1:20:00 Guillaume Vendé :
elle est vite répondue, merci beaucoup à tous les deux pour cet épisode de Tech Café, c'était vraiment un plaisir de pouvoir évoluer parmi les Newstek en votre compagnie, il est intéressant quand même qu'on rappelle l'incontournable aux gens qui nous écoutent, à savoir où est-ce qu'on peut nous retrouver ? Steph, où est-ce qu'on peut échanger avec toi ? Où est-ce qu'on peut te retrouver ?
1:20:00 à 1:20:04 Stéf :
Alors, si vous me l'autorisez, avant de répondre à la question, j'aimerais faire
1:20:04 à 1:20:08 Guillaume Vendé :
une brève dédicace. Tu as tout les droits, vas-y. Ah, super.
1:20:08 à 1:20:18 Stéf :
Alors, j'aurais tendance à dire qu'en France, on a souvent l'habitude de dire tout d'abord ce qui ne va pas, mais beaucoup plus rarement ce qui mérite des félicitations. Tu veux parler en
1:20:18 à 1:20:20 Guillaume Vendé :
anglais d'Elon Musk, je t'écoute.
1:20:20 à 1:21:10 Stéf :
Exactement. Et c'est exactement ce que je souhaitais faire, en fait. Pour l'avoir préparé sur quelques sujets, j'ai pu constater l'immense travail que constitue une émission en termes de préparation, curation, écriture, présentation, montage. Donc, j'avoue que moi, pour ma part, je suis impressionné que des gens puissent accepter de faire ça chaque semaine, gratuitement en plus. Donc, pour tout cela, moi, personnellement, je tenais à sincèrement remercier et à vous tirer mon chapeau. Et c'est en grande partie pour ça que j'ai choisi de vous soutenir. Et d'ailleurs, petit tip pour tous ceux qui auraient envie de franchir le pas, j'ai tout simplement changé mon abonnement Netflix pour celui avec de la publicité et la différence avec la formule initiale, vous finance. Même si je déteste mais cordialement la publicité, j'estime que vous valez très très largement ce léger inconvénient.
1:21:10 à 1:21:12 Guillaume Vendé :
Bah écoute...
1:21:12 à 1:21:18 Guillaume Poggiaspalla :
Merci beaucoup pour savoir ça. Si quelqu'un accepte de subir la publicité de Netflix pour nous, vraiment, je suis...
1:21:18 à 1:21:26 Guillaume Vendé :
Limite, je me sens coupable, en fait. Ouais, mais vraiment. Un grand merci. Alors, tu n'es pas sponsorisé en plus.
1:21:26 à 1:21:28 Stéf :
Non plus, je ne suis pas sponsorisé
1:21:28 à 1:21:42 Guillaume Vendé :
non plus par vous, dis donc. Ni par Steam, ni par Elon Musk, ni par TechCafé. Décidément, tu ne tires pas partie de tes amours, Steph. Bon, mais du coup, quand même, est-ce qu'on peut te retrouver quelque part ? Alors,
1:21:42 à 1:21:50 Stéf :
c'est un peu comme Guillaume, je pense qu'on me retrouvera sur le Steam Deck, en train de jouer au dernier Breath of the Wild.
1:21:50 à 1:22:02 Guillaume Vendé :
Le jour où il sortira. Evidemment, Tears of the Kingdom, Zelda, dans quelques semaines maintenant. Merci beaucoup pour ta compagnie. Guillaume, où est-ce qu'on peut te retrouver quelque part ?
1:22:02 à 1:22:10 Guillaume Poggiaspalla :
On me retrouve comme Steph, mais sur ma Switch, en train d'essayer d'écluser mon back catalogue. Comme ça, j'aurai moins de culpabilité si jamais je trouve un Steam Deck sur le bon coin.
1:22:10 à 1:22:32 Guillaume Vendé :
Ah, c'est beau. Très bien. Merci, Guillaume, pour toute la préparation aussi de cet épisode. Je suis Guillaume Vendée, vous me retrouvez sur guillaumevendée.fr, sur le serveur Discord et sur les réseaux sociaux. On sera ravis de vous retrouver dans quelques jours pour un prochain épisode de TechCafé. Mais je sais qu'une partie d'entre vous, là, arrive au bout de cet épisode et se dit
1:22:32 à 1:22:34 Stéf :
« Ah, je suis allé au bout de l'épisode,
1:22:34 à 1:22:58 Guillaume Vendé :
mais il me manque quelque chose, je n'ai pas envie d'attendre quelques jours avant d'avoir le supplément. » Et vous, écoutez le précédent épisode qui a été diffusé, comme je vous le disais en intro, sur l'intelligence artificielle. Vous allez voir, c'est magique. Vous allez découvrir plein de choses et vous allez être très calés parce que quelque chose me dit qu'on va continuer à en parler en long, en large et en travers. Merci beaucoup pour votre fidélité. On se dit rendez-vous dans quelques jours pour un prochain épisode de TechCafé. Ciao à toutes et à tous.
1:22:58 à 1:23:00 Guillaume Poggiaspalla :
Ciao à tous.
1:23:00 à 1:23:02 Guillaume Vendé :
Ciao. Sous-titres réalisés para la communauté d'Amara.org