Transcription automatique de l'épisode 319

Via Whisper (OpenAI), faster-whisper (github/guillaumekln) et Pyannote-audio (github/pyannote). Basé sur une idée de Ruhollah Majdoddin.



0:00:00 à 0:01:46 Guillaume Vendé :
Vous écoutez Tech Café, votre rendez-vous sur l'actualité des nouvelles technologies. Nous sommes le 25 avril 2023 et c'est l'épisode 319, le dernier projet d'Elon Musk a explosé. Et je ne parle pas de l'abonnement à Twitter Blue et de la fin des badges bleus qui sont devenus des sortes de bonnets d'âne, mais de la fusée Super Heavy Maxima Oscosto Starship. Est-ce un fail ? Il serait probablement très réducteur de voir ça de cette manière. Ça a inspiré Guillaume Poggiaspalla, qui a listé dans une chronique plein de projets tech qui font « pchit » ou « boum », c'est selon. Et exercice imposé avec la revue de l'ActuTech de la semaine. C'est la réorganisation chez Google pour l'intelligence artificielle. Ils vont proposer aussi de la pub augmentée à l'intelligence artificielle. Et on a plein de nouveaux modèles de langage et même des assistants à l'intelligence pas si artificielle. On terminera cet épisode avec une section réseaux sociaux et plateformes pour parler un peu de manière plus complète de ce fameux badge bleu. Je suis Guillaume Vordé, podcaster technophile enthousiaste et je retrouve le responsable du conducteur de cet épisode, c'est Guillaume Poggiaspalla. Salut Guillaume, comment vas-tu ?
0:01:46 à 0:01:48 Guillaume Poggiaspalla :
Ça va, c'est encore moi.
0:01:48 à 0:04:28 Guillaume Vendé :
C'est encore toi, très bien. J'ai plein d'interactions Guillaume, je te promets que je vais aller vite, mais on a tellement une communauté. On ne va pas s'ennuyer avant qu'on aborde nos news tech. D'abord, avant tout, le plus important, c'est de dérouler le tapis rouge pour les personnes qui font la démarche de nous soutenir. Alors, on va applaudir, même on peut le dire, Antoine Pointot, qui a rejoint la plateforme Patreon et Julien Crescent, qui nous a envoyé un petit don sur Payball. Donc, merci beaucoup. Et lui-même nous dit merci pour la synthèse que vous faites. Vous êtes les derniers résistants en tech de mon flux de podcast, car mon emploi du temps est plus que chargé. Guillaume, je pense qu'il ne devait en rester qu'un et c'est Tech Café. Donc, on peut être très fier d'avoir coupé la tête de tous les autres dans l'âge de podcast de Julien Crescent. On ne propose pas de badge bleue comme Twitter, mais vous pouvez malgré tout vous faire identifier comme un auditeur particulier de Tech Café, comme Antoine. Et oui, le podcast reste gratuit, mais vous pouvez contribuer financièrement avec des participations récurrentes avec l'abonnement sur la page Patreon de Tech Café, qui est à l'adresse patreon.com slash techcafé. Alors, si vous trouvez que le podcast vous informe, vous divertit, vous permet de faire une veille sur les nouvelles technologies, allez, osons le dire, de qualité, si vous estimez, parce que vous écoutez Tech Café, que vous êtes au courant de ce qui se passe dans le monde de l'actu tech et que vous n'êtes pas victime des discussions de comptoir, peut-être à la cantine, du style, tu as entendu ce qu'on dit sur l'IA, il paraît qu'il y a une nouvelle intelligence artificielle qui va remplacer les humains. Donc, si vous êtes protégé de tout ça, je ne peux que vous inviter à évaluer un soutien en vous créant un compte sur patreon.com slash techcafé. Vous bénéficierez en contrepartie du flux privé du podcast et sans la pub. Et puis, je dois aussi souligner que cet abonnement, il a un gros avantage, c'est qu'il est sans engagement. Vous pouvez l'annuler à tout moment. Et d'ailleurs, en vous inscrivant peut-être aujourd'hui, au moment où vous écoutez cet épisode, vous prendrez peut-être la place d'autres soutiens qui ont décidé d'arrêter de financer Tech Café. On les remercie, évidemment, d'avoir pu nous accompagner. Au passage, également, un truc très important, c'est qu'il faut, il faut, il faut, c'est une obligation maintenant, c'est clairement une obligation, évaluer Tech Café sur les apps de podcast. Et d'ailleurs, aussi beaucoup sur Apple Podcasts, parce qu'il n'y a plus assez d'avis sur Apple Podcasts, mais ce n'est pas grave. On a aussi les excellentissimes évaluations sur podcast addicts, comme par exemple Pat Chacot qui a dit, comme toujours dans cet épisode, les doguillomes ont su nous narrer l'historique de l'intelligence artificielle et des robots. C'est surtout Guillaume Pogchazpala dans le podcast tech qui porte bien son nom. Et pour moi, un café gourmand accompagné de succulents de pâtisserie. Une petite remarque à propos de cet épisode que j'ai écouté en jardinant. J'ai probablement mal entendu, mais il ne me semble pas que vous ayez fait référence à Isaac Asimov, qui est pour moi une référence en matière de robots. C'est vrai, Guillaume, on n'a pas spécifiquement parlé d'Isaac Asimov. D'ailleurs, tu n'avais pas une volonté d'être exhaustif. Je pense que tu le disais en intro.
0:04:28 à 0:04:55 Guillaume Poggiaspalla :
Non, déjà, c'est vrai que surtout au niveau de la fiction, si tu veux, on ne voulait pas être exhaustif du tout. Et en fait, on s'est arrêté. Enfin, je me suis arrêté de manière assez volontaire aux années 20 plutôt. Et Asimov, c'est vrai que c'est plutôt les années 50, 60. Et voilà, c'est la principale raison pour laquelle on n'en a pas parlé. Puis, on a déjà dit beaucoup de choses. Mais bon, effectivement, on aurait très bien pu. Effectivement, si on était allé un petit peu plus loin dans la fiction, on aurait bien entendu parler d'Asimov et de plein d'autres.
0:04:55 à 0:10:03 Guillaume Vendé :
J'imagine d'ailleurs que si vous, vous avez une passion, vous connaissez quelqu'un qui a une passion, n'hésitez pas à nous le faire savoir, que ce soit pour Isaac Asimov ou d'autres oeuvres comme ça autour de la tech. Dans la science fiction, ça peut être intéressant d'en parler. Donc, n'hésitez pas à nous contacter. Et donc, il y a plein de moyens pour interagir avec nous. techcafé.fr avec les commentaires des articles et puis également sur Discord, où on parle de plein de choses. C'est techcafé.fr slash Discord pour nous retrouver. Et donc, on a un courrier des lecteurs, une belle rubrique. Vraiment, encore une fois, merci beaucoup pour tous vos retours, parce que déjà, ça prouve que vous écoutez et que vous appréciez. Et puis surtout, c'est très, très plaisant d'avoir vos messages. Donc, n'hésitez pas. Alors, il y a Cyprien qui a envoyé d'abord un message à propos d'intelligence. Personnellement, il préfère parler de intuition artificielle. J'aime bien cette approche-là en prenant l'intuition comme le fait de proposer une solution en utilisant, dit-il, des informations connues, perçues à différents niveaux de conscience et qu'on associe un peu au hasard, de manière plus ou moins heureuse. C'est pour moi ce que font les IA génératifs. Continue comme ça. J'ai besoin, dit-il, Guillaume. Je souligne le verbe qu'il a utilisé. Non, d'ailleurs, ce n'est pas un verbe. Bon, bref, j'ai besoin de vous écouter semaine après semaine. Merci beaucoup, Cyprien. Et puis, ce même Cyprien qui est allé sur Discord. Alors, je ne vais pas lire la totalité de son message dans la section commentaire de Discord. Juste un petit passage. Il dit, il faut faire attention avec l'idée de mettre au rencard le métavers et les casques de réalité virtuelle augmentée. Je pense plutôt que l'IA va booster ces deux domaines, nous dit-il. D'une part, car le métavers, pour être une sorte de laboratoire pour l'IA et les casques de réalité augmentée virtuelle, seront des sources de collecte d'informations comme le smartphone l'a été. Car sans le smartphone et les milliers de données qui ont pu être récoltées via cet appareil, l'IA telle qu'on la connaît aujourd'hui n'existerait pas encore. Si on a pu créer des IA génératifs d'images, c'est grâce aux photos postées dans le cloud, les réseaux sociaux, avec une identification des objets, humains, animaux et pareil pour les textes. Je suis d'accord pour dire que la donnée collectée par les smartphones a aidé. C'est indéniable. Moi, j'ai plus de difficultés, et c'est une vision plus personnelle, de considérer que les casques de réalité virtuelle pourraient être, comme ça, aussi spontanément des boosters pour la réalité virtuelle et augmentée grâce à l'IA. J'ai quand même l'impression qu'il y a un problème de désirabilité sur ces casques et sur ces appareils. On verra si ça retient l'engouement du grand public avec les propositions d'Apple. Donc voilà, tout un grand commentaire assez intéressant. On a aussi un commentaire de Nicolas Saint-Marc. Salut les Guillaumes, je vous passe ce petit message des Émirats arabes unis. Ça fait très plaisir aussi d'avoir vos petits retours à travers le monde. Il dit non, pas Dubaï où je vous écoute avec attention dans ma voiture, sur la route du boulot le plus souvent possible. Il dit aussi j'aime le professionnalisme de Guillaume V et l'expertise de Guillaume P. Tout ça saupoudré d'humour et de fou rire. Alors Guillaume, je me dirais, peut-être de mauvaise langue, je dirais un peu hâtivement que je ne suis pas drôle et que tu n'es pas pro, Guillaume. Mais je pense qu'il ne faut pas tirer des conclusions de ce type là. Ce serait bien trop hâtif. Commentaire aussi de Mika qui dit au final, il évoque le Steam Deck. Au final, actuellement, le seul concurrent sur les consoles portables à Nintendo, c'est le Challenger Valve avec son Steam Deck. J'ai vu aussi qu'Asus a présenté un appareil qui est intéressant, qui a été surveillé. On ne connaît pas encore le prix, mais les équipes de Frandroid ont pu le tester. La prise en main est plutôt bonne au premier abord. Qui tourne sous Windows, donc pas du tout un Steam OS comme le Steam Deck. Qui aurait cru quand Valve s'est lancé en 2014 avec ses premiers essais sur le marché des consoles de salon avec les Steam Machines. Au final, aujourd'hui, grâce à eux, on a vu notre expérience de jeu sous Linux franchir un palier de folie. On peut désormais se créer un PC de gamer très rapide et jouer au dernier jeu AAA avec une meilleure expérience que sous Windows. Bon, ce n'est peut-être pas aussi simple dans les grandes lignes et sur tous les titres, mais c'est vrai que c'est bon à souligner. Et enfin, et après j'ai terminé, je vous promets, c'est Guillaume qui va prendre le relais des Corrières des lecteurs avec Max et Dozer, à qui on fait, en plus d'un coucou, un gros bisou avec un commentaire un peu fortout. Il confesse avoir lâché un peu le serveur Discord, mais il reviendra bientôt. Il nous dit aussi tout d'abord le travail, la masse de travail que vous abattez toutes les semaines pour nous offrir deux épisodes reste impressionnant. Bravo. Plus le temps passe, plus le duo de Guillaume cristallise l'esprit Tech Café. Vraiment cool. Je pense que tout est dans le prénom d'ailleurs, moi perso. Et enfin, il voulait reparler une fois de plus d'intelligence artificielle. Il évoque son entourage pro et il a l'impression, lui, qu'on est revenu quelque part. Il y a des analogies à faire avec le début de l'électricité. Il s'explique. Vous voyez cette époque étrange. Il y a peu ou prou 200 ans, se côtoyait les chevaux, les autos, la vapeur, les bougies, les lampes à gaz et les balbutiements de l'électricité dans les villes, les maisons. Imaginez comme cela pouvait paraître de la magie de toucher un interrupteur et la pièce s'éclaire. J'avoue, moi perso, j'imagine qu'à l'époque, ça devait être vraiment l'effet waouh, mais sans flammes, sans fumée. Bref, on en est un peu là avec le sujet des IA génératives. Beaucoup en ont peur et n'ont pas forcément tort. Peu le comprennent, mais affirment le contraire. Tout le monde en parle et surtout peu le maîtrise. Cela relève presque de la magie pour certains. En tout cas, ce que je décèle dans mon entourage pro, le truc réfléchit. Le truc a tout le temps raison. Et entre parenthèses, il met c'est faux, mais autre sujet déjà abordé dans TakCafé. Et enfin, je conclurai cette citation de son là aussi long commentaire avec j'ai l'impression que l'on n'a jamais autant vécu la citation d'Arthur C. Clark. Toute technologie suffisamment avancée est indiscernable de la magie. Je pense que ça conclut bien, effectivement, cette série de restitutions que je voulais vous partager. Et toi aussi, Guillaume, tu t'es prêté à l'exercice de collecter quelques retours et de compléter un peu ce courrier des lecteurs.
0:10:03 à 0:11:47 Guillaume Poggiaspalla :
Oui, absolument. D'ailleurs, c'est vrai que j'aime beaucoup cette citation en perso d'Arthur C. Clark, parce qu'elle est très, très vraie. Parce que tu ne comprends pas du tout comment ça fonctionne. Effectivement, ça a touché la magie. Il y a un peu de ça, d'ailleurs, dans les IA, dans les IA génératives, même les créateurs ont été surpris par ce que ça pouvait faire. Donc, il y a vraiment un côté où on a l'impression de passer un cap. Et effectivement, il y a eu plein de commentaires cette semaine. Alors, il y en a eu un de Carpman qui cite Diderot. Et oui, rien que ça, et ça rejoint ce que j'avais cité, pour le coup, le coup du perroquet dans l'épisode de l'histoire sur lien et qui remet la phrase dans son contexte. Et évidemment, c'est encore mieux. Donc, merci à lui de le remettre dans le contexte, parce que c'est vrai que vous irez voir le commentaire, parce que sinon, ça va être vraiment trop long. Parce qu'il y a aussi un autre commentaire de Tulcas qui a montré des pages du manga Dr Stone dans lequel il réinvente les mémoires à tort magnétique. Donc, c'est absolument énorme. Donc, ça confère donc un autre épisode historique, mais cette fois sur les ordinateurs, pas forcément sur l'intelligence artificielle. Et j'avais d'ailleurs entendu dire que Dr Stone est un bon manga de science et je n'avais jamais vraiment commencé parce que moi, je ne suis pas trop shonen, a priori. Mais là, il va falloir que je m'y mette. Voilà, c'est sûr, je vais être obligé d'acheter Dr Stone. Mais bon, le commentaire sur lequel je voulais revenir plus en détail, c'est un commentaire qui nous vient de Carole, donc Carole d'Aldergusto. On avait déjà parlé, elle avait déjà posé une question, on avait déjà parlé un petit peu d'elle. Et c'est une question qui porte sur la consommation en eau de l'entraînement des intelligences artificielles, des modélias. Donc, voilà, elle met en référence un article de Lucie Riverside qui indique dès son résumé que GPT-3 aurait, par exemple, consommé pour son entraînement 700 000 litres d'eau. Et donc, elle pose une question dans le commentaire, choquant ou pas ? Est-ce que c'est choquant ? Est-ce que je n'ai pas compris ? Et en fait, moi, je dis que non, ce n'est pas si choquant que ça.
0:11:47 à 0:11:48 Guillaume Vendé :
Ah ?
0:11:48 à 0:13:12 Guillaume Poggiaspalla :
Et oui, ça va peut-être vous surprendre, mais en fait, non, pas vraiment. Alors, je vais m'expliquer. Déjà, les intelligences artificielles, en fait, donc les très gros modèles de deep learning comme ça, ça tourne sur des serveurs qui sont tout à fait normaux. Il n'y a rien de particulier dans le matos qu'elles utilisent. Alors, OK, c'est des GPU, voilà, c'est des S&DB. Des GPU, parfois, si c'est chez Google, etc. Donc, en gros, c'est du calcul intensif, mais le calcul intensif, ça n'a rien d'extraordinaire. Ce n'est pas nouveau. En ingénierie, en science, et même pour le divertissement, comme le rendu 3D ou le transcodage vidéo, dans le jeu vidéo cloud, tout ça, ça tourne sur des serveurs avec des puces qui sont, certes, plus ou moins optimisées pour telle ou telle tâche, mais ce sont essentiellement les mêmes et elles chauffent pareil, elles consomment de l'énergie pareil, c'est-à-dire beaucoup, et il faut les refroidir. Alors, j'ai pt3 à nécessiter des semaines, peut-être des mois, je n'ai pas le chiffre exact, de calcul intensif, et l'eau qu'il a consommée, en fait, c'est de l'eau qui est essentiellement de l'eau évaporée par le système de refroidissement du datacenter. Ce n'est pas de l'eau qui est, d'ailleurs, polluée ou souillée. C'est de l'eau qui part dans l'atmosphère et qui ne retombera plus ailleurs. Alors, c'est potentiellement quand même un problème localement, mais en fait, techniquement, ce n'est pas de l'eau qui est vraiment perdue, on va dire. Donc, l'entraînement des IA consomme de l'eau, oui, mais comme absolument toutes les autres tâches qui sont faites par les datacenters quand on accède à des services en ligne. Tous les serveurs ont besoin d'eau refroidie. Alors, 700 000 litres, oui, c'est beaucoup, dans l'absolu, bien sûr, mais c'est probablement... 350 piscines olympiques. Oui, mais bon, ok, mais c'est probablement rien
0:13:12 à 0:13:14 Guillaume Vendé :
en comparaison de ce que l'exploitation
0:13:14 à 0:16:56 Guillaume Poggiaspalla :
de GPT-3 et GPT-4 ont consommé depuis qu'OpenAI les ont mis en accès via leur site, évidemment, mais c'est probablement rien. Ils les ont mis en accès via leur site et via leur API, via chaque GPT. Dire « c'est beaucoup » ou « c'est choquant », ça n'a pas de sens si on ne le place pas en contexte, et le contexte, celui d'un service web, parmi une multitude d'autres. Donc, si la question sous-jacente, c'est « est-ce que ça vaut le coup ? », alors c'est très délicat, parce qu'il faut se poser la question du sens des priorités qu'on a, en fait. Je ne suis pas en train de dire que ça vaut forcément le coup tout le temps de tout faire sans en discuter, mais surtout, voilà, avec chaque GPT ou un autre, mais je veux quand même souligner que quand on va sur YouTube, TikTok, Netflix ou Twitch, ce n'est pas gratuit, ça coûte de l'énergie, beaucoup, ça coûte des quantités d'eau fantastiques tout autant, et donc la question « est-ce que ça vaut le coup ? », elle peut se poser pareil. Twitch, par exemple. Twitch, il doit transcoder des millions de flux vidéo par jour. Le transcodage, c'est du calcul intensif. TikTok possède des algorithmes de recommandation qui sont extrêmement sophistiqués. Ils streament des milliards de flux vidéo par jour. À tel point qu'encore en Norvège, récemment, je ne sais pas si tu as vu passer, il y a un datacenter TikTok qui entre en concurrence pour la production d'électricité avec une usine de munitions. Et ça a eu des problèmes, des répercussions puisqu'il est livré en Ukraine. Parlons d'Xcloud. Xcloud, ça fait tourner des millions de sessions de jeux par jour sur des GPU. Des GPU, donc des puces du même type qu'on utilise pour entraîner les IA. C'est le même type de puce. Est-ce que ça vaut le coup ? Est-ce qu'on s'est insurgé contre le dernier Pixar ? Est-ce que quelqu'un s'est déjà indigné du dernier Pixar ou du film Super Mario ? Je veux dire, le film Super Mario est un image de synthèse, il n'y a pas une seule image réelle. Ça nécessitait des années de calcul intensif. Pixar, en 2022, il avait une ferme de 2000 machines qui totalisaient 24 000 cœurs. Ça chauffe pas mal, ça, 24 000 cœurs. Donc on dit, ouais, JPT3, il consomme vachement d'eau, vachement d'électricité, tout ça, mais bon, des films Marvel ou DreamWorks, bougrés d'image de synthèse de tous les côtés, c'est des années de calcul intensif pour chacun. Et ça consomme pas moins, pas moins d'eau, et il en sort une douzaine par an. Tu vois, donc, est-ce que ça vaut le coup ? Quantum Mania, je sais pas s'il valait le coup, tu vois, bon, bref. Et là, j'évoque quelques exemples de services online, mais bien sûr, il y a tout ce qui est offline. Et la mode, on en parle ? La mode, c'est 20% des eaux usées, 20% des eaux usées dans le monde sont produites par l'industrie textile. Chyine, à lui seul, représente entre 10 et 20% en moyenne du bilan carbone des ados. Est-ce que vous voulez vraiment savoir combien d'eau est gaspillée pour produire ces murs entiers de Funko Pop qu'on trouve dans tous les Micro Mania ? Je sais pas si, hein. Donc, du coup, ouais, du coup, voilà, moi, je suis pas particulièrement choqué par la conso de GPT-3. Alors, ça veut pas dire qu'il faut pas s'en préoccuper du tout. Eh bien, d'ailleurs, l'article ne donne pas vraiment de l'indignation pure. Il dit pas ce truc-là pour indigner. En fait, il se focalise sur son sujet. Bon, voilà, c'est son sujet, donc c'est légitime, il se focalise dessus et il donne des propositions pour limiter la casse. Bon, parce qu'en substance, l'eau qui est consommée, bon, ben, elle est consommée pour l'enfroidissement, sa quantité, en gros, elle dépend de l'énergie à évacuer et de la température extérieure. Donc, il préconise de faire les calculs plutôt en fonction de l'endroit et de l'heure plutôt qu'H24. Ce qui est pas idiot, hein, même si ça rallonge un peu le processus, bon, ben, ça peut valoir le coup. Et donc, voilà, quoi, c'est... Donc, voilà, c'était ma... ma réponse à Carole sur cette question. Mais, pour conclure cette longue réponse, donc Carole qui, je le rappelle, donc, anime le blog AlterGusto, donc c'est un blog de cuisine, je lui fais une spéciale dédicace en l'encourageant à aller jeter un coup d'oeil sur le site Cuisine Génération. Cuisine Génération, le lien est dans les notes, hein, et, bon, voilà, tu peux aller sur le site, c'est le site de cuisine qui donne des recettes. Quand tu vas sur le site, y'a rien qui choque. Quand tu lis le contenu, y'a rien qui choque non plus, d'ailleurs, hein, y'a 4 chefs, sauf que ces chefs n'existent pas. Le site entier est généré par ChatGPT et MidJourney. Et y'a mieux encore...
0:16:56 à 0:16:57 Guillaume Vendé :
Ça rappelle son livre.
0:16:57 à 0:17:23 Guillaume Poggiaspalla :
Cuisine Génération, ben, oui, oui, mais, justement, ben, oui, évidemment. Mais, en plus, y'a pas que Cuisine Génération. Y'a un autre site, qui est fait par le même mec, d'ailleurs, qui s'appelle TechGénération, qui est un site de NewsTech façon Numérama. Ben, Numérama qui en a parlé, d'ailleurs. Et là aussi, qui est entièrement généré par des algorithmes. Et c'est un truc qui compte déjà 800 articles. Et derrière, y'a un seul mec, qui s'appelle Harry Coots, qui est consultant chez Vizeo. Et il dit que c'est juste une preuve de concept, mais, bon, le site continue à être mis à jour. Donc, c'est quand même
0:17:23 à 0:18:58 Guillaume Vendé :
assez impressionnant. Ouais, à voir si ça recueillera l'engouement des internautes sur le long terme. Mais c'est vrai qu'en termes de qualité, de restitution, c'est très bien fait, effectivement. Merci beaucoup pour ton regard sur l'eau. Ça permet de mettre un petit peu en perspective tout ça. Et je repense aussi, quand on parle de tech et de consommation d'énergie ou de ressources de la planète, forcément, je peux pas m'empêcher de faire des parallèles avec les réflexions que tu partageais autour des crypto-monnaies, qui, elles, en fait, dans leur apport de valeur, finalement, on arrivait vite à la conclusion que l'apport de valeur était assez faible, nul, pas démontré. Ça arrivera peut-être un jour, mais pour l'instant, le Web3 n'a pas démontré son usage, alors que la consommation d'énergie était autrement plus importante. Le minage de crypto-monnaies était assez dingue. Tout ça pour pas mal de spéculations. Ok, on a fait, je pense, une super partie interaction et courrier des lecteurs. Donc, continuez, encore une fois, on adore ça. Mais là, il est temps de mettre de côté les mails, commentaires et messages Discord pour aller nous pencher sur l'ActuTech depuis la semaine dernière. Et tu voulais inaugurer cette série de NewsTech, Guillaume, avec le très gros, la très grosse fusée d'Elon Musk qui a explosé. Et moi, je me rappelle que tu as déjà parlé de la stratégie de développement de ces appareils par SpaceX et tu avais bien mis en lumière, déjà, le fait que une explosion, c'est pas forcément si catastrophique que ça et c'est pas si catastrophique que ça. Et c'est un petit peu, justement, sur ce regard qu'on porte sur ces accidents qu'il faut porter notre jugement. Alors, qu'est-ce qui s'est passé, Guillaume ?
0:18:58 à 0:22:12 Guillaume Poggiaspalla :
Pour continuer dans la série, est-ce que ça vaut le coup ou pas ? Il y a Starship, effectivement. Et c'est compliqué, finalement, comme question. Ça vaut le coup toujours, à chaque fois. L'actu de Starship, là, évidemment, c'est qu'il a explosé. Je pense que tout le monde est au courant. C'est passé dans tous les médias et la moitié, d'ailleurs, en ont profité pour se foutre d'Elon Musk, au passage. J'avoue, c'est toujours un petit plaisir. Au-delà de ça, il reste la question qui est, est-ce que c'est un échec ? Alors, ok, vu de loin, un lancement qui se finit par une énorme explosion avec des morceaux qui retombent un peu partout, ça ressemble pas mal à un échec, mais les apparences sont parfois trompeuses. Et il a quand même décollé. Il a quand même explosé, d'accord, mais il a quand même décollé avant. Précisément, dès l'allumage, il y avait certains moteurs Raptor, donc, qui ont commencé à déconner. La fusée en a 33, quand même. Et certains autres sont partis en rideau au fur et à mesure, et vers une altitude de 40 km, la fusée avait perdu 8. Et donc, elle n'était plus vraiment manœuvrable, et donc, au moment de la séparation du premier étage, elle a fini par basculer. C'est parti en couille. Bon, il est aussi probable, d'ailleurs, qu'il y ait un problème hydraulique en plus ailleurs, donc l'ensemble est retombé en flamme, voilà, en façon de puzzle. Et la bonne nouvelle dans tout ça, c'est que la fusée a décollé et qu'elle a atteint 40 km, malgré la panne moteur. Donc, Starship, faut bien se dire que c'est une fusée énorme. Elle fait 5000 tonnes au décollage, la charge utile c'est 100 tonnes minimum, et tout ça est réutilisable. Enfin, en tout cas, le premier étage est réutilisable. C'est le lanceur super lourd sur lequel se repose la NASA, pour Artemis, quand même. C'est lui qui assurera le frein jusqu'à la surface lunaire pour Artemis III. Et la NASA, en l'occurrence, elle est contente. Donc, ça doit vouloir dire des trucs. Tout simplement parce que ni elle ni Musk n'étaient même sûrs que la fusée décolle. Simplement ça. Donc, ils ont beaucoup appris de ce vol, quand même, parce qu'il y a eu un vol, y compris aussi pour la base au sol, parce qu'après le décollage, ils ont constaté que les boosters de la fusée avaient creusé un énorme cratère et ils se sont rendus compte que les protections des réservoirs annexes étaient un poil légères, hein, vu la puissance du monstre. Donc, on l'a déjà dit, mais SpaceX a un mode de développement fondamentalement différent de celui de la NASA. La NASA est obsessionnelle sur le moindre détail, ça prend un temps fou, mais les échecs sont rares. SpaceX, c'est l'inverse, c'est l'itérative. Donc, on teste, ça pète, on reteste. Donc, ça pète souvent, on corrige, on reteste et ça finit par passer. La NASA a mis un temps fou pour concevoir et construire son énorme lanceur SLS. SpaceX a une usine qui peut construire 10, au moins 10 Starships pendant que la NASA fait un seul SLS. Des Starships, ils en ont au moins deux autres au garage qui attendent d'être lancés. Donc, ils vont en lancer deux, trois, ça pètera, mais si au cinquième ça marche, c'est doux ben neuf. Donc, SpaceX a déjà réussi avec ses fusées actuelles, qui ont quand même déjà beaucoup changé l'accès à l'espace, pour le meilleur et peut-être aussi pour le pire un peu, ça peut se discuter. Mais est-ce que ça vaut le coup de créer des myriades de constellations, d'ailleurs, pour avoir internet par satellite, tout ça, c'est discutable. Mais bon, Starship, quand il fonctionnera, et je pense qu'il a non seulement de bonnes chances de voler un jour, mais même d'être dans les temps pour Artemis III, c'est-à-dire en 2025, il va encore plus démocratiser l'accès à l'espace. Parce que, tout simplement, c'est moins cher, donc le prix au kilo de l'accès à l'espace va se réduire tellement qu'à moyen terme, ça peut encore changer notre perception de ce qu'on peut faire dans l'espace. Et là encore, pour le meilleur et pour le pire. Parce qu'on se souvient, par exemple, de ces projets terrifiants de pub spatiale. Mais bon, l'espace a apporté énormément de bonnes choses. La géocalisation globale, les satellites pour l'astronomie, pour l'étude de la Terre, pour les mageries, pour les communications, bien entendu. Donc, aller dans l'espace, ça vaut certainement le coup. Même si certains projets, peut-être pas, tu vois. Mais voilà, c'est quand même
0:22:12 à 0:23:10 Guillaume Vendé :
plutôt sympa. Au passage, il y a un truc, quand même, qu'il va falloir mesurer. C'est les émissions de particules qui sont pas... Les conséquences sont pas encore tout à fait bien évaluées. C'est aussi l'intérêt d'avoir plusieurs essais successifs. C'est qu'on va évaluer l'émission des particules liées au lancement. Et a priori, on essaie d'évaluer un petit peu les dommages qui peuvent être causés à la faune et à la flore environnantes. Avec des débris, a priori. Oui, des débris, carrément. Des débris retrouvés jusqu'à 10 km autour, je voyais. Ce qui peut être costaud. Bon, du coup, ça leur permet d'évaluer les choses. Et ça montre aussi le rôle qu'a une boîte privée dans le développement de la conquête de l'espace. C'est qu'évidemment, la NASA ne pourrait pas se permettre d'assumer directement en son nom ces explosions à répétition, ces erreurs, ces échecs, plutôt que des erreurs à répétition. Et donc forcément, ça montre tout l'intérêt d'une boîte privée qui développe ce genre de choses. Alors, tu disais pour tout et n'importe quoi. J'ai l'impression que tu veux nous apporter un petit peu de recul sur ce qu'on va pouvoir faire avec cette conquête de l'espace, Guillaume.
0:23:10 à 0:23:14 Guillaume Poggiaspalla :
Oui et non, mais... Est-ce que tu n'as jamais rêvé de déguster un bon cassoulet
0:23:14 à 0:23:18 Guillaume Vendé :
dans l'espace ? Alors déjà, j'adore le cassoulet, mais inutile de te dire que le cassoulet dans l'espace...
0:23:18 à 0:23:48 Guillaume Poggiaspalla :
Mais voilà. Alors ce rêve étrange, quand même, pourrait devenir réalité dès la fin de 2024. Si tout se passe bien avec Zéphalto, c'est une boîte française qui a l'ambition de vous emmener faire un voyage en ballon mais dans l'astratosphère à 25 km d'altitude. C'est-à-dire c'est trois fois plus haut qu'un avion en ligne standard. Et pour un voyage de 6 heures. Et vous allez aller si haut que vous allez pouvoir voir la courbure de la Terre par le hublot qui fait 7 mètres carrés. Ça doit être magique. Les pilotistes apprécieront encore plus le voyage, je pense. Donc la capsule fait 20 mètres carrés. On vous y servira en repas de luxe. Et il y a intérêt parce que le prix du billet, c'est 120 000 euros.
0:23:48 à 0:23:50 Guillaume Vendé :
Voilà. On espère que ce n'est pas une boîte de William
0:23:50 à 0:24:16 Guillaume Poggiaspalla :
Sorin à ce prix-là. Ah ben à ce prix-là, il y a 6 passagers, 60 vols par an. Donc ça paraît rentable comme affaire parce que bon, c'est un ballon quand même. C'est un ballon, donc ça veut dire aussi qu'il n'y a pas de propulseur, ça consomme que très peu d'énergie et ça ne dégage à peu près rien. Donc de ce point de vue-là, il n'y a pas grand-chose à dire. Au niveau écologique, ça a l'air plutôt cool. Si vous êtes intéressé par un voyage en ballon qui coûte le prix d'un de deux pièces à Villeurbanne, jetez un coup d'œil à notre Patreon avant de donner les 10 000 euros de caution.
0:24:16 à 0:24:30 Guillaume Vendé :
Merci. Tout autre registre met l'espace de côté. Il y a aussi des innovations qu'on commence à entreapercevoir. Mais notamment une qui, là aussi, t'as choisi de le classer dans la rubrique des pchites,
0:24:30 à 0:24:52 Guillaume Poggiaspalla :
Guillaume. Peut-être. Quand j'ai vu la démo de l'appareil de Humane, j'ai eu une véritable sensation de déjà-vu. Immédiatement, on pourra me dire que c'est tout simplement le film Her de Spike Jonze. Puisque l'appareil de Humane, c'est comme dans le film, un petit machin qu'on met dans la poche de sa chemise, sur la poitrine, et il peut interagir avec toi par la voix ou par ce qu'il peut voir quand on lui montre. Il y a une caméra.
0:24:52 à 0:25:02 Guillaume Vendé :
Donc le but, c'est... Faut peut-être repréciser, Humane, c'est pas des anciens d'une boîte, je ne sais plus si c'est Apple, Google, je ne sais rien. En gros, ça a été un TED, si je ne dis pas de bêtises, présenté dans le cadre d'une conférence.
0:25:02 à 0:27:10 Guillaume Poggiaspalla :
Ils ont fait une conférence avec une démo en live de ce truc. Et leur but, clairement, quand tu vas sur le site, c'est de rendre le smartphone obsolète en créant un appareil quasi invisible. C'est-à-dire rendre la tech transparente. La disparition de l'ordinateur, puisque ça devient de l'ambient computing. C'était ça l'expression qu'on utilisait. Donc c'est un assistant qui t'écoute et qui voit, qui comprend ce que tu dis dans le contexte. Et évidemment, il a aussi un petit pico-projecteur qui peut afficher des éléments d'interface absolument n'importe où, sur toute surface, en particulier sur ta main. Donc pour se guider en ville, soit tu utilises ta voix, soit il te parle, soit les directions sont projetées directement sur ta main, sur ton bras, l'appareil sera autonome. Ce ne sera pas un pire effet que le smartphone, ce sera un véritable appareil complètement autonome. Alors, avec l'explosion des IA et des modèles multimodaux dont on parlait à longueur de temps, la proposition est plus crédible que jamais. Tu peux lui parler en langage naturel et elle répondra sur tous les sujets. Elle pourra faire la traduction de ce que tu dis, elle pourra résumer les emails que tu as reçus pendant une des réunions, etc. Si tu lui montres une barre de chocolat, elle va contrôler qu'elle est compatible avec tes allergies, etc. Si tu lui montres des ingrédients sur une table, elle va te guider sur comment faire des cookies, etc. Bon. Tout ça devient possible grâce aux récentes avancées des modèles de langage, bien sûr. C'est pas trop montré sur scène, mais tu peux même imaginer probablement lui donner une personnalité, discuter pendant des heures avec ton chatbot, pour savoir si Batman pourrait battre Harry Potter, bien sûr que non. L'appareil de Human n'a même pas encore de nom et perso je n'y crois absolument pas. Parce que c'est pas le film Her qui me donne ce sentiment de déjà-vu, c'est un projet du MIT qui s'appelle Sixième Sens et qui open-source depuis 2009. Ça fait 15 ans qu'on rêve de remplacer le smartphone avec un appareil invisible qui nous comprendrait plus naturellement. Et ben, y'a rien qui a remplacé le smartphone et y'a rien qui semble proche de le faire. Bon, y'a des hypothétiques lunettes de réalité augmentée, mais ça part encore un peu loin quand même. Je pourrais aligner les doutes en ce qui concerne ce machin. Il faut lui parler, parler tout seul en public c'est pas vraiment idéal. T'es dans la queue à la FNAC, tu discutes avec ton truc, ou dans le métro, à la bibliothèque, entre amis. Le projecteur laser peut projeter partout, donc ça veut dire que c'est moins perso qu'un écran de téléphone, puis ça peut éblouir. Bon, je pourrais continuer,
0:27:10 à 0:27:14 Guillaume Vendé :
mais plus simplement... — Faut mettre sa main au bon endroit même si le truc est suffisamment intelligent
0:27:14 à 0:27:34 Guillaume Poggiaspalla :
pour faire la mise au point comme il faut. — Ça je sais pas trop, mais effectivement, je vois pas comment un appareil qui peut pas afficher des vidéos au TikTok de toute façon pourrait avoir le moindre succès pour être honnête. Mais bon, c'est quand même marrant que ce genre de truc revienne. Alors, est-ce que j'ai tort, tu vois ? Est-ce que c'est le bon moment cette fois ? Est-ce que le sixième sens était trop en avance ? Est-ce que le point de bascule est arrivé pour l'Ambient Computing ?
0:27:34 à 0:28:26 Guillaume Vendé :
— Je sais pas s'il y a, encore une fois, c'est comme l'histoire de la VR, des métavères, comme on m'a dit, moi j'ai vraiment l'impression que les gens ont juste pas envie de remplacer leur smartphone par un truc de ce type-là, qui ne remplit pas aussi bien les usages que le smartphone, et qui n'apporte pas suffisamment de nouvelles promesses. Mais peut-être qu'on nous contredira dans quelques mois ou dans quelques années. Guillaume en nous dira « Voyez, vous êtes trompés ! C'était le successeur du smartphone. » Et on en sera peut-être tous contents, on va savoir. J'en doute autant que toi, évidemment. Bon, il y a un autre sujet qui permet de se gratter un petit peu la tête aussi avec le recul. C'est un sujet qui a été pas mal circulé dans les Veille Tech et les podcasts, mais c'est la durabilité quelque part des Chromebooks, et en gros, quelle est la durée de vie associée à l'achat de ce type d'appareil qui se fait d'ailleurs très souvent neuf, Guillaume ?
0:28:26 à 0:30:12 Guillaume Poggiaspalla :
Aux US, il y a un rapport du PERG, du PIRG, la Public Interest Research Group, qui a épinglé Google au sujet des Chromebooks qui ont été achetés en masse par certaines institutions, principalement des établissements scolaires, d'éducation secondaire la plupart du temps. Donc des Chromebooks qui sont exactement comme les autres, donc qui sont pas vraiment faits pour durer. Et quand des millions de Chromebooks sont achetés et doivent être remplacés 4 ans plus tard, ben, non seulement c'est très cher, mais c'est aussi un léger problème du point de vue de l'environnement. Alors les Chromebooks, comme tous les appareils grand public, ils sont pas super solides, ils sont modérément réparables, surtout si on considère que les PIRGs sont pas toujours disponibles. Mais pire que ça, Google apparemment cesse régulièrement de mettre à jour des machines après quelques années, et c'est désastreux parce qu'après 4 ou 5 ans, Google abandonne l'OS de ses machines, elles continuent de tourner, mais elles sont plus vulnérables, et surtout, il y a des logiciels qui refusent de tourner dessus parce qu'ils sont pas à jour. Et quand c'est des logiciels clés comme ceux pour organiser le contrôle, ben, c'est un vrai souci. Donc, évidemment, c'est un vrai souci qui dépasse les Chromebooks. Quand t'as des équipes, des élèves avec des taques récentes, ben voilà, c'est compliqué. Au moins, les calculatrices sont des cycles d'obsolescence qui sont très très longs. 15 ans plus tard, elles peuvent encore être pertinentes, tu vois. Mais quand c'est des PC, des tablettes qui sont reliées à plein de services web et des logiciels tiers, ça devient un vrai casse-tête. Alors depuis la publication du rapport, ben, Google apprécie que, quand même, depuis 2020, les Chromebooks ont supporté 8 ans contre 5 ans auparavant. Bon, 8 ans, c'est bien, c'est sûr. Dans l'absolu, on a peu de gadgets qui sont soutenus aussi longtemps. Mais enfin, c'est vrai que dans des institutions comme ça, tu sais, où on fait toujours les mêmes choses, est-ce que c'est idéal ? Je sais pas. Dans l'idéal, de toute façon, le matos public tournerait sur de l'open source, tu vois. Linux supporte des architectures qui sont vieilles de 20 ans, donc ça serait idéal. Et puis au pire, on peut toujours continuer soi-même à maintenir une base de code si on en a besoin, tu vois. Bon, si on en a besoin, si on en a les moyens aussi, parce que je sais que je rêve un petit peu en couleur, là, mais bon, ça peut être sympa.
0:30:12 à 0:30:40 Guillaume Vendé :
Bon, c'est un procès qui est légitime à faire. En fait, c'est un procès qui est de plus en plus légitime au fur et à mesure que le temps passe et que le rechauffement climatique se fait de plus en plus sentir. Après, effectivement, ça met en lumière aussi le gros volume des Chromebooks qui sont commercialisés, notamment pour les universités aux Etats-Unis et sans doute dans plein d'autres pays. Pas trop en Europe, si je dis pas de bêtises. Et puis, pendant qu'on parle de Google, Guillaume, soyons complets et parlons un peu des pixel-trucs qui vont arriver.
0:30:40 à 0:31:12 Guillaume Poggiaspalla :
Un tout petit peu, alors, parce que la Google I.O. arrive en mai et on a eu deux fuites qui vont constituer peut-être la section la moins informative de cet épisode, puisqu'on a eu une photo de la pixel-tablette de dos. De dos. Alors, de dos, tu sais, voilà quoi, de dos, même Olivier Dussopt pourrait peut-être ressembler à Colin Farrell, je sais pas. De dos, c'est évident. Mais bon, rien, en fait. Voilà, il y a une photo de truc de dos. Par contre, on a vu aussi un pixel-fold. Bon, ben, c'est le téléphone pliant de Google en vidéo, ok. Et en vidéo, il ressemble franchement à un Galaxy Fold en vrai. Donc, le plioure au milieu qu'en prise, d'ailleurs. Donc, c'est un truc qui ferait...
0:31:12 à 0:31:14 Guillaume Vendé :
On arrive même pas à se rendre compte s'il plie à plat ou s'il y a
0:31:14 à 0:31:34 Guillaume Poggiaspalla :
du vide entre le pli. Non, on voit pas grand-chose. Ça fait le tour de tous les médias et en fait, il y a pas grand-chose. Voilà, c'est un truc qui fait 5 pouces 8, qui se dépliera en une tablette de 7.6. Voilà, dedans, il y aura un Tensor G2 et ce sera à 1 700 dollars, ce qui veut dire qu'en plus, il coûterait beaucoup trop cher pour faire une quelconque différence sur le marché. Bon, voilà. Donc, rien quoi.
0:31:34 à 0:31:48 Guillaume Vendé :
À peu près. Ce qui est rigolo, c'est de voir que on en parle là comme ça, de cette manière-là en avril 2023. Mais t'imagines, ces mêmes appareils, il y a quelques années dans Tech Café, ça aurait fait peut-être une rubrique. Non, pas une rubrique à part entière mais plus de... Ouais, alors
0:31:48 à 0:31:52 Guillaume Poggiaspalla :
un peu plus. La fuite, elle est légère quand même. Ouais, elle est légère. La fuite, elle est vite
0:31:52 à 0:32:18 Guillaume Vendé :
colmatée, je veux dire. C'est dans... C'est pour avoir un souci d'exhaustivité dans ce podcast qu'on vous mentionne le sujet. Bon, allez, on va plutôt changer de rubrique et justement, pendant qu'on parle de Google, on doit aussi parler de ce que fait Google dans le monde de l'intelligence artificielle et on sent qu'ils sont un petit peu en train d'essayer de trouver les bonnes armes pour répondre à la situation qui a été un petit peu provoquée par notamment OpenAI et les actions de Microsoft et ils sont peut-être en train de se réorganiser, Guillaume ?
0:32:18 à 0:35:32 Guillaume Poggiaspalla :
Ouais, Google, jusqu'ici, il avait deux gros labos pour l'intelligence artificielle. Il avait deux lobes cérébraux. Il avait Google Brain et DeepMind. Alors, Google Brain, c'est plein de choses qu'on connaît pas mal. C'est TensorFlow quand même, qui est un des frameworks majeurs pour l'intelligence artificielle. C'est les transformers, c'est quand même rien que ça. Donc la base de GPT et compagnie. C'est aussi Magenta, c'est aussi Imagen, c'est le robot Palmy. Voilà, on en a beaucoup parlé. Et de l'autre côté, DeepMind, ils ne sont pas en reste, puisque c'est quand même la star mondiale AlphaGo et tout ce qui suit, AlphaZero, AlphaFold. C'est aussi Gato, le robot polyvalent. Enfin, le modèle polyvalent, c'est Shenshila aussi, un énorme modèle de langage. Bref, les deux labos vont fusionner pour donner Google DeepMind, et le CEO de DeepMind sera celui de la nouvelle entité, donc de Google DeepMind, et celui de Google Brain deviendra directeur scientifique de Google DeepMind. Donc le rapprochement va créer un des labos en IA les plus avancés du monde. Et c'était pas si évident en fait, parce que DeepMind, il a toujours voulu rester le plus indépendant possible par rapport à Google. Et encore récemment, et donc là, c'est la guerre, donc on resserre les rangs, mais je suis pas sûr que ce soit fait de gaieté de cœur par les anglais. Je crois qu'ils sont basés à l'ombre, DeepMind. Donc on essaye de lutter contre PNI bien entendu, mais aussi contre Meta, et ses annonces d'ailleurs peut-être concernant les IA génératives de pub, puisque Google comme Meta, c'est un poids lourd du secteur, et donc c'est pas si étonnant qu'il ait aussi pensé à offrir aux annonceurs toute une série d'outils génératifs, et ils en ont fait une présentation qui s'appelle AI Powered Ads, bien entendu, 2023, voilà. Les annonceurs fournissent un matériau de base, donc des images du produit, ou des vidéos, puis bien sûr des descriptions, des objectifs, voilà, et tout sera remixé par une IA pour produire des pubs customisés pour chaque cible. Donc vraiment, tu pourras avoir des pubs différentes pour toi et ton voisin, enfin c'est l'idéal, on va dire, de la publicité, quoi. Alors évidemment, les générateurs de pubs auront les mêmes problèmes que tous les autres algos du style, bien sûr, ils n'ont aucune idée de ce qui est vrai et de ce qui est faux, parce que c'est pas vraiment leur boulot. Google insiste sur le fait qu'il y aura des protections, on a des garde-fous contre ça, cela dit, si une IA n'est pas capable de mentir, on se demande comment est-ce qu'elle pourra faire de la pub. Donc finalement, c'est pas si grave. Google doit surfer sur la vague de la hype, la vague de la hype des IA, et proposer un maximum de services. Donc Bard, d'ailleurs, vient de recevoir la capacité de produire du code, comme son concurrent principal, donc il peut désormais écrire des programmes dans plus de 20 langages, du C++ au Python, passant par Go et JavaScript, et même des macro Excel. Ça peut vraiment servir. Et bon, comme toujours, la fonctionnalité est accompagnée d'un avertissement, attention, ce truc peut occasionnellement écrire n'importe quoi. Bon, c'est toujours bon de le garder à l'esprit, d'autant que le problème ne se limite pas aux codes qui compilent pas, ou qui produisent pas ce qu'on a demandé qu'ils produisent. Il y a aussi la possibilité, très probable, que le code produise des vulnérabilités, en fait, que le code soit perclut de vulnérabilités. Il y a une étude de l'Université du Québec qui l'a mesurée, elle a utilisé ChalGPT pour écrire 21 programmes en C++, en C, en Python, en Java, et 16 de ces programmes contenaient des failles, souvent des failles assez grossières. Par exemple, un code en C++ pour créer un serveur FTP qui ne contrôle pas les entrées, et qui donc permettait du coup de se balader assez facilement partout sur le disque sans autorisation. Cerise sur le gâteau, les chercheurs ont interrogé ChalGPT là-dessus, et il s'avère que ChalGPT, tu sais, c'est David Good Enough, tu vois ce que je veux dire ?
0:35:32 à 0:35:36 Guillaume Vendé :
Oui, bien sûr. Donc, tu lui dis...
0:35:36 à 0:36:08 Guillaume Poggiaspalla :
Voilà, donc tu lui dis, eh mais attends, tu vérifies pas là, c'est pas sécure, qu'est-ce que tu fais ? Et lui, il te répond, c'est bon, oh là là, si tu rentres dans les détails, ça va, évidemment, si tu rends n'importe quoi en entrée, il va faire n'importe quoi, c'est sûr, bon, mais si tu utilises le programme normalement, c'est bon, alors ça roule. Donc, en gros, ce qui m'a fait le plus marrer, c'est que le programme ne nie pas qu'il produit un code en mousse, ce qu'il te dit, c'est que ouais, le code il est en mousse, mais il faut pas trop appuyer dessus, c'est tout, et ça tient. C'est quand même magnifique. Donc on verra s'il barre des meilleurs, là c'est des ChalGPT, bon, on verra bien.
0:36:08 à 0:36:50 Guillaume Vendé :
Je trouve ton image avec David Good Enough assez excellente, effectivement. Ce que je retiens quand même de tout ça, et de l'intégration de l'intelligence artificielle côté Google, sa organisation, c'est que c'est plus, les boîtes tech sentent bien que dans très peu de temps, ça pourra plus être un side project, l'intelligence artificielle, il va falloir de plus en plus l'installer au cœur des services, et ça semble assez logique que Google ait cette orientation-là, mais évidemment c'est assez pertinent que tu puisses souligner les limites de l'exercice, ou en tout cas les défauts que ça va induire, il va falloir vivre avec. Alors il va falloir regarder aussi ce qui se passe à l'extérieur, et il y a Stability AI qui lance, Guillaume, un modèle de langage ouvert.
0:36:50 à 0:40:22 Guillaume Poggiaspalla :
On en parlait la semaine dernière, les modèles de langage open source, c'est des enjeux importants, parce qu'il ne faut pas laisser les grandes boîtes monopolisées au sens propre, complètement, un nouveau pan entier de la technologie. Donc je citais diverses initiatives pour aller au-delà des LAMA, LLM, Large Language Models, des modèles de langage qui soient vraiment libres, il y avait Dolly 2, Red Pajamas, etc, et un acteur de poids qui est déjà bien connu, qui se porte volontaire pour remplacer Meta comme référence de l'IA communautaire, c'est Stability AI. Ils sont déjà responsables de Stable Diffusion, et Stability AI a le projet de créer une famille de modèles de langage de toutes les tailles. Ça s'appellera Stable LM, donc Stable Language Models, et ça regroupera 6 modèles entre 3 et 175 milliards de paramètres, autant dire qu'il y en a pour tous les goûts et tous les matos. Donc, autre caractéristique super importante, ils seront, d'après Stability, ils seront entraînés optimalement, c'est-à-dire 800 milliards de mots pour les plus petits, et 1500 milliards de mots pour les plus gros. Et c'est comparable à LAMA, en fait, c'est vraiment ça qui fait la différence. Une des raisons pour lesquelles tout le monde adore LAMA, une des raisons pour lesquelles il est aussi efficace et aussi sophistiqué, même avec un nombre de paramètres assez faible, c'est qu'en fait, il est surentraîné. Tu vois, LAMA, il a des gros pecs, il a des tablettes de chocolat, il a des gros pecs et des énormes bras. C'est LAMA absolument gonflé au stéroïde, parce qu'au plus un modèle de langage est entraîné, au plus il est efficace, même s'il a moins de paramètres. Donc, ils vont essayer de conserver cet entraînement optimal, et donc chaque taille sera en 2 formats en plus. Donc il y aura un modèle fondamental, un modèle de base, c'est-à-dire un modèle qui ne fait que compléter les prompts, comme d'habitude, et un modèle conversationnel façon JLGPT. Et donc, ils seront raffinés par renforcement avec une combinaison de dataset. Alors d'ailleurs, la combinaison que j'évoque régulièrement dans les épisodes, c'est à dire ceux d'Alpaca, de Dolly, d'Anthropique, de Nomik, etc. Donc l'effort est important et pour l'instant, on a que des versions alpha de 3 et 7 milliards de paramètres, mais bon, on ne va pas porter un jugement maintenant, mais le projet est très louable et il pourrait devenir à terme une sorte de référence en la matière, s'il fonctionne bien. Et dans le même style, il y a aussi un truc qui s'appelle H2O AI, donc c'est un prestataire de cloud, un H2O AI, qui est donc cloud dédié à l'IA, bien sûr, donc avec des GPUs, etc., qui offre un petit peu de sa puissance de calcul pour créer deux modèles libres de 12 et 20 milliards de paramètres qui s'appellent les H2O H2O GPT. Alors ça paraît petit, 20 milliards, mais bien entraîné, encore une fois, c'est loin d'être ridicule. Il faut vraiment passer au lama sous-stéroïde. Et on voit bien qu'il commence à y avoir presque une course, en fait, pour offrir des alternatives libres à Google et Microsoft, et comme c'est quand même plutôt cool, ça fait plaisir. Donc on pourrait se dire que c'est un petit peu peine perdue, parce que le temps que les acteurs du livre s'organisent, tout ça, OpenAI aura déjà sorti, GPT5 encore plus énorme et tout ça, et que ce serait une course sans fin, mais peut-être pas, parce qu'en fait Sam Altman a donné une conférence au MIT la semaine dernière, et il a confié que la course à des modèles toujours plus gros était déjà finie. Il prédit que la prochaine génération des IA seront améliorées, oui, mais autrement qu'en étant toujours plus immenses. Il semblerait que GPT4 ait déjà saturé pas mal de trucs chez OpenAI et Microsoft, en fait. Donc ils ont sans doute saturé la puissance de calcul et le volume de données disponibles, déjà, et les performances supplémentaires qu'on peut extraire de toujours plus de paramètres, peut-être que ça sature aussi. Peut-être qu'on est en train d'arriver à un plateau. Ça ou ils n'arrivent pas à construire des datacenters suffisamment gros, suffisamment vite pour poursuivre, il y a peut-être ça aussi,
0:40:22 à 0:40:24 Guillaume Vendé :
ou ça serait pas rentable.
0:40:24 à 0:40:42 Guillaume Poggiaspalla :
C'est ça. Donc, en fait, GPT4 a peut-être un milliard de paramètres, mais, 1000 milliards de paramètres, mais c'est pas demain qu'OpenAI va en sortir avec 2000 ou 3000 milliards. Il faudra compter sur d'autres architectures, d'autres manières d'entraîner tout ça pour aller plus loin.
0:40:42 à 0:41:04 Guillaume Vendé :
Ça risque de coûter plus pour pas rapporter suffisamment, en tout cas pas sur cet angle-là, donc il y a d'autres modèles d'approche, d'autres types d'approche pour les améliorer. Ok, un truc qui m'a bluffé Guillaume dans la vallée, alors je ne l'avais pas vu, de mon côté je l'ai découvert avec le lien que tu avais mis dans les notes de l'épisode, c'est MiniGPT4 et ça c'est bluffant quand même, les exemples en plus sont très parlants. De quoi s'agit-il ?
0:41:04 à 0:41:14 Guillaume Poggiaspalla :
Puisqu'on parle de GPT4, parlons de son petit frère MiniGPT4. C'est lui. Il s'appelle comme ça mais c'est trompeur parce qu'en fait il n'y a rien à voir avec OpenAI ni rien.
0:41:14 à 0:41:26 Guillaume Vendé :
D'ailleurs, OpenAI voudrait bien arrêter que les modèles, que les algorithmes d'intelligence artificielle s'appellent les GPT quelque chose. Je crois que ça commence à leur poser problème, j'ai vu ça passer aujourd'hui.
0:41:26 à 0:44:46 Guillaume Poggiaspalla :
Il faut dire que GPT ça veut dire Generative Pre-trained Transformer, c'est-à-dire Transformer Pré-entraîné Génératif et en fait c'est ultra générique parce que tout le monde utilise les transformers, tout le monde les pré-entraîne et ils sont tous générateurs. Ce qui fait qu'on a des cérébrasses GPT, qu'on a effectivement des GPT un petit peu partout. En tous les cas, MiniGPT4, ils utilisent aussi les transformers pour le coup, mais ça n'a rien à voir avec OpenAI, ils ont juste repris le nom parce que c'est un modèle multimodal mais c'est un modèle multimodal de poche et donc c'est une idée super cool. On prend deux modèles figés, donc on ne les touche pas, on les prend tels quels. Donc il y en a un qui s'y connaît en texte et il y en a un qui s'y connaît en images et ensuite on les réunit avec un troisième réseau. Un troisième réseau de neurones qu'on entraîne pour qu'ils sachent faire le pont entre les deux et ce réseau-là en fait il n'est pas très très gros, il s'entraîne assez vite et au final on a un modèle multimodal qui comprend aussi bien les images que le texte. Concrètement, ils ont pris Vicuna, Vicuna dont j'ai déjà parlé, peut-être que vous connaissez, c'est un dérivé de Lama et ils ont aussi pris Bleep2 qui est un réseau spécialisé dans la vision et qui est offert par Salesforce. Au total, c'est un modèle de langage alors Vicuna c'est 13 milliards de paramètres donc il est relativement petit, Bleep2 qui n'est pas bien gros non plus et tout ça fonctionne sur une seule GPU avec 24 Go de RAM. 24 Go de RAM c'est une 3090. Alors oui, c'est du haut de gamme mais ça reste une carte grand public déjà donc c'est pas une carte complètement intouchable et pour le prix, vous avez des performances troublantes qui rappellent fortement les capacités de GPT-4 c'est-à-dire en mode multimodal c'est-à-dire qu'il peut décrire des images, il peut les utiliser comme contexte pour créer des slogans, pour créer des poèmes, pour donner des conseils de jardinage même si vous lui montrez une photo d'une feuille d'un truc et encore tout ça n'est pas optimisé. Il est probable que d'ici quelques semaines vous pourrez faire tourner cette espèce de Vicuna à une vitesse raisonnable et vous pourriez aussi faire tourner ce truc peut-être même sur CPU, je sais pas. En tout cas, ça va vraiment très vite. J'ai vu passer hier encore un autre modèle multimodal qui était basé sur Lama encore une fois, et qui s'appelle Lava Lava pour Large Language Envision Assistant et genre, il y a deux jours quelqu'un a posté ce truc sur GuinFace en version 4 bits, donc il fonctionne avec l'interface Ubaboga qui est une interface qui devient relativement populaire pour les modèles de langage et le modèle ne fait que 7 Go 7 Go, c'est vraiment extraordinaire et dans la foulée, il existe donc une extension pour cette interface web qui est un petit peu l'analogue de ProStable Diffusion d'Automatic 11.11, en tout cas c'est comme ça qu'elle se vit, et ça permettra de rajouter des images à des prompts vous utilisez l'extension et donc dans votre interface web, vous pouvez rajouter des images à des prompts, et vous pouvez utiliser ce modèle et ce qui est fabuleux, c'est que vous pouvez demander de mettre le modèle de langage sur la GPU et le reste donc ça utilise Clip, en l'occurrence ça peut tourner à cheval sur la GPU et le CPU ce qui fait que même avec 12 Go de VRAM c'est théoriquement possible d'avoir un modèle multimodal et c'est assez incroyable je ne sais pas à quel point ce truc est assez fiable pour être réellement utile, c'est vraiment le tout début mais quand même, un modèle de langage multimodal qui tourne en local sur un PC mainstream, c'est incroyable, je veux dire, il y a juste 2 mois on parlait de GPT-4, on était ébahis par les résultats ce truc qui décrit les photos qui décrit pourquoi une photo est rigolote là c'est sur ton PC, c'est extraordinaire donc ça préfigure vraiment bien, je pense le type d'assistant IA qu'on pourrait avoir un petit peu partout finalement sur toutes les machines d'ici 5 ans
0:44:46 à 0:45:34 Guillaume Vendé :
La claque si vous avez écouté l'épisode, alors si vous avez écouté l'épisode Robotique et IA, tant mieux pour vous si vous ne l'avez pas écouté, foncez l'écouter La concordance des temps c'est un épisode qui est dispo dans le flux du podcast et vous avez toute une rétrospective historique sur l'intelligence artificielle et surtout la robotique plus particulièrement la robotique d'ailleurs qu'a fait Guillaume Poggiaspalla et dedans il était question d'un truc qui est assez cool, qui moi me fascine toujours autant, je le disais d'ailleurs pendant l'enregistrement c'est le turc mécanique et on peut se poser la question quand on voit ces modèles de langage est-ce qu'il n'y aurait pas certains modèles de langage, parfois on se pose la question à quel point la restitution du texte est bluffante, s'il n'y a pas des humains derrière qui répondent aux promptes Guillaume, on n'est pas très loin de ça avec ce que tu as vu passer toi de ton côté
0:45:34 à 0:47:44 Guillaume Poggiaspalla :
C'est un article de REST en France que moi je n'étais pas du tout courant parce que je ne suis pas un exécutif parce qu'il y a des exécutives qui n'ont pas attendu les IA pour avoir des assistants très intelligents et très polyvalents parce qu'en fait ils les ont recrutés aux Philippines tout simplement, alors le plus marrant c'est qu'on les appelle quand même des assistants virtuels parce que tout se passe à distance, tout se passe par rapport à l'ordinateur, ils ne se voient jamais ce sont vraiment des assistants en viande comme vous et moi donc évidemment, avoir un assistant corvéable à merci, c'est le rêve de tout le monde et c'est la réalité si on a beaucoup de moyens ou alors si on recrute dans un pays où le salaire mensuel est de 300 dollars en moyenne parce qu'alors pour entre 1000 et 2000 balles, il y a une personne qui fera non seulement tout ce que vous voudrez mais en plus il sera ravi de le faire donc le secteur a doublé entre 2021 et 2022, donc aujourd'hui il y a énormément de compétition entre les candidats au poste d'assistant et donc c'est vraiment entre eux qu'il y a une compétition, il y a des douzaines de groupes Facebook pour trouver du boulot avec probablement des gardes et prix à la clé d'ailleurs ce qui arrange bien les recruteurs et de fait, eux aussi sont contents 60% de leur boulot peut être fait offshore et pas seulement le boulot, vous voulez que votre assistant surveille le babyphone pas de soucis, qu'il note la fréquence à laquelle vous allez faire caca, aucun problème je n'exagère pas, je n'exagère pas, j'ai même pas besoin d'exagérer, c'est ça qui est fou, c'est comme ça que certains CEO vontent les mérites de sous-traiter une partie de leur vie parce que voilà, certains tweetent la ressource la plus sous-évaluée pour un CEO c'est un exécutive assistant, et c'est comme ça qu'il peut écrire, surfer, cuisiner et lire chaque jour en plus de son boulot ultra prenant mais tellement épanouissant de successful director donc dans l'ensemble les assistants sont plutôt bien payés, ils ne se plaignent pas trop du coup, mais les arnaques et les soucis existent, le problème c'est qu'ils sont quand même très conscients qu'il s'agit d'une ubérisation et qu'ils n'ont aucune garantie d'emploi, pas de couverture sociale et que du jour au lendemain, ça peut être fini jusqu'à ce qu'on refasse appel à eux, d'ailleurs en n'importe quel moment ça me fait un petit peu penser aux contrats zéro heure qu'on trouve par exemple au Royaume-Uni, mais bon sauf que c'est encore moins cher en tout cas, tout ça fonctionnera jusqu'à ce que peut-être les nouveaux chats GPT fassent 80% de leur boulot pour encore moins cher, oui, peut-être que les assistants en venture et annonces pourront utiliser chats GPT comme assistants numériques et la boucle
0:47:44 à 0:48:06 Guillaume Vendé :
sera bouclée. J'allais le dire, effectivement c'est ce à quoi je voulais aboutir plus que des secrétaires, je ne sais pas si vous connaissez beaucoup de secrétaires qui notent la fréquence avec laquelle les gens vont faire caca, mais en l'occurrence ça va quand même un cran plus loin. L'impact sur le monde du travail, Guillaume, tu te penses aussi sur le sujet. Quelles sont les conséquences de l'intelligence artificielle sur les jobs ?
0:48:06 à 0:49:56 Guillaume Poggiaspalla :
Pour l'instant, l'inverse peut-être de ce qu'on croirait, en tout cas si on en croit un article de Motherboard qui est vraiment étonnant et qui illustre quand même que oui, voilà, chats GPT a automatisé pas mal de boulots mais aussi dans l'autre sens. Depuis 2020 et les confinements et le travail forcé à domicile, il y a beaucoup de gens qui ont profité pour prendre plusieurs boulots en télétravail. Et quand chats GPT est arrivé, il y a beaucoup qui l'ont essayé. Et quand on travaille, c'est prendre des rapports, des présentations, des storyboards, c'est tentant quand même. Il se trouve que grâce à l'aide de chats GPT, certains n'ont pas un ni deux mais quatre emplois à plein temps. Parce que je cite, chats GPT fait 80% du boulot à ma place. Donc Motherboard a interviewé plusieurs de ces cumulars, de ces gens qui sont suremployés comme ils s'appellent eux-mêmes, et qui exploitent chats GPT pour rendre ça possible. Sans que leur manager le sache, bien sûr. Tous ont souhaité rester anonymes. Parce que voilà, peur de perdre leur job probablement. Donc ils utilisent tous GPT4 avec bonheur pour à peu près tout. Rapports pour défendre des décisions financières, macro Excel, ou des fictions, ou des fictions co-écrites avec les IA. Il y a même un prof de fac qui gère secrètement une boîte de marketing digitale. Et on pensera ce qu'on veut de ces gens suremployés. Mais bon, il est probable que la période bénie qu'ils vivent en ce moment sera de courte durée. Parce que eux-mêmes en sont bien conscients. Ils tirent parti du fait que ces outils ne sont pas encore assez connus de tous. Et du coup, ils sont à l'inverse, suremployés. Mais quand les boss, les managers réaliseront leur existence et leurs possibilités, probablement tout va changer. Ils vont demander à leurs employés de les utiliser, et ils exigeront en retour deux fois plus de productivité. Donc là, plus question d'avoir qu'un job, probablement. L'un d'eux, d'ailleurs, Ryan, en a vraiment conscience, puisqu'il compare l'apparition de ChatGPT à celle des métiers à tisser, mécanisés, avec les machines. C'est un opérateur qui peut remplacer 100 ouvriers. Et donc, il espère être un opérateur.
0:49:56 à 0:50:10 Guillaume Vendé :
C'est de bonne guerre. Tout ça se base, Guillaume, et ça va nous permettre de conclure, cette rubrique IA sur de la donnée. Et les données gratos, il est grand temps de dire que c'est fini.
0:50:10 à 0:54:44 Guillaume Poggiaspalla :
Le nerf de la guerre pour le machine learning, c'est d'avoir des données pour pouvoir apprendre. La problématique des données, ça a été très présente dans l'actu cette semaine. On sait déjà que l'Union Européenne s'intéresse de près à ce que OpenAI fait de ses données, non seulement pendant l'utilisation de l'outil, mais aussi ailleurs. Et ce n'est pas ce que c'est que le début. Donc les régulateurs de tous les pays commencent à regarder de près ce qui se passe lors de la collecte des données en vue de l'entraînement. Donc des données qui sont collectées un petit peu partout et comment elles sont collectées, avant d'être digérées comme ça par les machines, c'est une question qui est vraiment importante en Europe parce que souvenez-vous qu'on est toujours censé nous demander notre avis avant de récolter nos données. Or OpenAI, il n'a rien demandé à personne avant de siphonner les 3 quarts de tout ce que les humains ont jamais écrit pour faire un GPT-4. Et c'est une grosse source de migraines potentielles d'ailleurs pour OpenAI parce que GPT-4 a probablement lu des choses à propos de vous. Il pourrait très bien lâcher des infos privées vous concernant, c'est possible. Il pourrait aussi lâcher des choses fausses et diffamatoires, ça c'est déjà vu. Et en plus, c'est pas forcément reproductible. Donc c'est très compliqué de le contrôler. Donc on a, et le pire, vous savez aussi qu'on a un droit à l'oubli en ligne. Si vous voulez qu'une information soit retirée de Google, c'est possible. Et techniquement c'est assez simple. Mais qu'est-ce que tu fais pour GPT-4 ? Bah comment tu retires quelque chose de GPT-4 ? Bah tu le fais pas. C'est pas possible de virer un truc après coup. Il faut le virer du dataset et après il faut tout réentraîner et c'est un cauchemar. Donc en gros, c'est pas du tout clair que chaque GPT soit soluble dans le RGPD et la loi européenne. Pas encore. Donc ce que ça traduit, c'est un énorme retard aussi dans la science de la donnée et la science de la récolte de la donnée. Je veux dire pas la data science forcément, mais ce domaine-là. Parce que dans le milieu finalement on considère que la partie noble c'est de créer les modèles, de créer les modèles eux-mêmes, les réseaux de drogue, tout ça, tout ça, et leurs architectures. Le reste, la récolte, l'agrégation, le filtrage, la déduplication, ça c'est des trucs soûlants qu'on veut sous-traiter aux Philippines, mais ça intéresse absolument personne. Néanmoins, maintenant que les IA et leurs frasques font les unes de tous les journaux et qu'une autre lettre ouverte appelle à l'organisation d'un sommet de l'IA pour décider de comment encadrer ces trucs, il va peut-être falloir commencer à se pencher un petit peu plus de ça. Bon, quoi qu'il en soit il y a déjà trois acteurs qui sont aussi trois sources majeures de données qui se sont réveillées cette semaine. Il y a Twitter qui pourrait attaquer Microsoft, qui aurait entraîné illégalement ces modèles avec ces données. En tout cas ça c'est selon Musk. On le savait aussi juste après d'ailleurs que Microsoft a dit qu'il ferait plus de pubs sur Twitter et aussi juste après que Musk a créé une boîte pour concurrencer OpenAI. On n'est jamais trop sûr de pourquoi il n'est pas content. Et il y a aussi Reddit et StackOverflow par contre, qui ont annoncé qu'ils réfléchissaient à une manière de monétiser l'accès massif à leurs données à des fins d'entraînement. Si vous faites une app, c'est pas un problème mais si vous prenez un accès massif, il faudra peut-être payer. Le corpus de Reddit a une grande valeur donc il n'y a pas de raison de l'offrir gratuitement aux plus grosses boîtes du monde qui vont certainement faire des produits très lucratifs. Donc voilà, toute cette problématique autour des données pousse à se poser pas mal de questions et même finalement sur ce qu'on veut des IA et sur leur nature même. Parce qu'on l'avait déjà évoqué et puis ça revient aussi dans les commentaires beaucoup et je suis d'accord, la terminologie elle est commode. La terminologie d'IA, d'intelligence artificielle, elle est aussi assez trompeuse. Parce que finalement ça pousse facilement à les considérer comme des sortes de créatures. Des entités qui font écho aussi aux images de pop culture qu'on connaît tous bien sûr. Mais ce ne sont pas des créatures, ce sont des outils. Et ce sont des outils qu'on peut voir d'une manière totalement différente d'ailleurs. On peut voir ça comme une forme ultime de collaboration sociale. Parce qu'en schématisant, on peut dire que GPT-4 a lu tout ce que nous avons écrit. En tant qu'espèce. Stable Diffusion a vu une bonne partie de tout ce que nous avons peint et dessiné en tant qu'espèce. Une grosse IA, un grand modèle par sa complexité et le volume sur lequel elle a appris. C'est une sorte de somme ou de synthèse de nos productions. Ce qui fait qu'en quelque sorte, nous avons tous participé, en tant que société et en tant qu'individu, nous avons tous participé à ces IA et donc à chaque production de ces IA. Chaque fois que chat.gpt produit un texte, nous y avons tous participé, peu ou prou, en amont. En quelque sorte, toutes les productions de chat.gpt sont des oeuvres collaboratives. Tous les développeurs du monde ont participé à divers degrés à ce que produit Copilot de Github. C'est le travail collectif de tous qui rend cette magie. Comme on disait au début, possible. A travers les données, les IA finalement nous relient tous ensemble. Mais bon, si c'est le cas, si ces productions sont des collaborations, alors, comme dans toute collaboration, il faudra pouvoir créditer les collaborateurs et il faudra peut-être aussi rémunérer les collaborateurs. C'est très compliqué, on n'y est pas du tout, mais c'est une jolie manière de le considérer.
0:54:44 à 0:55:46 Guillaume Vendé :
Il y a une autre oeuvre technologique collective qui a marqué l'avancement de l'humanité dans le monde de la technologie, c'est les encyclopédies type Wikipédia. Je pense que c'est un très bon exemple de collecte de connaissances, mais sauf que ça a été très conscientisé, Wikipédia. Tu vois, ça s'est fait dans une démarche très consciente du fait qu'on cumulait de la connaissance de manière collective. Le problème de l'intelligence artificielle sous l'angle de l'oeuvre technologique collective, c'est que c'est aussi assez inconscient et on n'est pas toujours justement conscients de la collecte de cette donnée et je pense que tu l'as bien mis en lumière. On va aborder la rubrique que vous attendiez tous, celle où on peut se moquer d'Elon Musk qui a racheté Twitter. Une section où on va parler des plateformes diverses et variées et forcément le sujet phare de cette rubrique, c'est bien évidemment les changements dans les badges de certification. Ça y est, on l'avait annoncé, patatras, cette semaine, beaucoup de badges bleus historiques ont apparu, mais pas tous, Guillaume.
0:55:46 à 0:57:32 Guillaume Poggiaspalla :
Oui, ça y est, Twitter a définitivement viré les anciennes vérifications pour faire de la place aux badges bleus et bien sûr, il y a eu du drama, bien entendu. Parce que, bien sûr que non, ça n'a pas été un processus simple et cohérent. Alors déjà, il y a eu l'affaire « block the blue checks », hashtag de collectif de protestation contre le badge bleu, le badge payant à 9,60€. C'était quoi leur truc ? Ils voulaient bloquer les comptes qui payaient pour le badge. Ça n'a pas plu à Elon qui a banni le compte « block the bleu machin » et ultime, Elon a donné gratuitement Twitter bleu aux plus gros partisans du mouvement « block the blue checks ». Ce qui veut dire qu'ils se bloquent les uns les autres, en fait. Donc, petit coup de chaos qui montre aussi à quel point la logique du badge bleu est celle de Musk et aucune autre. Parce qu'en fait, il y a plein de gens qui ont Twitter bleu, même s'ils n'ont pas payé, même s'ils ne l'ont pas demandé et même s'ils sont hostiles à Elon. C'est comme Stephen King, par exemple. Alors, il y en a plein d'autres. Il y en a aussi qui sont d'accord ou pas avec une gardière. Il y a William Shatner, il y a Tim Cook, il y a Lebron James, mais il n'y a pas Ben Stiller, il n'y a pas Taylor Swift. Enfin si, Taylor Swift, elle a son Twitter bleu, mais elle est abonnée. Twitter bleu, elle doit payer, comme Rihanna ou Miley Cyrus ou David Guetta ou Britney Spears. Mais donc, Elon paye pour Stephen King et pas pour Taylor Swift. Quel manque de galanteur et quand même, je veux dire, il n'aime pas Taylor Swift ? C'est n'importe quoi. Qui n'aime pas Taylor Swift ? Mais bon, OSEF, tout ça est totalement arbitraire. Il y a plein de célébrités qui censurent, je contre le principe, et qui ont décidé de ne pas payer, d'ailleurs, comme Hayley Berry ou François Hollande. Et c'est probablement le seul point de commun entre Hayley Berry et François Hollande. Il y a une petite ronde quand même, parce que finalement, il y a relativement peu d'abonnés pour l'instant. Il y en a dans les 630 000 pour, je ne sais pas, 400 et 450 millions d'utilisateurs actifs. Pour l'instant, ce n'est pas énorme. Est-ce que ça peut changer ? Parce que, ben voilà, payer son Twitter, désormais, c'est un petit peu l'anonymat assuré. On verra.
0:57:32 à 0:57:50 Guillaume Vendé :
C'est assez rigolo de voir ça de l'extérieur. On continuera à suivre parce que je suis sûr qu'il y aura un prochain épisode à ce drama du moment, comme il y en a aussi sur les médias en ligne qui utilisent Twitter pour partager un petit peu leurs travaux, mais qui ne sont pas toujours bien considérés, Guillaume, aux yeux d'Elon Musk.
0:57:50 à 0:59:20 Guillaume Poggiaspalla :
Oui, on continue dans l'arbitraire et le chaos avec les labels financés par le gouvernement. C'est toujours des problèmes de labels. Le Blue Checks, les labels financés par machin ou truc. Ils l'avaient rajouté à plein de grands médias, en fait. Donc, le label financé par le gouvernement, les médias du gouvernement, il y avait NPR, il y avait la BBC, il y avait PBS, CBC. NPR, c'était cassé la semaine dernière, on en avait parlé. Suivi de pas loin par CBC, donc c'était Radio-Canada, et PBS, c'est une TV publique américaine. Donc, ce sont des agences de journalistes indépendants et ils aimeraient bien que ça sache qu'ils sont indépendants. Donc, ces médias avaient le label Média d'État, sous-entendu vecteur de propagande, vecteur de propagande du gouvernement, mais ça c'était que jusqu'à vendredi. Après, c'est plus vecteur de propagande parce que vendredi, tout a disparu. Pour tout le monde. Aussi bien pour NPR que pour RT ou pour la TV chinoise. Plus aucune mention. Et c'est intentionnel, puisque la page qui recensait les règles d'attribution supposées des labels a aussi disparu du site. Donc, voilà, d'après le reporter Bobby Allen, c'est monsieur biographe de star en chef, Walter Isaacson en personne, qui serait derrière la décision. Donc, c'est celui qui a pondu 668 pages sur Steve Jobs, et qui va probablement... Pas que, bien sûr, qui va probablement encore deux fois plus sur Elon Musk, vu le rythme auquel il fait des conneries. Donc, il y a une biographie d'Elon Musk qui va sortir bientôt, si ça vous intéresse, par Walter Isaacson. Et c'est Walter lui-même qui aurait conseillé de tout virer. Alors, c'est sûr que c'est plus simple. C'est peut-être ça, ça va lui permettre de calmer un petit peu le jeu, d'éviter un déficit d'images encore plus prononcé. Donc, Walter règle l'oreille d'Elon Musk. C'est quand même un privilège rare.
0:59:20 à 0:59:40 Guillaume Vendé :
On conclut cette rubrique autour des plateformes et des réseaux sociaux avec un sujet qui m'intéresse énormément, Guillaume. Une vision, une analyse, est-ce que ce serait pas déjà la fin des réseaux sociaux ? C'est un peu dur de dire ça, quand on voit les masses de fréquentation des réseaux sociaux et les volumes d'argent qui sont brassés, mais quand même.
0:59:40 à 1:04:12 Guillaume Poggiaspalla :
Sur The Verge, ils sont à fond en brainstorming. Il y a une analyse réflexive sur l'avenir des réseaux sociaux. Il y a deux articles qui sont vraiment intéressants. C'est écrit l'un par un vieux routard du secteur qui a longtemps travaillé chez Snap et qui a des revenus, d'ailleurs. Il y a un autre qui a une réflexion sur ActivityPub, qui est le protocole de réseau social décentralisé qui propulse Mastodon, mais pas que. Je sais pas si c'est volontaire, mais les deux articles se répondent finalement assez bien. D'un côté, Eli Sandberger, l'ex de chez Snap, raconte sa désillusion. Quand il était embauché dans la boîte, il était persuadé que Snap finirait pas comme les autres. Il pensait vraiment que Snap serait différent, et puis finalement, ben non. Il explique ce qu'on a nous-mêmes dit pas mal de fois ici, que réseau social ne le reste jamais bien longtemps. Il commence comme ça, comme des plateformes pour connecter les gens entre eux, connecter les gens proches, etc. Mais le schéma est un peu toujours le même. Ils sont financés par du capital risque, qui demande toujours plus de croissance, et de retour sur investissement, de gros retour sur investissement, et pour ça, il faut des données pour faire beaucoup d'espace publicitaire, et il faut de l'engagement pour montrer les pubs. Et immanquablement, la bascule se fait, les interactions naturelles avec vos amis, qui peuvent pendre 10 minutes par jour, mais ça, 10 minutes par jour, ça suffit pas. Et oui, l'ordre chronologique aussi, et logique, chronologique et très logique dans lequel tu vois les trucs, ça suffit plus, tout ça, ça suffit pas. Il faut pousser du contenu, toujours plus de contenu, toujours nouveau, des contenus de gens que vous connaissez pas, mais qui sont à la mode. Et on vous envoie des notifications aussi, tout le temps, pour tout et rien, juste pour te faire ouvrir à l'appli, pour grappiller un peu de temps sur la plateforme, et pour avoir une chance de t'accrocher avec un contenu ultra optimisé. Et les réseaux sociaux deviennent des plateformes de diffusion. On passe au broadcasting. Et ce sont surtout des régies pubs qui luttent entre elles, pour votre attention et votre temps libre. Et ce cycle, d'après Elis, même Snap est dedans. Et c'est une malédiction du réseau social. Obligé de grossir, et de finalement muter, et de décevoir. Alors quelles solutions ? Elis avance en trop de convictions, celle du service payant. Si vous payez, on n'est pas obligé de monétiser votre attention, puisque vous payez déjà. La plateforme reste à ton service, en fait, et pas l'inverse. Il paraît que Facebook gagne 200 dollars par an et par utilisateur, donc il faudrait payer presque 17 dollars par mois pour compenser. Qui serait prêt à le faire ? Ce n'est pas déjà trop tard, d'ailleurs. Parce qu'on est tellement habitué à avoir tout gratuit. De l'autre côté, il y a David Pearce qui se demande si ActivityPub ne pourrait pas être le salut d'Internet. Depuis qu'on en parle, vous connaissez Mastodon. C'est un peu plus compliqué que Twitter. Et en fait, c'est même encore un peu plus compliqué que ça. Parce que le fait divers, c'est bien plus que Mastodon. C'est des dizaines de sites et des dizaines de réseaux, interconnectés. C'est un peu plus compliqué, mais c'est aussi beaucoup plus puissant. Je rappelle qu'ActivityPub, c'est un protocole pour les réseaux sociaux. Comme il y a un protocole pour les mails. Si vous utilisez Gmail, vous pouvez envoyer des mails chez Microsoft ou chez Yahoo. Yahoo et Mail existent toujours, je précise. Dans le cas d'ActivityPub, c'est pareil. Tant que les sites utilisent ce protocole, ils se parlent entre eux. Un exemple simple, Guillaume est sur Mastodon, son frère sur Peertube. Peertube, c'est YouTube décentralisé avec un système de commentaires, de likes, etc. Guillaume peut envoyer un like à une vidéo sur son frère, sur Peertube, de Mastodon, il peut lui répondre de Peertube et il le verra sur Mastodon. Un profil Mastodon, c'est un nom d'utilisateur et un nom de serveur. Les serveurs se parlent entre eux via un langage commun. Ce langage commun, c'est ActivityPub. Le Fediverse, c'est non seulement les instances Mastodon, mais c'est aussi les serveurs Peertube, les serveurs Playroma, Castopod, Pixelfed, et même des sites Nextcloud et WordPress avec les bons plugins. Il existe des alternatives Fediverse à plein de services web qui sont par ailleurs fermés. Par exemple, Pixelfed, c'est un Instagram. Playroma, c'est un Twitter mais avec plus de caractères. On peut mettre plus de choses, c'est 5000 caractères je crois. Distbin, c'est un Pastebin. Castopod, c'est un serveur de podcast audio, etc, etc. Tous ces services sont open source, potentiellement auto-hébergés, et ils intègrent le grand Fediverse au sens large. Ils sont interopérables, donc votre profil peut être transféré avec vos amis, vos follows, de serveur en serveur. Et c'est pas nouveau finalement tout ça. Ce sont des idées qui mûrissent depuis plus de 10 ans, mais aujourd'hui, après les scandales à répétition, des grosses plateformes, etc, il y a peut-être une ouverture pour un web différent finalement. Donc c'est vrai que Mastodon, il est en l'état, il est sans doute pas capable d'encaisser tout Twitter. Si tous les gens de Twitter migraient sur Mastodon, ce serait catastrophique probablement. Mais c'est peut-être pas la peine, parce qu'il faut peut-être pas essayer de trouver un remplaçant unique à Twitter. Parce qu'en réalité, Mastodon n'est qu'une composante d'un tout qui est beaucoup plus grand, et c'est peut-être bien ce Fediverse là, dans son entièreté, qui pourrait devenir une alternative crédible au web actuel.
1:04:12 à 1:05:10 Guillaume Vendé :
ActivityPub comme réponse sous la forme d'un protocole à une exode, peut-être qu'on verra sur les réseaux sociaux. Je sais qu'il y a EconomieSceptique avec qui on a fait un épisode spécial, qui est très critique sur Twitter et qui observe lentement mais sûrement la dégradation du réseau social au profit d'autre chose. Ce sera l'objet d'autres discussions dans d'autres épisodes, parce qu'on se doit immanquablement de conclure cet épisode avec une petite rubrique jeux vidéo. Tiens Guillaume, très rapidement, en une seconde, j'ai commencé à jouer à A Little To The Left. Il était en promo sur le Nintendo eShop 20% sur ma Switch. C'est trop cool, tu connais ou pas ? Pas du tout. C'est un puzzle game très reposant, très intéressant, très relaxant. Voilà, je vous invite à aller jeter un coup d'œil à A Little To The Left. Tu voulais commencer Guillaume avec des skins 16 bits pour des jeux 8 bits. Ça me rappelle ton livre
1:05:10 à 1:06:44 Guillaume Poggiaspalla :
Machines de jeu. C'est très marrant. Finalement, vous connaissez peut-être les hacks de ROM, vous prenez des ROM de vieux jeux, vous pouvez changer des éléments. Là, c'est un concept un peu différent. Vous prenez un skin, c'est-à-dire que vous changez les assets graphiques de jeux 8 bits par des assets qui sont un peu meilleurs. Evidemment, ça paraît un peu limité parce que la machine d'origine est limitée. Si c'est une NES, vous n'allez pas pouvoir faire des graphismes comme sur un Amiga. Sauf que si vous le faites sur un émulateur qui est prévu pour fonctionner avec ce type de re-texture, de re-master, ça marche. Et c'est le cas de Mesen. Mesen, c'est un émulateur NES par exemple, qui permet d'utiliser des éléments graphiques qui sont beaucoup trop évolués pour la NES en réalité. Ce qui fait que vous pouvez avoir une sorte de re-master de vos jeux NES. C'est exactement le même jeu, c'est exactement le même programme et la même logique. Il n'y a que les éléments graphiques qui sont changés pour des éléments graphiques de 256 couleurs, plus fins, etc. Mais qui sont supportés par l'émulateur qui ne serait pas supporté par la machine. Et en fait, vous avez quelque chose qui est à cheval entre une émulation et un re-master. Et c'est assez marrant. Donc il y a plein de packs de textures comme ça qui vous permettent de faire des re-skins de Donkey Kong, Castlevania, Zelda 2, Ninja Gaiden, etc. Toutes ne se valent pas. Il y a une vidéo sur Youtube, si vous voulez voir avant d'essayer ce que ça donne. Il y a une vidéo sur Youtube qui montre celles qui valent le coup et celles qui ne valent pas et c'est plutôt rigolo je trouve.
1:06:44 à 1:07:22 Guillaume Vendé :
Une sorte de DLSS du VIP, j'adore. Ce n'est pas du tout IA, c'est vraiment des choses faites à la main par contre. C'est effectivement pas un algorithme qui le fait. Très bien, merci et la vidéo est assez parlante. Un autre truc qui est parlant et dérangeant de par son rendu graphique, c'est un jeu qu'on a vu circuler. Je me suis demandé quand j'ai vu les premières images, j'avais vu ça passer, ça a aussi beaucoup circulé dans l'actu tech et jeux vidéo, si ce n'était pas inspiré d'images qu'on voit être partagées assez régulièrement sur les télégrammes et compagnie de la guerre en Ukraine avec une authenticité assez dérangeante. C'est Unrecord,
1:07:22 à 1:11:04 Guillaume Poggiaspalla :
Guillaume. Oui, ça n'a rien à voir avec la guerre en Ukraine, c'est un simulateur de flic, de police d'intervention, de soie, je ne sais pas trop. En tous les cas, Unrecord, c'est... En fait, Unrecord... Oui, Unrecord, c'est ça. Unrecord, c'est le jeu qui a été donné par un prototype, que j'ai vu il y a peut-être un an, sur Unreal Engine 5, ou peut-être six mois, je ne sais plus, qui était déjà un prototype de simulation immersive comme ça, qui était vraiment très très impressionnant, qui avait un color grading vraiment très réaliste, et une patte un petit peu sale comme ça, qui la rendait vraiment impressionnante, très très réaliste. Et là, en réalité, c'est le jeu, parce que ça va vraiment devenir un jeu, et c'est incroyable. Alors, ça a beaucoup fait parler, parce qu'au début, c'est tellement réaliste qu'il y a des gens qui n'y ont pas cru. Des gens qui croyaient que c'était de la vidéo. Bon, du coup, les développeurs ont dû montrer la version dans l'éditeur Unreal Engine, etc., donc c'est vraiment un jeu, il n'y a pas de problème. Et c'est vrai que, bon, déjà, il y a deux trucs, donc il y a deux raisons pour lesquelles j'en parle. La première, c'est bon, mais effectivement, c'est vraiment extraordinaire. On voit à quel point l'illumination ambiante et tout ce dont on parle, l'humain, Nanite et compagnie, là, sur Unreal Engine 5, on voit à quel point, vraiment, ça peut se traduire par des trucs impressionnants, par des trucs réalistes, et vraiment, quelque chose... Là aussi, si tu veux, comme avec les IA, il y a peut-être quelque chose qui a été franchi qu'on n'aime pas, qui a été fait. Et, bon, ça me fait penser que, effectivement, il y a un auditeur qui m'a repris à cause de ça, que je n'ai pas parlé de Overdrive, c'est-à-dire de Cyberpunk, de la nouvelle version de Cyberpunk 2077, qui est, elle, le RT Overdrive, donc, en gros, avant, on avait du Raytracing, là, maintenant, on a carrément l'illumination ambiante, etc., donc ils ont encore beaucoup amélioré les graphismes, si vous êtes capable de le faire tourner, évidemment, parce qu'il faut quand même une très grosse carte graphique pour faire tourner ça. Et oui, c'est intéressant de reparler de Cyberpunk 2077, et je pense qu'on en reparlera plus en détail dans un autre épisode, quand on aura un peu plus de temps, parce que, en fait, il y a vraiment quelque chose, il y a beaucoup de choses à dire. C'est-à-dire que, je ne sais pas si vous vous souvenez, mais j'avais dit qu'ils avaient fait Quake et Quake II en Path Tracing, c'est-à-dire avec des, comment dire, une illumination physiquement correcte, que c'était photoréaliste, mais avec les graphismes de Quake II. Et Quake II, on ne peut pas considérer que ce soit vraiment très très détaillé comme jeu. Et en, je ne sais pas, peut-être un an et demi, ils sont passés de Quake II à Cyberpunk 2077. Comment c'est possible, en fait ? Et ce n'est pas si évident. C'est-à-dire que ce n'est pas juste parce qu'il y a des plus grosses cartes. C'est vrai qu'évidemment, entre deux, on est passé de la RTX 2000 à la RTX 4000, mais ça ne suffit pas. Ça ne suffit pas pour, ça ne suffit pas tout simplement pour atteindre ce niveau de réalisme avec ce niveau de détail. Et en fait, il a fallu de la recherche derrière. Il a fallu des nouveaux algorithmes, il a fallu restore, il a fallu au moins des, voilà, il a fallu des nouvelles techniques pour arriver à ce niveau de réalisme, quoi. Et ce n'est pas fini. C'est-à-dire qu'il y a encore d'autres choses derrière. Il y a les Dural Radiance Fill, les Dural Radiance Cache, il y a encore d'autres techniques derrière qui permettent d'aller encore plus loin, encore plus vite. Et donc, il y a une sorte d'accélération aussi dans la fidélité graphique des rendus des jeux vidéo, ce qui est vraiment assez extraordinaire. Et donc, il faudra en reparler. Et oui, donc, bah oui, je... Merci à cet auditeur de m'avoir dit oui, il faut parler de Cyberpunk 2077 parce que c'est vraiment intéressant. En attendant, Unrecord, si vous ne l'avez pas vu, oui, c'est bluffant,
1:11:04 à 1:11:20 Guillaume Vendé :
bien entendu. Unrecord, c'est bluffant certes, mais il y a encore une fois cette vallée de l'étrange, ça ressemble tellement à quelque chose de réaliste. Ça en est presque dérangeant par certains aspects, même si c'est encore un cran au-dessus parce que c'est presque du photoréalisme que quelque chose d'un peu... C'est ça le truc,
1:11:20 à 1:11:32 Guillaume Poggiaspalla :
c'est-à-dire à quel point ça sera trop réaliste. Je veux dire, les jeux, tu vois, à un moment, les jeux vidéo, enfin, t'imagines si... Est-ce que tu pourras vraiment faire exactement la même chose que dans GTA V si GTA V était vraiment totalement photoréaliste ?
1:11:32 à 1:11:50 Guillaume Vendé :
Exactement, c'est hyper intéressant. Et spoiler, moi, ça me dérange à ce stade, mais peut-être qu'à l'avenir, ça va avancer et que notre perception va changer, elle va s'adapter à l'évolution technologique, c'est possible. Allez regarder la vidéo, vous nous ferez part de votre avis et puis on va terminer avec Final Fantasy Pixel Remastered, Guillaume. Oui, pour continuer,
1:11:50 à 1:12:34 Guillaume Poggiaspalla :
dans la fidélité graphique et le réalisme total, on peut parler de... Non, mais c'est juste une anecdote, mais Final Fantasy, donc, collection, c'est du 1 au 6, est sorti sur Switch et sur d'autres... sur toutes les machines, en fait. Et donc, il est sorti en dématérialisé et il est sorti aussi en matérialisé avec des versions qui sont des versions soit normales, soit collector. Et, je veux dire, ils en ont sorti tellement peu que déjà, ils sont entre 3 et 600 dollars sur eBay. Donc, en gros, les scalpers s'en donnent à cœur joie et je trouve ça hallucinant. Je comprends pas la logique de Square Enix parce que le fric que font les scalpers, c'est du fric que ne se fait pas à Square Enix.
1:12:34 à 1:12:36 Guillaume Vendé :
Ben, exactement. Donc, pourquoi ils en sortent
1:12:36 à 1:12:56 Guillaume Poggiaspalla :
pas plus ? Donc, ça, déjà, ça me tue. Et le plus beau, si tu veux, c'est que quand on parle de 600 dollars, pour 600 dollars, vous pouvez acheter une vraie Super NES et les vrais jeux d'origine, à mon avis. Donc, c'est vraiment mis d'une absurdité totale. Bon, ben, écoute, c'est... Prenez-en dématérialisé, vous serez emmerdés.
1:12:56 à 1:13:06 Guillaume Vendé :
C'est difficile de comprendre un petit peu, effectivement, pourquoi est-ce qu'il n'y a pas eu un choix de distribution plus large ? T'as pas succombé, toi, c'est pas trop ton truc, j'imagine ?
1:13:06 à 1:13:16 Guillaume Poggiaspalla :
Honnêtement, j'ai déjà joué à plusieurs, si ce n'est tous, et j'ai lésé, d'ailleurs, probablement sur d'autres machines, j'ai mis rien à foutre. Même si ça a l'air sympa, mais honnêtement,
1:13:16 à 1:13:56 Guillaume Vendé :
rien à foutre. Je me suis demandé s'il n'y avait pas, parce que sur la Switch, la gestion multiconsoles, etc., est quand même assez relou, quand tu achètes un jeu et que t'as deux Switchs, qu'elles sont cachés un peu sous les mêmes comptes familiales, c'est un peu l'enfer avec les profils utilisateurs. Tu te retrouves vite amené à devoir acheter deux fois le jeu en dématérialisé, ce qui est complètement ubuesque pour une même famille, et j'imagine qu'il y a aussi un engouement sur la cartouche. Mais là, dans ce cas-là, je ne vois pas trop comment ça pourrait jouer, parce que je ne suis pas certain qu'il y ait plusieurs membres d'une même famille qui veulent se battre pour le jeu Final Fantasy Pixel Remastered.
1:13:56 à 1:14:06 Guillaume Poggiaspalla :
Il y a des rééditions qui sont déjà apparues sur Game Boy Advance ou sur PSP. Honnêtement, c'est moins cher d'acheter une PSP, une Game Boy Advance et les jeux d'origine que d'acheter la
1:14:06 à 1:15:36 Guillaume Vendé :
collègue. — Ne succombez pas à ça et ne donnez pas du crédit à ce truc. Merci infiniment, Guillaume, pour la préparation de cet épisode de Tech Café qui s'est avéré une fois de plus — j'en doutais pas — intéressant et plaisant à enregistrer. De votre côté, vous qui nous écoutez, je vous invite évidemment à vous abonner à Tech Café si vous n'écoutez que cet épisode pour la première fois. Vous ne manquerez pas comme ça les prochains épisodes et notamment les dossiers de Guillaume Poggiaspalla, les dossiers thématiques — on a donné un exemple tout à l'heure avec l'épisode sur la robotique — ou les épisodes suppléments. Dans tous les cas, ces épisodes complémentaires à la veille Hebdo sont diffusés le vendredi soir en général pour tout le monde et quelques jours avant pour les soutiens sur Patreon. On compte sur vous pour aller consulter dans le flux du podcast parce qu'il n'y a pas que les épisodes Hebdo avec l'actu chaude qui est vite obsolète mais il y a aussi plein d'autres contenus qui sont intéressants à écouter ou à réécouter. Je vous rappelle bien évidemment qu'on est très content de vous voir rejoindre Patreon.com slash Tech Café pour soutenir Tech Café et nous accompagner dans le travail qui consiste à vous mettre à disposition cette émission jour après jour. On compte sur vous également pour discuter avec nous sur le serveur Discord techcafé.fr slash discord et puis pour aller déposer, comme je vous le disais en intro, des avis sur les apps de podcast. C'est très précieux pour nous. On vous invite également à interagir avec nous à titre individuel. Guillaume, tu vas pouvoir nous dire où est-ce qu'on peut te retrouver.
1:15:36 à 1:15:42 Guillaume Poggiaspalla :
Ben non mais moi je suis en train de chercher un skin HD pour Adventure of Lolo. C'était sympa Adventure of Lolo. Quelqu'un a joué
1:15:42 à 1:15:46 Guillaume Vendé :
Adventure of Lolo ? C'est quoi Adventure of Lolo ? Tu me fais peur. Oh là là. C'est un jeu NES.
1:15:46 à 1:15:54 Guillaume Poggiaspalla :
C'est un jeu NES de puzzle game. C'est très sympa. C'est un puzzle game action. C'est un puzzle game avec un petit personnage bleu comme ça. J'ai très bon souvenir d'Adventure of Lolo.
1:15:54 à 1:16:18 Guillaume Vendé :
Très bien. Je m'attendais à autre chose. Un truc un peu plus olé olé. Tu vois, les aventures de Lolo. Bon pardon. Je suis Guillaume Vendée. Vous me retrouvez sur Guillaume Vendée. Toi t'as sûrement même. Je suis pas sûr que... Je suis pas sûr que ça y ait autant de... Bref, on verra. On creusera. Je suis Guillaume Vendée. Vous me retrouvez sur guillaumevendée.fr et sur les réseaux sociaux. Merci beaucoup pour votre fidélité. On se retrouve dans quelques jours pour un prochain épisode de Tech Café. Ciao à toutes et à tous. Ciao à tous.