Transcription automatique de l'épisode 315

Via Whisper (OpenAI), faster-whisper (github/guillaumekln) et Pyannote-audio (github/pyannote). Basé sur une idée de Ruhollah Majdoddin.



0:00:00 à 0:02:38 SP2 :
Vous écoutez TECHCAFE, votre rendez-vous sur l'actualité des nouvelles technologies. Nous sommes le 28 mars 2023, et c'est l'épisode 315. Je suis Guillaume Vendée, podcaster technophile enthousiaste, et je vous dois une confession. Je suis tombé ce week-end sur les réseaux sociaux, comme probablement une bonne partie d'entre vous, sur des photos du Pape avec une tenue hyper originale, avec une très grande robe façon doudoune. Et j'y ai cru. Oui, j'y ai cru pendant quelques minutes. Je me suis dit que l'Église n'était plus cette institution rigide et austère qu'on nous présente souvent, mais qu'elle s'était sacrément mise à la page et vachement modernisée. Mais non, il s'agissait, vous l'avez compris, juste d'une image réalisée avec Mide Journée, un mirillage particulièrement convaincant si on ne regarde pas dans les détails. Il m'a fallu pas mal de temps avant de comprendre et réaliser que je m'étais fait avoir et qu'il s'agissait d'une image générée par l'intelligence artificielle. Une manifestation de plus de la bascule à laquelle on assiste depuis l'été dernier dans le monde d'après. Quelque part, je me posais la question, et si le métaverse était finalement la réalité altérée par l'intelligence artificielle à tous les niveaux. Allez savoir, je me dis que l'Église a en tout cas un coup à jouer. Et si ils développaient vraiment la doudoune pensée par Mide Journée, après tout, on vous laisse y réfléchir. Inutile de dire, donc, on va encore parler d'intelligence artificielle dans cet épisode. Et pour ça, je retrouve celui qui a préparé savamment le conducteur de cet épisode, qui a fait une veille très complète et qui a des choses à dire à ce sujet. C'est Guillaume Poggiaspalla. Salut, Guillaume, comment vas-tu ?
0:02:38 à 0:02:43 Guillaume Poggiaspalla :
Écoute, très bien. Mais oui, toujours des choses à dire, extrêmement bavard. Désolé, je...
0:02:43 à 0:02:49 Guillaume Vendé :
Alors, oui, c'est parce que, oui, forcément, on est bavard. On fait du podcast, mais aussi parce qu'il se passe tellement de choses tout le temps.
0:02:49 à 0:02:52 Guillaume Poggiaspalla :
Le nombre de news cette semaine, c'est à l'enfer.
0:02:52 à 0:06:01 Guillaume Vendé :
C'est captivant. J'adore, j'adore. Merci avant tout, avant qu'on les aborde avec vous, à plusieurs personnes qui ont pris le temps d'aller ajuster leur soutien sur Patreon ou même s'inscrire pour la première fois. Alors, tapis rouge à ceux qui se sont inscrits sur Patreon.com slash Tech Café. Nicolas Roquet, Dominique Van Lendrich. Je suis désolé si j'écorche ton nom de famille. FR, qui est une personne que je connais bien au travers des réseaux sociaux. Je vous invite d'ailleurs à aller jeter un coup d'oeil à son blog. FR, ça s'écrit E-I-F-F-A-I-R.FR. C'est très bien écrit, très bien présenté. J'aime bien les blogs en plus. Johan Soulas, Maxime, Jérémy, Coat-Hélène, Nutrix. Merci beaucoup. Vous avez été donc du coup très nombreux à aller sur Patreon.com slash Tech Café. Merci beaucoup pour votre soutien. On rappelle à ceux qui ne connaîtraient pas que Patreon, c'est une page et un site Internet sur lequel vous inscrivez et puis vous acceptez de contribuer un petit peu à la hauteur de ce que vous pouvez selon les paliers disponibles pour financer le podcast. Et donc, vous recevez en échange un flux du podcast sans la pub. Et puis surtout, l'immense honneur et privilège d'être cité en introduction des épisodes, mais également de contribuer à la pérennité de cette émission. Et puis, j'en profite aussi pour citer un avis sur Apple Podcast qui a été déposé la semaine dernière, le 23 mars, par Félix Lumain, ça s'écrit F-E-L apostrophe X, Félix Lumain. Je pense qu'il doit avoir un chat qui s'appelle pareil, peut-être. Il dit au-delà d'un résumé de l'actualité tech très exhaustif, la réflexion et l'analyse derrière chaque, chaque étant en majuscule, nouvelles sont d'une profondeur rare. J'apprécie particulièrement votre recherche de vérités factuelles comme des mini-documentaires sourcés qui évitent de tomber dans le piège marketing. Je dirais même, moi, pour ma part de communication, des géants de la tech. Merci beaucoup pour votre travail, désormais indispensable pour nourrir ma passion et ma veille technologique. Félix, tu ne peux pas savoir à quel point ça fait plaisir à lire. Je sais que Guillaume, là, qui écoute et qui découvre peut-être cet avis et qui passe pas mal d'heures à préparer les chroniques et les contenus éditoriaux des épisodes de Tech Café, est évidemment tout sourire et tout plaisir à l'écoute de cet avis. Donc, évidemment, continuez à nous faire plaisir, continuez à faire plaisir à Guillaume et rendez-vous sur Apple Podcast, sur Podcast Addict ou même allez déposer des petites étoiles sur Spotify. Et puis, on vous rappelle que vous pouvez commenter sur techcafé.fr sur les articles qui accompagnent l'apparition des épisodes et discuter entre vous et avec nous sur Discord, techcafé.fr, slash Discord, Guillaume, sans autre forme de procès. On va forcément beaucoup parler d'il y a, ça concentre énormément du contenu des épisodes. À défaut de se rappeler Nucléaire Café, on pourrait un jour imaginer pourquoi pas si on était suicidaire d'un point de vue de référencement de podcast, se renommer en Intelligence Artificielle Café. Évidemment, ce n'est pas du tout à l'ordre du jour, vous l'avez compris, mais quand même, on a quelques petites choses à aborder qui ne sont pas d'intelligence artificielle. Tu voulais évacuer ça un petit peu comme un apéritif, j'ai l'impression, dans une première rubrique, Guillaume, et tu t'es penché notamment sur quelqu'un qu'on connaissait bien du temps de Twitter, qui est Chuck Dorsey. C'est celui qui a quelque part créé Twitter, qui a été le CEO, mais qui est sur d'autres projets maintenant.
0:06:01 à 0:07:04 Guillaume Poggiaspalla :
Écoute, on va faire une petite rubrique sans IA, tu sais, voilà, pour le goût, pour changer un petit peu. Bon, elle ne va pas durer très très longtemps, rassurez-vous, enfin quand même. Si on commençait effectivement par une histoire amusante à propos de Bloch et de Jack Dorsey, parce que qui est-ce qui devient Jack en fait ? C'est vrai ça, après qu'il ait pris la route. On sait qu'il n'est plus PDG de Twitter depuis un moment, et que même quand il était encore, le board le trouvait désengagé. Il avait la tête ailleurs, en particulier dans sa boîte Square, devenu Bloch en 2021, dont il est d'ailleurs devenu, comme il le dit lui-même, le Blockhead. Bon, évidemment, c'est un jeu de mots, parce que Blockhead, ça veut dire débile en fait, en anglais, c'est un truc pour dire stupide. Donc Square est devenu Bloch, pour passer dans la dimension, voilà, numéro Web 3 à terme, évidemment. Mais il y a une temps, Bloch d'ailleurs, même se voulait créer une sorte de système ouvert pour faciliter les minages des Bitcoins, je ne sais pas trop où ça en est. Jack a toujours été un prosélyte à façon de cette crypto, mais dernièrement, il a fait l'actu à cause d'un rapport accablant de Hindenburg-Grossiach. Alors, qui c'est ceux-là ? Ce sont des short-sellers. Donc en fait, ils gagnent de l'argent en pariant à la baisse sur un titre particulier.
0:07:04 à 0:07:10 Guillaume Vendé :
Et ils sortent des articles qui démontent des entreprises, donc du coup, ça donne du crédit à leurs investissements.
0:07:10 à 0:09:32 Guillaume Poggiaspalla :
Et c'est ça le truc, c'est que tu peux short-seller, tu vois, tu peux parier comme ça. Si tu le sens, tu sens qu'une boîte est un petit peu molle du genou, ben voilà, tu vas parier dessus à la baisse. Et si tu as raison, tu peux gagner pas mal d'argent. C'est pas très gentil de parier sur le malheur d'autrui, mais eux, ils vont carrément plus loin, puisque quand ils sentent qu'une boîte a une faiblesse, ils enquêtent dessus, comme des journalistes. Mais ils le font pas pour la gloire ou pour le Pulitzer, ils le font pour l'argent, pour beaucoup d'argent même. Et du coup, ils le font plutôt bien et ils prennent leur temps. Donc là, ils ont quand même passé deux ans à éplucher les dossiers sur bloc, et le résultat n'est pas très flatteur, mais pour eux, c'est peut-être un jackpot, si j'ose dire. Parce qu'ils n'en sont pas à leur coup d'essai, ils ont déjà grillé Nikola et Lordstown Motors, et les enquêtes qui ont suivi, les enquêtes de la justice qui ont suivi, en leur ont donné raison. Donc en gros, ce sont des prédateurs qui tentent d'achever leur proie, donc le rapport est très long. On peut résumer le tout en disant que bloc a de très gros problèmes de fraude, donc il est pas très regardant si tu veux, il semble assez facile d'avoir une carte bancaire au nom d'à peu près n'importe qui, Donald Trump, Elon Musk, ou Jack Dorsey lui-même en fait. Hindenburg a même publié une photo d'une magnifique carte Visa au nom de Donald J. Trump. Au-delà de ça, il faciliterait aussi la fraude à grande échelle via Sonap, par exemple que l'état du Massachussetts aurait dû faire 69 000 oppositions à la banque qui est derrière l'appli qui gère tout ça, et donc ça concernerait des arnaques au chômage en réalité. C'est quand même beaucoup, c'est beaucoup plus que pour d'autres banques qui sont pourtant bien plus grosses, et en fait ça concerne aussi plusieurs états. Donc en gros, bloc est dans le laisser faire, même quand on lui fait remarquer qu'il y a un problème. Donc il contrôle peu ou mal, et le département antifraude, je sais pas, peut-être qu'il a été optimisé par Elon Musk, donc voilà, il marche pas très bien. Hindenburg insiste aussi sur la com un petit peu particulière de bloc, puisque Dorsey s'est vanté d'être cité dans des chansons par plein de rappeurs, et bon, c'est-à-dire que les rappeurs, ils aiment bien toujours être un petit peu gangster, être un petit peu ghetto, et donc ils se vantent eux-mêmes d'être des arnaqueurs, donc du coup ça donne une association d'images qui est un petit peu étrange. Alors vrai arnaque ou pas, c'est moins clair dans le cas des rappeurs, mais bon, bloc évidemment menace d'attaquer Hindenburg Research en retour, en justice. Bon, il va y avoir du sang, moi je sais pas si Dorsey en sortira grandi. Ce qui est sûr, c'est que l'action de bloc à Daviesay le 23 mars, elle est passée à 58 dollars, alors qu'elle était à 77 le jour d'avant, donc je suppose que les shorts à l'heure ont déjà gagné de toute façon.
0:09:32 à 0:09:39 Guillaume Vendé :
Je voudrais juste être sûr de bien avoir compris, c'est vraiment une banque ou est-ce que c'est un service de crypto, Guillaume ?
0:09:39 à 0:09:46 Guillaume Poggiaspalla :
Non, c'est un service de paiement en ligne, et sur mobile aussi, mais c'est pas particulièrement spécifiquement crypto.
0:09:47 à 0:10:49 Guillaume Vendé :
Et ce qui est assez intéressant, je trouve, c'est qu'à partir du moment où tu fais du paiement aux Etats-Unis, dans à peu près n'importe quel pays occidental, même oriental j'imagine, en fait, dans plein de pays, t'es un petit peu encadré quand même, t'as quand même normalement besoin de montrer un petit peu pas de blanche, t'as de la régulation qui surveille un petit peu ce que tu fais, et en l'occurrence, je trouve ça dingue si jamais c'est avéré qu'il y ait autant d'éléments frauduleux, ça démontre aussi le fait qu'il y a des trous dans la raquette sur la réglementation et la régulation des secteurs des paiements, notamment aux Etats-Unis. Mais bon, très bien. Merci pour ce point d'actualité autour du projet de Jack Dorsey. En attendant, on va aller regarder un sujet qui a pu honnêtement faire rire quand on l'a suivi et en même temps qui fait très peur, je trouve. C'est l'audition du Big Boss de TikTok auprès de la chambre des représentants, si je dis pas de bêtises, aux Etats-Unis. Le pauvre s'est fait auditionner, mais il s'est fait démonter. Les questions étaient hubuesques. Je ne sais même pas si les questions attendaient des réponses, Guillaume.
0:10:49 à 0:11:58 Guillaume Poggiaspalla :
Ben ouais, alors il s'appelle donc Chou Chi Chou, il est PDG de TikTok et il est passé devant le Congrès, il me semble, et je pense qu'après, il a dû partir, il a dû partir en tas d'assaut, se faire masser parce que ça n'avait vraiment pas l'air agréable. Il fallait l'évacuer un petit peu après. Donc, il a quand même réussi à créer une union transpartisane contre lui, ce qui est une prouesse. Il avait déjà mouillé le maillot. Pourtant, pour défendre TikTok, il avait payé le voyage d'influenceurs à Washington. Il était apparu sur le réseau, sur son réseau, dans une vidéo où il demandait de laisser plein de commentaires, comme une démonstration de force d'à quel point son service manquerait aux dizaines de millions d'utilisateurs américains. Mais il faut bien le reconnaître, avant même qu'il ouvre la bouche, à peu près tous les membres du Congrès étaient déjà convaincus que TikTok était à la solde du gouvernement chinois et qu'il est un espion sous couverture. Pourtant, Chou lui-même est Singapourien. Il a étudié en Angleterre et il a tenté d'insister sur le fait qu'il n'était pas chinois. Il a un profit financier très international. Donc, il a travaillé chez Goldman Sachs, chez DST Global, qui est d'ailleurs une boîte de capital risque de la Silicon Valley, qui a investi beaucoup dans ByteDance en 2013. Et d'ailleurs, c'est Chou qui a dirigé une équipe qui fera partie des premiers investisseurs de ByteDance.
0:11:59 à 0:12:01 Guillaume Vendé :
On l'appelle un ByteDance, c'est la maison mère de TikTok.
0:12:01 à 0:12:48 Guillaume Poggiaspalla :
Oui, tout à fait. C'est exactement ça. C'est la maison mère de TikTok, qui est donc une boîte chinoise. Et bon, après, il a bossé chez Xiaomi et enfin chez ByteDance comme directeur financier et puis comme PDG de TikTok. Mais ça ne l'a pas vraiment aidé, on va dire. Pas dans six heures, il a été attaqué un petit peu surtout sur ses relations avec le parti communiste chinois, l'espionnage des citoyens américains, la censure de personnalités américaines, la censure du génocide ouïghour, l'infox, les faits néfastes sur les jeunes, les challenges dangereux, l'addiction, le ciblage publicitaire, la surabondance de pubs. Bon, des accusations qui sont parfois franchement injustes, parce que dans tout ce que je viens de citer, bon, voilà, c'est pas comme si les challenges débiles, ça avait attendu TikTok pour exister. C'est pas comme si la pub ciblée et omniprésente n'était pas présente absolument partout, ni l'infox, ni le laxisme.
0:12:48 à 0:12:53 Guillaume Vendé :
Je dirais même que c'est des inventions de services américains, même pour aller plus loin, quelque part. Donc bon.
0:12:53 à 0:16:44 Guillaume Poggiaspalla :
Complètement. Puis bon, le laxisme en ce qui concerne la gestion de données personnelles n'a pas accueilli TikTok du tout. Bon, on a quand même un petit peu l'impression que le PDG a servi de punching ball, même si effectivement, des questions demeurent sur les possibilités d'accès aux données. D'ailleurs, il n'a pas su répondre à toutes les questions. Et bon, nous, c'est vrai qu'en tant que podcast tech, voilà, lambda, on n'est pas en mesure de dire à quel point les accusations d'espionnage sont vraiment fondées factuellement, à quel point c'est étayé par des dossiers, des agences de renseignement, des informations qui peuvent tout à fait être non publiques, bien entendu. Mais c'est vrai que ce qu'on peut dire, c'est que bon, d'un côté, déjà, les Américains ne sont pas les derniers pour espionner les gens à l'intérieur de leurs frontières et à l'extérieur. On se souvient quand même des révélations de Snowden et de l'affaire Prism. Est ce que ça a fondamentalement changé en 10 ans? C'est pas clair du tout. Et on se souvient d'ailleurs, il y a aussi deux ans du scandale Crypto AG, Crypto AG, qui n'est pas du tout une boîte crypto, c'est une boîte de chiffrement en Suisse qui appartenait à la CIA et au renseignement allemand. Donc, en fait, ça leur a permis d'espionner des dizaines de pays pendant 40 ans. Mais de l'autre côté, il n'est pas non plus question de mettre les deux camps au même niveau. Je veux dire que le parti communiste chinois, disons, s'implique beaucoup plus dans la vie et la gouvernance des entreprises privées qu'à l'ouest. Et l'armée est aussi une source de financement beaucoup plus importante pour le secteur privé aussi. En ce qui concerne le renseignement, c'est même plutôt strict. Si une agence demande, c'est une agence de renseignement, demande à Google ou même si une agence gouvernementale demande des renseignements à Google, Google peut contester, puis il faut un mandat, tout ça. En Chine, ce n'est pas une option. Tu n'as pas, tu ne dois pas dire non, c'est pas une option de dire non. Je ne suis pas spécialiste en droit, je ne lis pas le chinois, c'est vrai, mais si on en croit tout simplement Wikipédia et ce qu'elle dit de la loi qui régit le renseignement en Chine, tout chinois doit, où qu'il soit, souscrire aux demandes d'informations, aider dans la mesure de son possible à obtenir les renseignements et le faire secrètement, ne pas le divulguer. Ça, c'est l'article 7 et l'article 10, d'ailleurs, pour l'aspect international. Donc, en théorie, chinois à qui le parti demande des renseignements, même s'il est aux Etats-Unis ou à Singapour, il devra les fournir et ne pas divulguer qu'il les a fournis. C'est ce qui rend nerveux, je suppose, un petit peu les Américains, les Occidentaux en général, même dans le cadre du projet Texas. En particulier, par contre, à quel point TikTok est vraiment une menace concrètement, dans le sens où il pourrait fournir plus d'infos qu'à la Chine, qu'elle ne pourrait déjà très facilement en obtenir par d'autres moyens, voire tout simplement en allant sur Internet avec les données publiques qu'il y a déjà. Honnêtement, j'en sais rien. Il y a quand même cette histoire d'espionnage de journalistes qui est toujours en procès, même si le personnel en question a été renvoyé depuis. Bon, évidemment, c'est très difficile, tout ça, d'en discuter de manière plus et plus approfondie que ça, mais c'est vrai que ce qui est certain, c'est que si on avait un idéal de Web mondial ouvert, tu vois, d'accès universel à l'information, c'est quand même franchement désolant. Quand Facebook et Twitter ont été bannis de Chine, on a parlé de Splinternet. Et aujourd'hui, la fracture ne fait que s'ouvrir de plus en plus, d'autant que TikTok n'a rien de spécial. Je veux dire que toutes les applications d'origine chinoise sont concernées maintenant. Les chaines, les Temu, c'est pareil. Et d'ailleurs, il y a plein d'autres applications moins connues qui se précipitent pour créer des antennes en Occident ou en Europe pour apparaître moins chinoises et essayer de passer sous les radars. Mais bon, c'est vrai que c'est désolant et on pourrait imaginer mieux. On pourrait forcer, par exemple, pourrait pousser à l'ouverture, à la transparence de TikTok et de tout le monde, en fait, pour le coup, de tout le monde, de toutes les plateformes. Non seulement il y aurait l'enjeu de stocker les données localement, mais aussi l'ouverture pour qu'on puisse à tout moment vérifier que tout va bien, etc. Mais finalement, tout ça, c'est pas ce qui s'annonce. Ce qui s'annonce, c'est que tout va rester opaque, comme d'habitude, et qu'on va lutter contre la Chine en faisant finalement comme elle, c'est à dire en interdisant. Et c'est assez dommage. Mais bon, finalement, il y en a quand même un qui doit être content, qui doit vivre en même sa meilleure vie. Parce qu'un TikTok interdit aux Etats-Unis, c'est quand même une putain de bénédiction pour Mark Zuckerberg. Je pense qu'il a regardé l'intégralité des six heures en slip en dégustant plusieurs bouteilles de
0:16:44 à 0:17:53 Guillaume Vendé :
chardonnay. C'est fort possible. Ce qui est terrible, Guillaume, je trouve dans cette audition, c'est que les questions comme tu l'as, comme tu l'as survolé, en fait, sont assez légitimes. Les thèmes qui ont abordé sur le fond de l'intention sont légitimes. La dangerosité, le caractère addictif qui reste à être prouvé sur le plan éventuellement médical ou sociétal. C'est des vraies belles questions. Comme tu le dis, la transparence sur le fonctionnement, la conservation des données. Dans quelle mesure est ce que ça sert à une forme d'espionnage ou d'intelligence? Tout ça, c'est des vraies bonnes questions. Mais la manière dont ça a été posé sous un angle mitraillette de questions, sans attendre aucune, en n'ayant aucune volonté d'écouter la réponse, fait que du coup, ça dessert presque l'intention. Et c'est un petit peu ce qui est dommage. J'ai l'impression quand même que c'est la conclusion à laquelle arrivent toutes les personnes qui ont pu observer un petit peu ce sujet là. Mais je ne sais pas ce qui va se passer d'un point de vue politique. J'ai l'impression qu'ils sont très satisfaits de cette audition et que ça va permettre de cautionner une action. On se dirigerait peut être, pourquoi pas, sur un bannissement de TikTok aux Etats-Unis. Moi, ça me paraît assez dingue. Ce serait un précédent incroyable, mais ça en prend la direction quand même.
0:17:53 à 0:20:36 Guillaume Poggiaspalla :
Parti comme c'est parti, ça devient complètement envisageable. Après son audition musclée, d'ailleurs, comme tu le dis, le patron de TikTok a reçu une vague de soutien populaire sur les réseaux sociaux parce que par contraste, Chou passe pour le gentil. Chou, il est tout chou. C'est le bon gars, injustement malmené, tu vois. Evidemment, TikTok voudrait en profiter pour créer un élan populaire. Est ce que ça va avoir un quelconque impact politique? Bon, c'est assez peu probable, je pense. Mais donc, en gros, il reste deux solutions. Soit TikTok est revendu par Biden à une boîte américaine et devient donc de fait totalement américaine. C'est ce que veut l'administration Biden. Clairement, elle exhorte le réseau social à le faire et on reviendrait finalement à la situation de 2020 sous Donald Trump. Sinon, TikTok devra dégager du territoire purement et simplement. Et bon, après, il y a eu cette troisième fois, c'est ce fameux projet Texas de TikTok qui consiste à migrer toutes les données sur des serveurs américains isolés. Mais ça ne semble plus suffire parce que finalement, même si les serveurs sont aux Etats-Unis, un serveur, un data center, c'est connecté à Internet. Bon, il faudrait le surveiller en permanence pour vérifier que tout se passe comme prévu. Bon, l'éventualité d'une vente, je ne vous le cache pas, c'est très compromis parce que la Chine ne le voudra sans doute pas. Et ce n'est pas seulement pour embêter le gouvernement américain, en fait, ça pourrait rentrer dans le cadre d'une loi chinoise sur les exportations de technologies, en particulier depuis fin 2020. Les intelligences artificielles font désormais partie des technologies dont l'exportation est contrôlée. Or, Biden utilise des algorithmes de recommandations très avancées qui utilisent du machine learning et qui pourraient être couvertes par cette loi. Et d'ailleurs, le ministère du Commerce chinois pourrait s'opposer à cet export de technologie. Et Xu Jueting, le ministre, a explicitement dit que la Chine s'opposera à la vente. Bon, donc la solution, la solution qui reste, c'est l'interdiction. Je sais que c'est difficile à croire, mais ça devient une réelle possibilité, non seulement aux Etats-Unis, mais aussi potentiellement ailleurs, parce qu'on note quand même un durcissement assez net en Europe. En France, les fonctionnaires d'État sont interdits d'applications récréatives et de TikTok en particulier. Ça concerne les mobiles fournis par l'État, pas les mobiles privés, rassurez-vous. Mais bon, quand même, ça concerne un petit peu toutes les applis étrangères, même WhatsApp et Snapchat. Donc TikTok est indésirable à la Commission européenne aussi. Dans certains autres pays d'Europe, comme le Danemark, par exemple, entre autres, probablement. Alors, TikTok sera-t-il banni en France ? C'est très tôt pour le dire, mais bon, il est possible qu'une éventuelle interdiction pourrait venir du niveau européen. Parce que s'il effectivement virait des Etats-Unis, ça pourrait avoir une influence importante, parce que depuis la guerre en Ukraine et en rapprochement vraiment sensible entre les pays de l'OTAN, si les US décident de virer TikTok parce que c'est un risque stratégique, ça serait un petit peu étrange de voir ses alliés continuer à l'utiliser. Donc, il est possible que TikTok et ses 15 millions d'utilisateurs en France deviennent une victime collatérale de ce nouvel ordre mondial qui est beaucoup moins mondialisé.
0:20:37 à 0:22:09 Guillaume Vendé :
Et qui est très cloisonné, effectivement, qui se cloisonne de plus en plus entre des grands pôles qui se polarisent à travers le monde. Je voulais en glisser juste un mot un petit peu plus tard, parce qu'on parlait d'un FOX, mais en fait, je trouve que c'est beaucoup plus pertinent d'en toucher un mot ici, juste pour dire qu'il y a des changements qui sont prévus sur Twitter le 15 avril. Là, ça a été annoncé par Elon Musk pour dire que désormais, les tweets qui apparaissent dans l'onglet Pour Vous, qui s'affichent un peu par défaut sur Twitter maintenant, qui ne sont pas forcément les tweets des personnes auxquelles vous êtes abonnés, mais les tweets des personnes que Twitter considère comme étant intéressants pour vous. A priori, seuls des tweets qui émanent de comptes qui y sont certifiés, en tout cas qui ont une coche bleue, apparaîtraient dans cette recommandation Pour Vous. Ça en dit long, parce que je ne suis pas certain que les gens auront beaucoup le réflexe d'aller dans l'onglet abonnement pour substituer ce comportement par défaut. Et je pense que ça va encore plus accentuer une dérive dans l'information qu'on ne va pas reprendre, mais qui est assez dingue sur Twitter. Et oui, au passage, le fait de répondre aux sondages aussi, ça va être réservé uniquement aux personnes qui ont un compte certifié. C'est génial. Twitter devient de plus en plus épanouissant. Au passage, Guillaume, pour conclure un petit peu cette rubrique et on parlait évidemment beaucoup de la polarisation et des affrontements sur le terrain stratégique du numérique entre les Etats-Unis et la Chine et en tout cas, de manière générale, entre l'Occident et l'Orient. Et il y a un pôle qui est en train de se dessiner avec notamment un rapprochement quelque part stratégique là aussi entre la Chine et la Russie.
0:22:10 à 0:24:03 Guillaume Poggiaspalla :
Oui, pour illustrer ce nouvel ordre mondial, on peut tout simplement citer le vocaument de la Russie et de la Chine en matière de coopération stratégique, puisque si Jinping et Vladimir Poutine se sont rencontrés la semaine dernière, ils sont les meilleurs amis. Ça y est, les meilleurs amis du monde, c'est officiel. Donc, ils approfondissent le partenariat stratégique complet de coordination dans la nouvelle ère de la République populaire de Chine et de la fédération de Russie. Entre les deux, je cite mal, mais c'est à peu près ça. Et je cite aussi Vladimir Poutine qui dit la souveraineté technologique est la clé de la durabilité de notre développement. Et nous nous proposons d'accroître notre collaboration sur des secteurs spécifiques en combinant nos capacités de recherche et de financement. La Russie et la Chine peuvent devenir deux leaders dans le monde de la technologie d'information, de la cybersécurité ou de l'intelligence artificielle. De la cybersécurité, oui. Ils connaissent bien la Russie en cybersécurité, je pense qu'il n'y a pas de problème. Et oui, bon, je sais, d'ailleurs, ça fait déjà deux mentions à l'intelligence artificielle dans une section qui n'aurait pas dû en contenir. Je m'excuse, mais c'est vraiment difficile d'éviter le sujet. Faut être un ninja pour éviter le sujet, pour esquiver le sujet en ce moment. C'est difficile. Mais bon, voilà, la Russie et la Chine veulent resserrer leur lien sur le plan tech. Ce n'est pas une surprise. On parle régulièrement de toutes les tentatives américaines pour les isoler technologiquement. Et bon, voilà, évidemment, la Chine et la Russie, c'est pas la peine d'épiloguer dessus. Concrètement, ces déclarations ne changent pas forcément grand chose tout de suite, parce que la Chine n'a toujours pas les capacités de production de puces qu'elle devrait avoir pour être leader du semiconducteur et des IA aussi. Finalement, c'est la Russie non plus, parce que pour les IA, les tout derniers modèles de deep learning sont quand même beaucoup plus accessibles si on a du gros matos dernière génération. Ah bah oui. Parce que voilà, c'est quand même beaucoup, beaucoup de puissance de calcul. Donc pour le moment, l'Occident possède les trucs de top niveau. Le but à terme, évidemment, c'est d'avoir une autosuffisance technologique pour le bloc de l'Est. À quelle échéance ? Bon, évidemment, on ne sait pas, c'est toute la question. En tout cas, ce sommet Chine-Russie consomme toujours un peu plus le divorce d'Est-Ouest et ne va pas non plus faire les affaires de TikTok.
0:24:05 à 0:24:53 Guillaume Vendé :
Ce n'est pas un avenir réjouissant qui se dessine. En tout cas, encore une fois, très polarisé. Guillaume, merci beaucoup pour cette revue dans laquelle tu as jonglé dans les infos qui ne contenaient pas trop d'IA. Mais désormais, on doit se retrousser les manches et répondre à l'appel du devoir. On se doit d'informer nos auditeurs sur ce qui se passe dans le monde de l'intelligence artificielle. Du coup, on va donc rebondir. C'est là où tu vas pouvoir commencer à te moquer de moi qui me suis fait avoir par une image. Je vous rassure, je n'ai pas passé trois heures à aller vanter les mérites de la mode de 2023 de l'église et du pape. Mais quand même, on sent bien qu'en plus de la bascule technologique qu'on a observée depuis l'été dernier en matière de miriages, de génération d'images par intelligence artificielle, de génération évidemment de textes et de tous les autres contenus qu'on vous a relayés dans Tech Café, forcément, on s'ouvre de plus en plus à un monde d'infox.
0:24:53 à 0:28:18 Guillaume Poggiaspalla :
Bon, écoute, on parlait du sommet Chine-Russie. Ça a été l'occasion aussi de voir circuler quelques miriages comme ça en balade, d'où une photo qui montrait Poutine à genoux devant Xi Jinping et ce fake assez gros aussi en réalité, qui a reçu un fact-checking du journal Deutsche Welle, carrément. Le contexte est d'ailleurs pas du tout crédible puisqu'il n'y a pas vraiment besoin d'être aussi théâtral pour faire acte d'allégeance, au pire. Mais bon, ça n'a pas été les seules photos générées par des IR à circuler sur les réseaux sociaux cette semaine. Il y en a plein. T'as parlé du pape en doudoune qui a été vraiment, qui parlait, qui était vraiment highlight de la semaine. Il y a aussi Donald Trump qui est toujours probablement pépère à Mar-a-Lago, mais dans les photos de son arrestation musclée et créée par Mille Journées circule encore. Il y a eu des photos de Macron, donc dans les manifestations ramassant des poubelles ou qui se baladent au milieu des ordures et qui flambent. Tous ces clichés sont faux. Ça se voit plus ou moins bien. En réalité, certains ne sont pas trop stylisés et ça se voit parfois des détails étranges, des proportions bizarres ou des éléments qui ont fusionné les uns avec les autres. Mais dans l'ensemble, surtout si on n'est fait pas particulièrement attention, on regarde un petit peu comme on regarde d'habitude les photos dans les nues, c'est à dire très rapidement. Elles sont quand même vraiment très convaincantes et elles n'ont pas toutes été créées dans le but de faire de la désinformation à les images de Macron. Par exemple, elles n'avaient pas l'intention de tromper. Les internautes expérimentent avec des nouvelles versions des logiciels et parfois même, ils s'inquiètent eux-mêmes dans leur poste. Ils s'inquiètent eux-mêmes du fait que c'est vraiment bluffant. Mais bon, ces photos peuvent être aussi reprises par des médias qui ont forant de l'infox. C'est le cas pour la photo de Poutine, par exemple. Mais elles peuvent aussi être reprises par erreur, comme des photos véritables. N'oublions pas que le site satirique The Onion a été plusieurs fois cité comme une vraie source. Ce ne serait pas du tout étonnant que des myriades soient prises pour des vrais trucs et soient ensuite inclus pour illustrer des infox. Évidemment, même si elles ne sont pas issues de campagnes massives de désinformation, on voit bien avec ces productions que la vigilance va devoir devenir la règle numéro une sur Internet. Il va falloir se dire que tout peut être faux. Et c'est d'autant plus vrai que GPT 4 semble particulièrement doué et enclin à faire de l'informe, de l'informe, de la désinformation. Alors à ce moment qu'il dit, c'est NewsGuard qui l'affirme test à l'appui. Qu'est ce qu'il a fait ? Il a atteint, il a juste demandé, il suffit de demander avec ce nouveau truc, il a juste demandé de produire 100 textes de désinformation sur tous les sujets, donc d'une part à Tchad GPT et d'autre part à GPT 4. Donc voilà les deux derniers, on va dire, et le plus avancé, celui d'avant. Les grands classiques de la théorie du complot, ils sont passés le 11 septembre, la tuerie de masse jouée par des acteurs, des acteurs à Sandy Hook. Les vaccins, le Covid, le VIH, les élections volées, je ne sais pas, probablement les Illuminati à un moment, j'en sais rien. En tous les cas, sur les 100 fausses histoires, Tchad GPT n'a refusé d'en produire que 20 et GPT 4 n'a jamais rien refusé. Mais des fois, Tchad GPT introduit occasionnellement des textes d'avertissement, comme quoi ce qu'il vient d'écrire est complotiste. GPT 4, jamais. Aucun problème. Et surtout, GPT 4 produit de l'excellente qualité. Il produit des textes plus longs, plus convaincants. Il réussit à mieux développer les arguments. Il est encore plus convaincant, vraiment, et tu peux même lui dire de développer dans un sens ou dans un autre des arguments pour être encore plus efficace. Il n'y a rien à dire, c'est vraiment un bon produit, franchement. Alors NewsGar le certifie, GPT 4 est bien plus puissant et encore moins cadré que son prédécesseur. Donc, si vous voulez mener une campagne de qualité, n'hésitez plus à aller vite vous abonner chez OpenAI.
0:28:19 à 0:30:15 Guillaume Vendé :
Évidemment, ce n'est pas trop cher en plus. J'en profite, Guillaume, j'ai reçu un message de mon ami Matt avec qui on fait Relife, un podcast sur l'amélioration du quotidien, développement personnel, etc. Mais en fait, il m'a envoyé un extrait d'un vieux journal. Je remets en doute l'authenticité d'à peu près tout ce que je reçois maintenant, mais je pense que c'est quand même authentique. C'est des enseignants, on devient complètement taré. Ce sont des enseignants en mathématiques qui protestaient contre l'utilisation de la calculatrice. Et en fait, quelque part, qu'il y ait eu des manifestations, des articles de journaux, ce n'est pas trop le sujet, c'est que je pense que ça a été dans le cœur des discussions à un moment donné de l'utilisation de la calculatrice dans le milieu éducatif. Et le raccourci, peut-être qu'on pourrait rapidement faire, c'est de dire, chat GPT, ces algorithmes de langage, finalement, c'est des nouveaux outils. C'est comme les calculatrices d'il y a plusieurs dizaines d'années, c'est un nouvel outil qu'il va falloir intégrer. Je trouve parfois que cette réflexion et cette analogie que j'ai souvent faite au départ, a désormais un peu ses limites parce que ce que tu relaies en matière de désinformation, en matière de risque, rend les choses beaucoup plus compliquées. J'ai beaucoup de mal à remettre en question la crédibilité d'un résultat mathématique d'une calculatrice. Oui, c'est vrai, elle peut se tromper. Les impacts ne sont pas forcément aussi importants qu'une erreur d'une intelligence artificielle aujourd'hui. Et je pense qu'il y a beaucoup plus de possibilités de vérifier la qualité de l'information restituée par une calculatrice que par une intelligence artificielle. Et finalement, cette analogie, j'ai pris une décision, Guillaume, je ne la ferai plus. Je pense qu'on peut difficilement comparer un outil de 2023 qui se base sur autant de données, qui peut avoir des portées à cause ou grâce aux réseaux sociaux aussi fortes, avec autant de viralité. Et je peux difficilement me satisfaire de cette vision des choses. Je comprends le parallèle qu'il peut y avoir sur le plan technologique, mais je ne sais pas si tu as un avis sur cette analogie spécifiquement, calculatrice au cours de maths.
0:30:16 à 0:30:52 Guillaume Poggiaspalla :
C'est une putain de calculatrice quand même, il faut qu'elle me le dise. Elle est méchante, celle-là, en même temps qu'une calculatrice. C'est évident que oui, c'est limite, il ne faut pas déconner. D'autant plus que ça couvre, la calculatrice, effectivement, ce n'est pas super polyvalent. Là, on a quand même plusieurs familles d'algorithmes qui font des trucs qui peuvent toucher 80% des boulots, quasiment. En gros, si tu ne fais pas un boulot qui est purement manuel, il y a une chance que tu sois exposé à une forme d'automatisation. Donc, oui, la calculatrice, c'est vraiment une très, très grosse calculatrice quand
0:30:52 à 0:31:16 Guillaume Vendé :
même. Même sur l'aspect manuel quelque part, parce qu'en matière de formation et de ressources et de techniques d'apprentissage, forcément, c'est des algorithmes qui peuvent aussi faciliter les choses. Évidemment, l'impact est moins direct que pour la production plus virtuelle, mais quand même. Bon, c'est là où je me rends compte que j'ai massacré une partie de ton conducteur, puisque tu voulais justement nous dire qu'Elon Musk avait la solution. Est-ce que tu voulais recompléter sur cette proposition ?
0:31:16 à 0:31:23 Guillaume Poggiaspalla :
Non, non, maintenant que tu t'es foiré à une transition là, tu ne vas pas me te foirer à une deuxième transition là, c'est bon.
0:31:23 à 0:31:26 Guillaume Vendé :
Allez, on continue à parler de tchad, j'ai pété quand même, Guillaume.
0:31:26 à 0:36:06 Guillaume Poggiaspalla :
Oui, parce que cette semaine encore, il y a eu une véritable pluie de news sur l'intelligence artificielle. Une bonne partie sur TchadGPT et Bard, qui savent qu'il affronte son concurrent Bing dans son combat d'éloquence, n'est-ce pas ? Bon, on va y revenir, mais concernant TchadGPT OpenAI, encore une fois, tout révolutionné. La semaine dernière, comme ça, entre la poire et le fromage, TchadGPT était un pur chatbot qu'offine dans son univers purement textuel et tout change avec les plug-ins qui, comme le dit OpenAI, lui donnent des yeux et des oreilles, et puis même des doigts en réalité, c'est ça qui est marrant. Les plug-ins sont un moyen d'interfacer TchadGPT avec d'autres sites, par exemple Kayak, Slack, Shopify ou Wolfram Alpha. Et ça change tout, parce que comme ça, TchadGPT a accès à des capacités que le modèle de langage n'a pas. Déjà, une base de données à jour, ou des capacités de calcul avec Wolfram Alpha, d'où répondre à des questions sur des sujets en temps réel, comme les billets d'avion par exemple. En fait, tout ça rapproche TchadGPT de Bing, mais curieusement, ça le rend aussi plus puissant que Bing par certains aspects. L'exemple qui est montré dans la vidéo est parlant parce qu'il montre qu'on peut utiliser conjointement plusieurs plug-ins en synergie pour répondre à une prompt complexe. Le scénario, c'est de demander à un resto vegan sur San Francisco pour ce samedi. Oui, ça, c'est tous des gauchos à San Francisco. De trouver une recette vegan pour dimanche, de calculer le nombre total de calories de la recette et de commander les ingrédients. Avec un seul prompt, TchadGPT va utiliser OpenTable pour trouver un restaurant pour samedi. Ensuite, il donne de sa propre connaissance personnelle, apparemment une recette vegan. Ensuite, il utilise Wolfram Alpha pour calculer le total de calories. Enfin, il utilise Instacart pour commander les ingrédients. En fait, il va produire des liens tout faits. Pour Instacart en particulier, tu vas cliquer dessus et voilà, il suffit de cliquer dessus et de payer pour tout recevoir. Donc, c'est assez incroyable. Mais TchadGPT atteint finalement son objectif entre guillemets seul. Dans le prompt, tu mentionnes qu'il doit utiliser Wolfram Alpha pour les calculs et Instacart pour commander. Mais sinon, sinon, il aura probablement essayé de le faire calculer tout seul. Et il s'arrêterait de gâter probablement parce que les modèles de langage ne sont pas du tout prévus pour calculer les trucs. Ils ne savent pas calculer, évidemment, mais là, il arrive à tout faire et à l'utiliser, effectivement, les trucs au bon moment. Et oui, ça change tout parce que les modèles de langage ne sont pas faits pour calculer. Ils ne savent pas calculer, mais ils ne stockent pas non plus de données. Ce ne sont pas des bases de données. Ils peuvent retrouver des données par pure proximité statistique, mais ce sont des générateurs de contenu qui peut être approximatif ou faux. Et en tout cas, c'est clair que tout ça aurait été impossible à TchadGPT standard. Les plugins démultiplient l'utilité de TchadGPT et ouvrent des possibilités qui sont infinies. Le simple fait de l'ouvrir à Wolfram Alpha lui donne une fiabilité, en réalité, surtout en ce qui concerne, par exemple, les constantes physiques, les données physiques, les mathématiques pour le calcul, etc. Même le calcul avancé. D'autant que TchadGPT, alors j'ai dit qu'il avait des doigts parce qu'en fait, il peut aussi agir désormais. Donc déjà, il y a une sandbox pour tester le code Python qu'il produit, mais il y a aussi une intégration avec Zapier. Et Zapier, c'est une plateforme d'automatisation de tâches qui peuvent comprendre plein d'applications sur des sites différents. Donc, par exemple, tu pourrais dire que quand tu as un certain nombre de followers Twitter, par exemple, ça t'envoie un email avec Gmail et ça modifie le Google Doc. Un tableur, par exemple, qui compte des trucs ou alors automatiser les postes de réseaux sociaux chaque fois qu'il se passe un truc sur WordPress, etc. Donc, en théorie, TchadGPT, via Zapier, va pouvoir interagir avec le vrai monde. En plus d'aller chercher des informations fraîches ou de déléguer des tâches pour lesquelles il n'est pas doué, il va pouvoir agir. Pour l'instant, il n'y a pas beaucoup de plugins qui sont sortis, ils sont encore réservés à un petit nombre de testeurs, mais il y a déjà des dizaines d'autres qui sont en prototypage. On le sait, en fait, il y a eu des fuites et il y a des dizaines et des dizaines de prototypes. Et le plus beau dans tout ça, c'est que tout est fait en langage naturel, c'est à dire que les plugins ne sont pas développés en JavaScript ou autre truc. Ce sont en fait des descriptions précises en langage naturel de comment utiliser l'API, c'est à dire qu'il n'y a pas de code d'interfacage entre GPT et l'API du site. Toute cette opération est prise en charge par GPT lui-même. C'est ce qui est quand même assez dingue quand on y réfléchit. Alors évidemment, on peut aussi se poser la question de la sécurité. Est-ce que c'est bien raisonnable de laisser chaque GPT sortir, agir sur le monde extérieur ? Je ne sais pas, probablement pas. Mais bon, parce qu'évidemment, le modèle pourra partir en cacahuètes, faire des trucs pas prévus. Simplement, il pourrait être aussi instrumentalisé à des fins néfastes. Et ça, c'est certainement le cas, puisqu'OpenAI en est bien conscient. Il le dit et c'est pour ça justement qu'il fait un déploiement graduel pour l'instant du truc. Mais bon, c'est très temporaire, ça va se déployer probablement assez vite et massivement, même si pour l'instant, les plugins sont gratuits. Mais ça s'appelle un store, donc ils sont gratuits pour l'instant, mais on voit bien où ça va, on voit bien un petit peu le modèle économique et tout. Donc oui, on a une intelligence artificielle qui va bientôt pouvoir interagir avec d'autres sites et tout. C'est assez dingue.
0:36:07 à 0:37:33 Guillaume Vendé :
Ce fonctionnement par briques me rappelle la manière, quelque part, on peut faire l'analogie pour bien comprendre, mais les bibliothèques pour du code, pour développer, quand on fait un include, une bibliothèque, quelque part, c'est un peu la même logique. Tu sais qu'en prenant connaissance de tout ça, j'ai commencé à me dire, je ne pense pas de mémoire en dix ans de podcast, ça fait vieux de la vieille quand on dit ça, ça fait vieux briscard. Mais en dix ans de podcast, je ne crois pas avoir eu autant le sentiment qu'il pouvait y avoir des changements aussi profonds qu'en suivant l'actualité ces dernières semaines et notamment là, avec ces briques, quelque part, pour moi, c'est encore un autre monde qui se rajoute. Je me sens quelque part même un peu dépassé par tout ça à titre perso pour tout dire. Je comprends ce qui se passe, mais je sens bien qu'il y a un virage que moi, à titre personnel, dans mon quotidien, je n'ai pas pris par rapport à ces services là. Je suis estomaqué par ce qui se passe et quelque part, cette logique de briques aujourd'hui, oui, effectivement, c'est quelque chose d'assez commercial quelque part dans son approche, mais on va très, très vite pouvoir imaginer des modèles de langage qui vont aussi s'ouvrir à des briques comme ça, qui vont pouvoir personnaliser, affiner les usages, que ce soit pour sortir de l'information, pour en faire entrer. Je suis à la fois passionné et terrifié de la vitesse à laquelle ça va. Parenthèse terminée, continuons du coup à nous faire peur, Guillaume, et allons plutôt du côté, justement, des codeurs. Là, c'est très concret. C'est Copilot de
0:37:33 à 0:37:43 Guillaume Poggiaspalla :
GitHub. Ah oui, mais alors une des grosses surprises, moi, en ce qui concerne les modèles de langage, enfin, un des trucs qui m'a le plus surpris, ça a été de constater qu'ils pouvaient coder, de voir qu'ils pouvaient sortir du code
0:37:43 à 0:37:53 Guillaume Vendé :
fonctionnel. Tu as vu que la première application écrite par ChatGPT a été mise en ligne sur les stores, une application assez simple, mais quand même.
0:37:53 à 0:39:27 Guillaume Poggiaspalla :
Mais c'est incroyable. Mais GPT 4 est même capable de coder de A à Z un Pong fonctionnel ou même un petit jeu 3D. C'est n'importe quoi, je ne m'en remets pas. Et donc, l'assistance au codage devient un débouché important, finalement, des intelligences artificielles. On sait que GitHub a déployé son Copilot et qui est déjà capable de produire tout seul des petits bouts de code fonctionnels, mais ça va aller beaucoup plus loin. Et plus loin, donc déjà, il y a un truc qui s'appelle Copilot X. C'est le nom de la vision, et probablement du produit, de la vision un petit peu plus de long terme pour GitHub, qui vient d'accueillir sa propre version de ChatGPT, en quelque sorte. C'est que Copilot X se présente sous cette forme. C'est un chatbot qui est là, c'est une boîte de dialogue toujours là, non seulement pour écrire des codes de plus en plus longs et de plus en plus complexes, mais aussi pour répondre à des questions contextuelles. Donc le truc, c'est vraiment un assistant qui peut expliquer des bouts de code que tu sélectionnerais, qui peut débuguer ces morceaux de code, qui peut y trouver des vulnérabilités, qui peut répondre à toutes les questions en programmation. C'est plus besoin d'aller sur Stack Overflow. J'hallucine. Et il sera même disponible en ligne de commande, pour t'aider avec la syntaxe des commandes ou pour créer des scripts. Il sera intégré à Visual Studio, mais à terme aussi à d'autres environnements. Et tout ça utilise GPT-4. Alors pour les parties où il faut du code long et complexe pour avoir une certaine forme de grosse qualité, on va dire qu'il utilise GPT-4. Et là où il faut de la vitesse, de la réactivité, il utilise Codex, qui est beaucoup plus petit. Donc Copilot, ça semble être la marque qui va désigner toutes les IA utilisées par Microsoft, puisque c'est aussi ce qu'on avait parlé sur Microsoft 365. Donc c'est un petit peu l'assistant.
0:39:27 à 0:39:33 Guillaume Vendé :
Le nom est cool au passage, je trouve. C'est bien trouvé. Pour le message que ça donne. Je trouve que c'est très bien trouvé. Le
0:39:33 à 0:42:32 Guillaume Poggiaspalla :
but, c'est d'avoir un équivalent d'assistant vraiment pour tout et qu'il soit toujours disponible, super compétent. C'est mieux que Clippy. C'est mieux que Clippy. C'est vrai, c'est un peu moins mignon, mais c'est peut-être mieux trouvé. En tout cas, chat.gpt semble aussi devenir un candidat, être un copilote de toute ta vie, puisque les nouvelles applications ne finissent pas d'apparaître chaque semaine. Il y en a encore eu. Quelques exemples en vrac. Allez, quelques exemples en vrac. Yakoo, le Twitter indien qui intègre chat.gpt pour t'assister dans la publication de post sur le réseau. Tu dis à Yakoo ce que tu veux poster. Yakoo écrit et postera d'ailleurs ton message. Le but, c'est de créer des déclencheurs pour t'encourager à poster toujours plus, même quand tu ne sais pas vraiment quoi dire ou que tu n'es pas sûr de comment le dire. Donc voilà, poster toujours plus. C'est ce dont tous les Twitter du monde ont besoin, évidemment. Autre sujet avec gpt, c'est qu'il va faire sa station de radio. Enfin, il peut faire des stations de radio. Ça s'appelle RadioGpt. RadioGpt, c'est une plateforme de création et de gestion de radio qui a été créée par une boîte qui s'appelle Futuri. La première station gpt va se lancer à Cleveland. Le but, c'est de scanner les réseaux sociaux, déjà, pour voir le mood du moment, ce qui fait le buzz. Tu en tires un script pour la journée, qui est ensuite animé par un chatbot, basé sur le chat gpt, et qui va faire des personnalités virtuelles quelque part, que le chat gpt fera parler. Et tout ce qui tourne autour sera aussi automatisé. Des posts sur les réseaux sociaux, les conversions en podcast, les posts sur les blogs, etc. Bon, d'après eux, déjà 7 stations de radio sur 10, aujourd'hui, sont automatisées, avec des scripts, voilà, et des lancements pré-enregistrés. Donc, du coup, dans ce contexte, RadioGpt, finalement, ça pourrait paradoxalement ramener un petit peu de variété et d'âmes prévues à tout ça. C'est assez paradoxal, mais bon. Donc, peut-être pas tant, voilà, il n'y a peut-être pas tant de boulot de DJ qui va au sauter, finalement. Alors, après, il y a aussi le problème des auteurs, parce qu'il y a pas mal de flou la semaine dernière sur la position de la Guilde des auteurs américains, qui a parlé aussi de l'assistance à l'écriture par rapport à les IA. C'est compliqué de se positionner. En fait, la semaine dernière, elle semblait entrouvrir un petit peu la porte aux outils, mais cette semaine, il y a un autre communiqué qui précise que, selon les usages, la génération de texte est assimilable à du plagiat. Donc, si on reformule le texte de quelqu'un d'autre, évidemment, c'est du plagiat. Enfin, évidemment, d'après eux, c'est du plagiat. De même, un texte 100% créé par une IA ne peut pas être utilisé comme matériau de base. Et, en règle générale, la Guilde stipule qu'une compagnie ne doit pas utiliser l'IA pour détériorer les conditions de travail et le salaire des auteurs. Pour l'instant, tout ça, c'est des pourparlers. Il y a la WGA, qui est la Writers Guild of America. Il y a AMPTP, qui est la Alliance of Motion Picture and Television Producers. Ce sont des pourparlers sur le sujet. Ils discutent et, pour l'instant, ils essaient de se positionner. C'est difficile. C'est à suivre. Ça pourrait déterminer quand même à quel point votre prochaine série Netflix sera écrite par OpenAI.
0:42:33 à 0:42:42 Guillaume Vendé :
Il devient sacrément polyvalent. Est-ce que tu voulais préciser d'autres métiers que pourrait nous permettre d'avoir GPT, Guillaume ?
0:42:42 à 0:42:49 Guillaume Poggiaspalla :
Non, pas cette semaine. Par contre, on peut parler de Bard. Allons-y.
0:42:49 à 0:42:55 Guillaume Vendé :
Parlons de la concurrence. Parlons de la proposition de Google, effectivement. Oui, parce que Bard est sorti.
0:42:55 à 0:45:28 Guillaume Poggiaspalla :
Il ne va toujours pas sortir en France, il me semble, mais il a été testé aux États-Unis. Il y a eu d'innombrables battles avec Bing, son grand rival. Il y a tellement d'exemples différents qu'on ne va pas entrer dans les détails de chaque domaine où Bing et Bard s'affrontent. De toute façon, la conclusion est toujours la même. Bard est moins bon et moins utile. Bard est moins volubile, moins pertinent. Il est beaucoup moins fantaisie, il ne sait pas coder. Il n'est pas nul. Attention, il répond. C'est un mauvais doigt de langage qui est sophistiqué, mais de l'avis général, GPT-4 est nettement au-dessus. Il y a sans doute plusieurs raisons à ça. Déjà, techniquement, Bard est plus rapide à répondre. C'est nettement. Et ça indique sans doute qu'il s'agit d'un modèle nettement plus petit que GPT-4, qui est derrière Bing. Et on avait déjà discuté de ça. Google a une audience énorme, un trafic potentiel monstrueux. Et Bard devra un jour traiter peut-être éventuellement toute cette audience-là, donc un nombre de personnes colossal. Et ce nombre monumental de requêtes, qui sera sans doute bien supérieur à celui de Bing, il faut le traiter sans dépenser 120% de son chiffre d'affaires à acheter des GPU. Et donc Google déploie sans doute un modèle de langage beaucoup plus léger, qui coûte beaucoup moins cher à faire tourner. Et c'est peut-être que ça se sent aussi, tout simplement. Ensuite, il y a des raisons commerciales, parce que Bard ne doit pas cannibaliser Google. C'est pour ça que Bard n'est pas présenté par Google comme un moteur de recherche, paradoxalement. En plus, il rappelle en permanence que Bard est une expérimentation, que ce n'est pas un produit fini, qu'il doit s'améliorer, etc. Alors qu'il faut bien voir que Google travaille sur Lambda depuis des années, et sur les modèles de langage depuis encore plus longtemps. Mais le but, c'est aussi de ne pas faire de concurrence frontale avec son propre gagnant. Et c'est pour ça que Bard présente des boutons Google It, chargés sur Google tout le temps. Google veut positionner Bard différemment. Il veut le positionner sur le divertissement, sur la création et la co-création de textes, aussi pour la planification, pour booster l'imagination et la créativité. Mais finalement, pas pour trouver des trucs. Parce que pour trouver des trucs, il y a Google. Et le souci, c'est que tu ne choisis pas vraiment comment les gens vont utiliser ton outil, ni ce qu'ils vont en attendre. Surtout quand il s'agit d'une boîte de textes dans laquelle d'habitude on fait des recherches. D'ailleurs, Bard ne se positionne pas vraiment en face de Bing, mais ça n'empêche pas tout Internet de les comparer, depuis une petite semaine. C'est naturel. Après tout ça, pourtant, étrangement, je me surprends à être plutôt du côté Google. Je sais que ça paraît être un peu étrange,
0:45:28 à 0:45:32 Guillaume Vendé :
mais perso, j'ai toujours été un peu... Tu es toujours du côté du challenger, Guillaume.
0:45:32 à 0:45:38 Guillaume Poggiaspalla :
C'est comme ça, c'est dans ta nature. Mais bien entendu. Et du côté des perdants, donc c'est ça.
0:45:38 à 0:45:40 Guillaume Vendé :
Non mais dis-le.
0:45:40 à 0:46:16 Guillaume Poggiaspalla :
Enfin bon, toujours est-il que j'ai toujours été un petit peu dubitatif en ce qui concerne la pertinence des modèles de langage comme moteur de recherche. Je ne suis pas le seul, d'ailleurs. Il y a Emily Bender aussi, qui est de l'Université de Washington, qui pense que ce n'est pas une bonne idée, qui avait écrit plusieurs articles là-dessus. L'argument de base, c'est que fondamentalement, un modèle de langage, c'est une machine probabiliste. Donc on est dans le flou. On est dans du texte probable. Mais ce n'est pas ce qu'on veut quand on fait une recherche. Moi, je ne veux pas savoir si Georges Pompidou est probablement omé en 1911, tu vois, ou en 1912. Je ne veux pas savoir si l'uranium, c'est un peu défait, tu vois.
0:46:16 à 0:46:18 Guillaume Vendé :
Tu ne veux pas appeler requête stochastique ?
0:46:18 à 0:47:20 Guillaume Poggiaspalla :
Moi, je n'aime pas trop le flou quand je fais des recherches. Du coup, j'ai toujours un petit peu cette retenue, effectivement. Un truc que j'apprécie particulièrement chez Bard, vraiment, je trouve, c'est les trois brouillons. Parce que quand tu poses une question à Bard, il génère trois réponses. Et c'est une super idée. Parce que quand tu donnes une seule réponse, c'est sous-entendu que c'est la réponse. La réponse. En plus, tu viens de Google. Donc, si c'est la réponse de Google, psychologiquement, ça lui donne vachement de poids. Ça doit être vrai. Mais en fait, un mollet de langage, ça peut donner une infinité de réponses. Une infinité de réponses à la même question. Et Bard, lui, ne s'en cache pas. Il ne fait pas semblant d'être autre chose que ce qu'il est. Lui et tous ses cousins. C'est une machine qui pisse du texte. À la demande. Il y a trois réponses. Laquelle est la meilleure ? Aucune. Du point de vue de Bard, ni d'aucun point de vue. Aucune. C'est toi qui choisis laquelle tu préfères, l'une ou l'autre. Du point de vue de Bard, elles sont toutes équivalentes. Ce sont toutes trois réponses probables. Montrer ces trois réponses, ça casse totalement l'autorité que porterait une réponse unique. Et ça démystifie la technologie.
0:47:20 à 0:48:10 Guillaume Vendé :
Et je trouve ça très bien. Et en passage, fais-tu une parenthèse là-dessus ? Parce que je trouve qu'il y a la même approche. Quelque part, on ne s'est jamais trop posé la question, mais les générateurs d'images, les miriages, te proposent, presque tous, sauf erreur, quatre versions de la réponse. Et bizarrement, c'est très évident pour de l'image. Alors il peut y en avoir une infinité, mais il t'en propose quatre, et il t'en propose pas qu'une. C'est ça que je veux dire. Et je pense que le succès de ces outils tient aussi du fait qu'on a très très bien compris le fait que c'était quatre imaginations sur la base de ta requête. On aurait très très vite, inconsciemment, je pense, assimilé le résultat à celui d'un moteur de recherche, avec des gros guillemets, s'il n'y avait eu qu'une image. Donc je suis assez d'accord avec toi sur cette présentation d'avoir plusieurs résultats qui montrent que ce sont trois possibilités, d'ailleurs parmi une infinité. Et ça, j'aime beaucoup cette vision-là des choses, effectivement.
0:48:10 à 0:48:16 Guillaume Poggiaspalla :
J'apprécie la démarche de Google, mais non, c'est pas sûr que cette forme de franchise lui soit très utile dans la bataille commerciale monstrueuse
0:48:16 à 0:48:18 Guillaume Vendé :
qui fait rage en ce moment. C'est pas ce qui rapporte le plus d'argent.
0:48:18 à 0:48:22 Guillaume Poggiaspalla :
Et qui n'est pas prêt de se terminer, ça par contre, évidemment. Mais bon, on verra.
0:48:22 à 0:49:24 Guillaume Vendé :
Très bien, c'est une bataille hyper intéressante. Je vous invite, vous avez l'article dans les notes de l'épisode de The Verge que vous a sélectionné Guillaume, où il y a une comparaison au travers de cet article entre Bard, contre Bing et ChatGPT avec différentes requêtes. Alors évidemment, c'est très difficile d'en tirer des conclusions. Et je pense que c'est beaucoup plus compliqué qu'avec les assistants vocaux. Pendant un temps, il y avait les OK Google, les Alexa et compagnie. On leur demandait la même chose et on regardait les réponses. On essayait de savoir les réponses les plus complètes, les plus pertinentes. Bon, je pense que ça, ça avait déjà ses limites. Mais là, on est encore plus dans des limites d'exercice. Mais vous irez regarder, notamment, évidemment, moi j'ai été sensible puisque dans l'article, le premier exemple, c'est comment battre Malenia dans Elden Ring, qu'évidemment, je n'ai essayé d'affronter que deux, trois fois avec une très grande tristesse. Et je ne sais pas si je la battrai un jour de toute façon, de mon côté. On continue Guillaume, je parlais, je rebranchais les générateurs d'images, les miriages par rapport à ton parcours là, avec les résultats. Et justement, on va reparler un petit peu des biais de ces générateurs d'images. C'est quand même un gros problème ça.
0:49:24 à 0:51:18 Guillaume Poggiaspalla :
Oui, c'est juste un petit mot pour dire qu'il y a des chercheurs qui ont analysé les biais dans les générateurs d'images, les plus communs. Et dans l'équipe, on retrouve d'ailleurs une vieille connaissance qui s'appelle Margaret Mitchell, qui a été licenciée par Google juste après Timnit Gebrou, après le clash sur un modèle de langage dont on avait parlé à l'époque, il y a plusieurs années de ça maintenant. Et du coup, désormais, elle travaille chez HuginFace, donc voilà, elle travaille toujours dans cette branche là. Ils ont fait générer plein d'images par plein de modèles, et ils les ont regroupés en clusters pour voir un petit peu comment ils étaient répartis. Et ils étudient les représentations de genre, de l'ethnicité, bien sûr aussi les représentations sociales, les professions, etc. Donc il y a un papier là-dessus, mais tous les outils sont sur le site HuginFace, et ça permet d'explorer visuellement les biais qu'on retrouve dans StableDiffusion 1.5, 2.0, dans Dali, etc. Il y a plusieurs pages, donc les outils sont disponibles, mais il y a aussi plusieurs pages avec énormément d'illustrations, c'est des très grosses pages qui mettent du temps à se charger. Et on retrouve finalement, donc si on regarde, on retrouve finalement les biais classiques. Si on demande un CEO, les générateurs d'images ont tendance à faire des mecs blancs costards. Si on met nerds, on aura presque toujours des femmes. Si on met painters, on n'aura que des mecs avec des barbes. Or en anglais, nerds et painters n'ont pas de genre, donc a priori on ne le sait pas. Painter, c'est peut-être un peintre, mais c'est une peintre ou un peintre. Si on demande un indien, un indien américain sous-entendu, c'est forcément un indien de western qui te sort, tu vois. C'est pas un indien que tu pourrais vraiment rencontrer dans la rue aux Etats-Unis. Donc c'est pas étonnant en soi, statistiquement, il doit y avoir bien plus de photos d'infirmières que d'infirmiers dans le dataset. Et il est possible, d'ailleurs, je n'ai pas de chiffres honnêtement, mais il est possible qu'il y ait effectivement plus de femmes dans le métier, mais évidemment le but c'est pas de reproduire la réalité. C'est un logiciel. Il n'y a aucune raison que le logiciel est une idée préconçue sur le genre d'un personnage que tu veux générer. A priori, il ne sait pas. Donc s'il ne sait pas, ça devrait être 50-50, alors que là c'est genre 99 ans, tu vois. Donc voilà, ça c'est très visuel. Je vous encourage à aller regarder si ça vous intéresse.
0:51:18 à 0:51:42 Guillaume Vendé :
Et puis c'est quelque chose que vous pourrez garder à l'esprit quand vous utiliserez ces outils et je pense que quelque part, ce n'est pas inintéressant d'avoir cette petite pédagogie. J'en profite, tu parles d'éthique dans les générateurs d'images. Il y a Maudzilla qui a annoncé, alors avec des petits moyens, je trouve quand même une organisation pour justement proposer des solutions d'intelligence artificielle un peu plus éthiques. On en reparlera peut-être si ça prend de l'ampleur. Mais c'est une bonne initiative.
0:51:42 à 0:51:46 Guillaume Poggiaspalla :
Maudzilla, c'est un petit acteur qui peut avoir pas mal d'influence en fait. Donc c'est toujours, c'est bien.
0:51:46 à 0:52:12 Guillaume Vendé :
C'est une bonne initiative. J'ai peur que quand je vois les montants et les budgets évoqués ce soit pas suffisant. Mais bon, d'ailleurs j'imagine que si vous voulez soutenir Maudzilla après tout, pourquoi pas. Allez-y. On continue avec la solution d'Adobe qui est pour le coup assez bluffante. J'ai l'impression qu'il y a beaucoup de professionnels du monde de l'illustration qui a vraiment été séduite par Firefly, Guillaume.
0:52:12 à 0:55:28 Guillaume Poggiaspalla :
Oui, ça m'étonne pas trop. Alors la semaine dernière, effectivement Adobe a fait la démo de Firefly. C'est sa suite d'outils de génération d'images. Et bon, globalement, c'est pas dingue si t'es déjà habitué à ce que savent faire les mille journées et les Stable Diffusion. Surtout après les progrès de ces derniers mois. Donc qu'est-ce qu'on peut faire ? On peut faire du text to image via des promptes ou en mode conversation. On peut faire de l'inpainting de l'outpainting, du transfert de style du contrôle par la profondeur de la génération à partir de modèles 3D comme on peut le faire avec Blender désormais de l'upscaling bien sûr. Après, à peu près tout ce que fait Firefly est faisable gratuitement avec autre chose, avec Stable Diffusion en particulier. À l'exception de certains trucs sympas comme la génération de dessins vectoriels qui, à ma connaissance, n'est pas encore possible avec Stable Diffusion, mais bon, peut-être que j'ai juste pas l'air. Tu sais, il y a tellement de trucs qui sortent que peut-être que j'ai pas vu. Il y a aussi un truc assez intéressant pour faire des lettres stylisées qui est... voilà, ça a l'air marrant. C'est assez rigolo, mais bon. Techniquement, il n'y a rien de révolutionnaire. Cela dit, la sortie de Firefly est quand même vraiment importante parce que même si on peut faire pareil ailleurs, là on a une interface unifiée qui est jolie, qui est ergonomique. Il ne faut pas sous-estimer l'importance de l'accessibilité du service. Et puis Firefly, il est quand même plus accessible qu'Automatic et Even Eleven. À noter aussi que, forcément... Alors déjà, aussi, notez que la génération est de qualité, c'est très joli esthétiquement, c'est très varié, ça peut être réaliste, ça peut avoir plusieurs styles différents, donc c'est vraiment pas mal. Et évidemment, il y a le poids d'Adobe derrière. Donc si tu veux, si c'est un outil Adobe, c'est juste un outil graphique. Adobe, c'est des outils graphiques qui sont complètement démocratisés, c'est complètement banal. Donc il y a une vraie grosse banalisation qui est derrière le fait qu'Adobe sorte ce genre de trucs. Et donc, un autre point important, c'est que justement, Adobe assure que son modèle a été entraîné uniquement sur des images libres de droit ou pour lesquelles il les avait à la licence. Donc il n'y a a priori aucun problème de copyright. Il n'y a finalement aucun problème éthique de ce côté-là. On exploite en fait... On ne laisse aucun auteur à son insu. Si on utilise Firefly, il n'y a pas les styles de quelqu'un qui sont reproduits. Donc finalement, Adobe se veut inattaquable sur la propriété intellectuelle. Il veut éviter les procès dont on a parlé, par exemple, que se prenne Stable Diffusion, tu vois. Mais du coup, on se retrouve quand même dans une situation un petit peu bizarre, où on fait des procès à des outils gratuits alors qu'on ne peut rien dire à des grosses boîtes qui sont multimilliardaires. Parce que si Stable... Imagine que Stable Diffusion perde son procès. Ben ça éliminera de la concurrence pour Adobe. Donc en gros, les artistes qui attaquent Stable Diffusion, ils seraient dans la position où ils auraient favorisé le monopole d'une énorme boîte au détriment d'outils open source et communautaire. Ça serait quand même un peu paradoxal. Et tout ça, remarquez bien, sans le moins du monde ralentir l'adoption des outils de génération d'images. Et donc finalement, le souci fondamental aussi du remplacement d'une partie au moins du travail humain dans ces secteurs-là. Parce que voilà, la génération d'images, c'est fini. Je veux dire, elle s'implante absolument partout. Un peu plus chaque jour. Bing le propose maintenant encore. Bon voilà, il y a Imagine qui va sortir avec Google. Il y a Adobe. Bon ben voilà, qui dit là, il a écrit noir sur blanc. Voilà, ça y est, la génération d'images, ça fait partie de la boîte à outils standard d'un artiste. Donc c'est fini. Le game, il est plié de ce côté-là.
0:55:30 à 0:55:46 Guillaume Vendé :
On va conclure cette revue de la semaine des intelligences artificielles génératives. Tu nous avais présenté, il y a cela quelques semaines, ça va à une vitesse absolument dingue, de la génération de vidéos, qui était déjà particulièrement convaincante. Ça y est, on est déjà à la V2, Guillaume.
0:55:46 à 0:56:24 Guillaume Poggiaspalla :
Ouais, ouais, ouais, alors presque. Alors c'est vrai que c'est vrai que quand la génération d'images était arrivée, on imaginait que la génération de vidéos allait être la prochaine étape. Et Meta avait bien sorti une démo, d'ailleurs, une preuve de concept. C'était Make Video. Mais bon, ça reste un proto. Et on n'imaginait peut-être pas que ça arrive moins d'un an plus tard. Démocratisé, et surtout en local. Alors, d'une part, il y a Gen 2 de Runway. Donc on avait parlé effectivement de la Gen 1, mais qui était relativement maligne, parce qu'elle évitait la lourdeur d'avoir généré une vidéo en partant de rien. Puisqu'elle partait en fait d'un clip existant, elle faisait du vidéo tout vidéo, et elle reconstruisait complètement le clip, selon un autre sujet ou un autre style. On se rappelle par exemple
0:56:24 à 0:56:26 Guillaume Vendé :
qu'il y avait une vue des livres, et ça donnait des
0:56:26 à 0:58:33 Guillaume Poggiaspalla :
immeubles. Exactement, voilà, c'est ça, exactement, ce genre de choses. Mais bon, ça c'était en 2023. Parce que là, c'est plus rien à voir. On est en avril 2023. Ça n'a rien à voir. Presque en avril. Et donc Gen 2 est sorti, et lui, c'est bon, il génère des vidéos à 100%. Voilà, c'est bon, c'est fini. Donc il fait du texte tout vidéo, et donc il fait aussi du texte tout vidéo avec une image guide, pour le sujet, le style par exemple. Et tu peux même lui laisser animer une photo, un petit peu comme il le sent. Et bien sûr, il faisait aussi tout ce que Gen 1 faisait, bien entendu. Et c'est pas mal, c'est prometteur. Évidemment, il ne va pas vous sortir en blockbuster 4K demain. C'est clair qu'il fait des clips assez courts, avec une résolution modeste, des détails pas toujours super bien définis. Mais enfin, c'est quand même un autre gelon pour les IA génératives. La génération de vidéos, c'est quand même impressionnant. Et si vous pensez que ça nécessite un énorme data center, pas forcément, parce que Gen 2, bon, il n'est pas encore complètement disponible pour tout le monde, mais il va arriver dans les mois qui viennent. Mais il n'est pas le seul à produire des clips vidéos à partir de texte. Et il y a un autre modèle que tu peux trouver sur Huginface et Modelscope. Et d'ailleurs, parfois, il faut voir ce modèle-là est parfois appelé Modelscope. Mais en fait, c'est pas le nom du modèle Modelscope, c'est le nom du site original où il a été posté. C'est un modèle chinois, qui est téléchargeable sur ce qui est, j'ai l'impression, une sorte de Huginface chinois. Donc Huginface, on le rappelle, c'est une startup qui regroupe un véritable... un site qui regroupe un véritable zoo de modèles de deep learning différents, et qui offre en plus toute une suite d'outils pour les exploiter, pour les déployer. Et Modelscope, ça a l'air d'être un petit peu la même chose, version chinoise. Il y a aussi une API, Modelscope, par exemple. Bref, Damo Vlab, d'après ce que j'ai compris, qui est aussi sur Huginface, propose un modèle qui s'appelle Damo Text to Video Synthesis, et qui fait exactement ce qu'il indique. C'est-à-dire, comme Gen2, c'est le Stable Diffusion pour les vidéos. Et tu peux l'utiliser sur ton propre PC en local, à condition quand même d'avoir une GPU avec 16 Go de VRAM vidéo au minimum, et 16 Go de mémoire centrale. Les résultats ne vous vaudront pas un Oscar, c'est sûr, mais c'est quand même fascinant de voir qu'on a passé un jalon, encore une fois, en intelligence artificielle, et que ça commence déjà dans la foulée à se démocratiser.
0:58:33 à 0:59:45 Guillaume Vendé :
Ça donne un coup de vieux à des outils. Notamment, il y a des outils qui sont fréquemment utilisés par des Instagrammeurs. Tu sais, c'est des outils qui te permettent de prendre une de tes photos, de sélectionner des zones qui pourraient bouger, et puis de les faire défiler. Donc, par exemple, évidemment, ça marche très bien avec des nuages, avec des chutes d'eau, etc. Et donc, tu peux imaginer animer des portions seulement de ton image. Et déjà, c'était graphiquement très sympa, il y avait beaucoup de créativité à trouver avec ces petits outils-là, mais quand tu vois ce genre de solution maintenant, ça ringardise tellement ces types d'outils. Vraiment, retournez-vous sur, il y a un an, deux ans, les outils que vous utilisiez, et faites-vous une projection sur, dans un an ou deux ans, vous allez avoir très peur, je pense. Génial, on va conclure cette rubrique intelligence artificielle avec la GTC, si je ne dis pas bêtise, à la base, c'est la GPU technologie conférence de NVIDIA. Ce qui est assez rigolo, d'ailleurs, c'est que quand tu cherches GTC 2023 sur Google, le titre de la page, c'est la conférence incontournable sur l'IA, on n'est plus du tout sur une conférence pour les ressources graphiques, c'est la conférence incontournable sur l'IA, signe là aussi qu'il y a eu un virage de prix, aussi par NVIDIA, Guillaume.
0:59:45 à 0:59:47 Guillaume Poggiaspalla :
Oui, c'est un virage qui a été
0:59:47 à 0:59:51 Guillaume Vendé :
pris il y a un petit moment. Ce n'est pas un virage soudain de cette année, évidemment.
0:59:51 à 1:03:01 Guillaume Poggiaspalla :
Vraiment pas, mais c'est vrai que ça fait les choux gras de NVIDIA, tout ça, c'est complètement évident. Alors c'est vrai que la semaine dernière a été épuisante, parce que après toutes ces news, il y avait aussi la GTC et la GDC, donc la Game Develop Conference, j'en peux plus. Effectivement, on va parler de la GTC, cette conférence NVIDIA, il y avait aussi quand même des choses intéressantes conjointes avec la GDC qui concernait le graphisme. Je vais essayer de résumer un petit peu ce qui s'est dit. Bien entendu, il y avait une place centrale dans le discours de Jensen Wang. Si OpenAI veut devenir le fournisseur n°1 de logiciels IA, un petit peu, de modèles d'intelligence artificielle, clairement, NVIDIA va être le fournisseur n°1 de tout ce qu'il y a dessous, c'est-à-dire le matos, mais aussi le logiciel pour développer et implémenter, faire tourner, déployer le tout. Microsoft a dépassé d'ailleurs des centaines de millions de dollars en énorme serveur bardé de GPU NVIDIA pour faire tourner le nouveau Bing, son copilot, son chat GPT, etc. Enfin, pardon, son chat GPT, son Bing basé sur GPT. Et NVIDIA, évidemment, il est très content de ça, mais c'est pas suffisant, parce qu'il faut que tout le monde puisse utiliser son matos, même s'il n'a pas les moyens de se l'offrir en vrai, parce qu'il y a eu un super pod, comme disent, de DGX, c'est le nom de leur grosse machine. Donc, graphisme et deep learning, un DGX flambant neuf, c'est pas donné. Donc, qu'est-ce qu'on fait quand on n'a pas les moyens d'acheter ? Eh bien, on loue, tout simplement. Et NVIDIA passe donc des serveurs de calcul dans le cloud, qui est un partenariat avec Oracle, Azure et Google Cloud. Enfin, en tout cas, ça va arriver, pour l'instant, c'est avec Oracle. Et ils vont proposer des serveurs via les plateformes, donc, de ces grands prestataires, de ces grands hyperscalers, avec tous les outils software qui vont bien. Et en fait, très bientôt, tu pourras louer un super ordinateur DGX, charger un modèle de langage géant, le réentraîner, le personnaliser selon tes besoins, comme ça, et après le déployer, donc en inférence sur tes services à toi, et tout ça depuis Firefox. Voilà, depuis Chrome, à la limite, c'est vraiment depuis le navigateur, quoi. Et donc, alors, une super machine capable de faire tourner un JPT pour des milliers de gens simultanément, et même de le modifier pour être géré. Tout ça, ça peut être géré complètement vers un navigateur web, à condition de payer 37 000 dollars par mois. Bon. Alors, pour ce prix, vous avez une instance à vous, avec des monstres comme des H100, avec 80 Go de VRAM. C'est par paquet de 8, par contre, donc 8 trucs comme ça. Et bon, DGX Cloud est déjà utilisé par plusieurs boîtes, comme Getty Images, Shutterstock, AT&T, etc. Donc un DGX de ce calibre, ça coûte quand même dans les 200 000 dollars faciles, tout seul, en fait. Mais après, il y a toutes les infrastructures derrière, autour, et puis il faut payer la facture ODF de ce truc. Il faut gérer la maintenance de ce truc. Tous ces soucis, ben, ils sont pris en charge par le prestateur Cloud, quand vous optez pour le Cloud. Donc on notera pour finir que Nvidia marche, en fait, aussi sur les plateformes d'OpenAI, puisqu'ils proposent une suite complète, en réalité, de tout ce qui va du matos, du matos brut, à du métal, à des modèles de Deep Learning qui sont complètement clés en main, et ça en passant par les API de programmation, donc évidemment CUDA, et les bibliothèques qui sont basées sur CUDA, comme QDNN, etc., etc. L'ampleur que prend Nvidia sur le secteur est vraiment impressionnante, voire préoccupante, d'ailleurs, parce que c'est vrai que malgré leurs efforts, et malgré les progrès, aussi, sur le matos et les logiciels, AMD et Intel ont du mal à concurrencer la toute puissance de CUDA sur le Deep Learning. Ça, c'est vraiment
1:03:01 à 1:03:05 Guillaume Vendé :
impressionnant, quoi. On continue sur la GTC,
1:03:05 à 1:06:03 Guillaume Poggiaspalla :
Guillaume ? Oui, écoute, pourquoi pas. Jensen Wang en a aussi profité pour montrer sa nouvelle collection printemps-été, de grosses pupus bien à stock. En fait, il y en a une qui est assez petite, une très très grosse. Je vais pas vous donner une idée. On commence par la très très grosse, qui en fait est un double GPU. La double GPU, c'est pas une nouveauté du tout. Mettre deux puces sur la même carte, ça, c'est vu plein de fois. Il y a passé longtemps, d'ailleurs, sur une Radeon Pro Duo, on en avait, là, c'est même pas ça, c'est qu'en fait il y a plutôt deux cartes, deux grosses cartes graphiques qui sont collées les l'une à l'autre avec des ponts pour faire communiquer la mémoire. C'est un setup qui ressemble vraiment à du SLI, en fait, mais voilà, d'un bloc, monobloc. Donc il en résulte une carte gargantuesque qui fait 4 slots PCIe dépenseurs qui consomment 700W et qui a 188Go de VRAM. Je vous passe les teraflops que ça aligne, voilà. Et bon, ça, vous pouvez en mettre 4 dans votre gros serveur, évidemment, si vous avez un gros serveur pour insérer ces trucs dedans. Et à l'autre bout du spectre, vous avez la L4, qui est la suite spirituelle des T4 et des P4, donc c'est une carte qui est incroyablement normale, c'est-à-dire qu'elle est plus grosse qu'une T4, mais elle est monoslot et elle consomme 72W, ça veut dire qu'elle n'a même pas besoin d'alimentation externe. Elle a une 24Go de RAM et elle fait plus de 3 fois la puissance d'une T4, et sans doute encore plus pour le deep learning. Elle peut gérer des milliers de flux vidéo de transcodage, si c'est votre truc, elle est assez polyvalente en réalité. Donc tu peux faire ton marché, tu peux, dans ton serveur, tu peux mettre 2 grosses H100 monstrueuses, ou alors tu peux mettre plein de petites L4, c'est toi qui vois, tu fais un petit peu comme tu veux. Il faut acheter des GPU, parce que les GPU, c'est super écologique, et attention, je déforme un petit peu, mais finalement, à peine, les propos de Jensen Wang, qui affirme qu'il y a encore beaucoup trop de boulots qui sont faits par les CPU, alors que les GPU pourraient le faire beaucoup plus efficacement. Et c'est pas faux. Factuellement, c'est pas faux, parce que même si tous les boulots ne sont pas adaptés à une parallélisation massive, il y a un exemple qui est quand même intéressant, c'était SMC, qui va adopter de nouvelles bibliothèques de calcul NVIDIA pour ses processus de lithographie. Bon, je ne veux pas rentrer dans les détails, mais fabriquer une puce, c'est beaucoup aussi de modélisation et de calcul, sur ordinateur évidemment, donc il y a des calculs extrêmement compliqués qui doivent être faits. Et bon, NVIDIA fait aussi dans ce genre de calcul. Il y a aussi des bibliothèques de calcul pour ça. De toute façon, on pourrait passer un épisode entier à parler de la GTCA si vous voulez, mais bon voilà. Bref, TSMC achète aussi des serveurs pour ça, et là, il a acheté des serveurs avec des GPU NVIDIA, pour pouvoir utiliser les nouvelles bibliothèques de calcul de NVIDIA et faire tourner ses calculs sur ses nouveaux logiciels, et ça représente le remplacement de 40 000 CPU contre seulement 500 serveurs DX, et ça fait passer la consommation de 35 MW à seulement 5 MW. Donc c'est vrai qu'il y a une marge de progression dans ne serait-ce que l'optimisation des calculs, et aussi l'adaptation aux matos qui va avec. Et bon, t'inquiète pas, Jensen, il sera ravi de te faire un devis, si tu
1:06:03 à 1:06:39 Guillaume Vendé :
veux. C'est un projet. Il te le démontrera que tu vas gagner de l'argent grâce à lui. Bah oui, il va le faire. Ok, cool, merci Guillaume pour cette revue de la GTC, du coup on l'a compris, c'est pas exhaustif, mais ce sera difficile de vraiment tout couvrir sur le coup, et puis on va se faire quand même plaisir, avant de vous dire au revoir dans cet épisode, en vous parlant un peu de jeux vidéo, notamment des annonces et des sorties du côté d'Epic, Guillaume, avec en particulier l'Unreal Engine avec la version 5.2 qui donne une nouvelle claque après les gifles qu'on avait déjà eu d'Unreal Engine 5, et d'ailleurs de toutes les versions ces derniers temps, Guillaume.
1:06:39 à 1:09:27 Guillaume Poggiaspalla :
Oui, bon, concernant le jeu vidéo, il y avait vraiment des trucs super intéressants et super importants, je pense aussi cette semaine, alors j'ai cité la GDC, c'est à l'occasion de la GDC, et donc dans cette GDC, il y avait aussi la State of Unreal, donc c'était la conférence Epic, et donc, je sais, ça fait vraiment beaucoup d'infos cette semaine, je sais, mais cette conférence était vraiment intéressante, il y a eu plein de choses, alors je vais essayer de condenser un peu, alors bien sûr, Unreal Engine a été la star de cette conférence de multiples manières, alors, déjà, il évolue avec une version 5.2, qui apporte en gros deux nouveautés majeures, qui ont été illustrées dans une démo qui est vraiment super impressionnante, une voiture dans une jungle, dans une forêt très dense, ça vaut le coup d'œil, ça vaut le coup de vidéo YouTube, je peux vous le dire, la première nouveauté, c'est la génération procédurale de contenu, donc concrètement, ce sont des nouveaux nodes qui permettent de définir des règles pour générer du contenu, les contenus du monde, pour peupler un monde, et automatiser un max de trucs, voilà, dans cette construction, par exemple, générer un certain nombre d'arbres, de flaques, ou de cailloux automatiquement, en fonction de divers paramètres, et dans la démo, le monde entier est généré de manière quasi automatique, et il est d'une complexité incroyable, et il est photoréaliste, les rochers, les montagnes, la végétation, presque tout est placé de manière procédurale. La deuxième grosse nouveauté, c'est Substrate, qui est un nouveau système de shading, un nouveau système pour les surfaces, de matériaux pour les surfaces, donc ça permet de créer des matériaux multicouches, donc des matériaux qui ont une certaine profondeur, donc par exemple la carrosserie de la voiture, elle est constituée de particules irisées en profondeur, sur plusieurs plans, et donc tu as un effet de parallaxe quand tu la regardes, qui est hyper impressionnant, et donc ça, déjà c'était juste pas faisable avant, et puis ça facilite en plus la possibilité de rendre du vert de manière beaucoup plus réaliste. Ensuite, on a aussi eu l'annonce d'une nouvelle application pour MetaHuman, qui préfigure probablement une révolution dans l'animation des personnages. MetaHuman, c'est un moteur de création de persos d'Epic, c'est pas strictement un morceau d'Unreal Engine, même si bien sûr, tu peux exporter les MetaHuman dedans. MetaHuman, ça rendait très simple la création d'humains en 3D, ce qui était déjà bien cool, mais pour l'animation, il fallait quand même faire le posing soi-même, en particulier sur les expressions faciales, et ces expressions faciales, c'est très compliqué, parce qu'il y a énormément de points d'animation qu'il fallait faire à la main. Et désormais, ça sera possible de faire de la performance capture avec son téléphone. Donc l'idée, c'est de capturer une vidéo avec les données de couleur et de profondeur de la caméra du téléphone, et de les plaquer sur le visage du MetaHuman. Ça va reproduire les mouvements faciaux que tu as enregistrés sur ta caméra, dans ta vidéo. Donc normalement, pour faire la même chose, il faut tout un bar nombre de capteurs et de caméras de tous les côtés, c'est réservé à des studios qui ont des moyens de faire des productions hollywoodiennes. Et là, on peut dire que c'est vraiment beaucoup plus simple. Donc ça, c'est quand même aussi une très belle avancée.
1:09:27 à 1:09:49 Guillaume Vendé :
Est-ce que c'est les capteurs de profondeur et les capteurs 3D qu'il y a sur la caméra de l'iPhone, ou est-ce que c'est simplement la vidéo ou ça pourrait être n'importe quel smartphone ? Je voudrais savoir, parce que là, c'est mentionné notamment dans l'article des animations qui utilisent uniquement la vidéo qui a été prise depuis un iPhone, mais j'ai l'impression que ce n'est pas du temps réel. Je voudrais juste être sûr de bien comprendre.
1:09:49 à 1:09:57 Guillaume Poggiaspalla :
Alors, ce n'est pas du temps réel, c'est-à-dire, oui, non, ce n'est pas du temps réel. Tu prends la vidéo, et ensuite cette vidéo est plaquée, les mouvements faciaux sont plaqués ensuite.
1:09:57 à 1:10:05 Guillaume Vendé :
Donc c'est bien la vidéo, ce n'est pas des fonctionnalités de captation de profondeur comme on peut en avoir sur Face ID, par exemple, etc.
1:10:05 à 1:10:23 Guillaume Poggiaspalla :
C'est vraiment de la vidéo pure. Oui, c'est de la vidéo. Il est possible qu'on utilise comme les capteurs de Face ID, je ne sais pas exactement. Je pense qu'on utilise les capteurs de profondeur quand même. En tout cas, quand tu recrées les mouvements sur le MetaHuman, tu as besoin des informations de profondeur.
1:10:23 à 1:10:33 Guillaume Vendé :
C'est incroyable. T'imagines, les mecs vont pouvoir s'aider de smartphone pour des trucs comme ça, c'est assez dingue. Un petit mot du côté de Fortnite, Guillaume.
1:10:33 à 1:16:49 Guillaume Poggiaspalla :
Oui, alors tout ça, c'est bien, mais en fait, finalement, encore le plus intéressant peut-être pour les applications que ça va avoir, c'est ce qui a été dit après. Alors déjà, Epic lance un nouveau langage de programmation qui va s'appeler Verse. Ça va servir de langage de script pour Unreal Engine. Sinon, Unreal Engine, ça se programme en C++ si vous voulez, ça se programme aussi avec des nodes, un système de noeuds, c'est-à-dire que vous avez des cadres dans lesquels vous avez des cadres fonctionnels que vous reliez comme ça, les uns aux autres, mais Verse est plus général que ça. Verse n'est pas cantonné à Unreal Engine ni même à Epic, c'est un langage open source, qui est utilisable par n'importe qui en a envie, et qui pourrait devenir une sorte de JavaScript pour le MetaVerse. Et oui, Verse, c'est pas un nom qui est choisi au hasard, pas du tout. Et on commence à voir l'orientation que prend la conférence, surtout juste après, Epic annonce la création de FAB, qui est en fait la fusion de tous ces magasins d'assets, de magasins de ressources, de modèles 3D, tout ça, parce qu'Epic possède déjà Quixel, SketchFab, ArcStation, et bien sûr le Unreal, le Unreal Marketplace, intégré à l'Unreal Engine, et bien tout ça, ça va fusionner pour devenir FAB, qui va devenir un magasin unifié, et qui va s'adresser à tous les moteurs, pas seulement Unreal. Donc vous pourrez utiliser un objet de FAB dans Unity, ou même dans Roblox, d'ailleurs, pas de problème. Donc si vous êtes sous Unreal, vous pourrez, au besoin, tout simplement ouvrir une fenêtre, fabriquer votre jeu dans l'Unreal Engine, vous ouvrez une fenêtre, vous sélectionnez votre objet, qui est automatiquement téléchargé et inclut exactement là où tu le veux. Il y en a des millions, dont certains, comme les Megascans, sont de qualité photoréaliste, puis ils ont été faits en photogrammétrie. Et enfin, on arrive peut-être à la plus grosse annonce, Epic sort une version spéciale de son Unreal Engine pour Fortnite. Donc avec ça, tu peux modifier les maps Fortnite, faire les tiennes, tu peux aussi créer tes propres jeux. L'interface est revue, il y a même des bonus, comme la possibilité de jouer au jeu, au niveau que tu es en train de faire pendant que tu le crées. Tout est en temps réel, même sur console. Tu peux modifier le truc en temps réel, c'est incroyable. Et tu peux gagner de l'argent avec. Parce que si tu crées un jeu qui a du succès, si ton jeu crée de l'engagement, et que du coup Epic a plus de gens sur Fortnite grâce à toi, il te reverse 40% de ses revenus. Donc c'est des revenus qu'il fait grâce à ton contenu. Et donc ça y est, c'est fini. Officiellement, je veux dire, Fortnite n'est plus un jeu de shoot Battle Royale. C'est une plateforme où les joueurs vont consommer principalement du contenu créé par d'autres joueurs. Comme avec Roblox. Il va y avoir une nouvelle économie, et une toute nouvelle génération de créateurs de jeux qui va se précipiter sur ces outils. Et bien sûr, d'ailleurs, au passage, ils vont tous se former sur Unreal Engine. Bien entendu. Donc Fortnite devient une sorte de Roblox, mais avec des outils technologiques de pointe. Parce que Fortnite est passé récemment sur Unreal Engine 5. Ce qui fait que les créateurs de maps ou de jeux Fortnite ont à leur disposition l'état de l'art en matière de moteur 3D. Combiné à ce qui est peut-être le plus gros magasin d'assets du monde, il y a quand même un énorme potentiel parce que Roblox, c'est mignon. Mais comment dire, Unreal Engine 5, tu peux créer des AAA, quoi, sans problème. Les possibilités sont vraiment immenses. Donc la mutation de Fortnite se fait selon la vision que Tim Sweeney a du Metaverse. Et qu'il a d'ailleurs explicité en fin de keynote. Alors, il a explicité en fin de keynote et il y a aussi eu une interview sur The Verge, une longue interview avec lui et un VP d'Epic. Donc il a donné quelque part cette vision qui est une vision assez éloignée de celle de Facebook. Déjà, elle est disjointe de la réalité virtuelle. Ça pourrait être réalité virtuelle ou pas. Pour lui, de toute façon, un Metaverse, c'est un monde 3D en ligne, dans lequel on peut interagir pour jouer, créer, chiller, voir des concerts, ce que vous voulez. Être libre, mais être en présence de quelqu'un. Et d'ailleurs, il fait une pique aux réseaux sociaux, au passage. Je le cite. C'est pas sympa d'être sur Facebook, avec tout le monde qui se tape dessus, qui s'écharpe sur la politique ou qui te jette à la tronche à quel point il est merveilleux en photo. Il dit que c'est impersonnel, que c'est asynchrone et qu'être en présence de quelqu'un, en temps réel, avec des gens qu'on a choisis, c'est une bien meilleure forme de sociabilité. Donc Fortnite ou Minecraft sont des Metaverse, ou Roblox sont des Metaverse. Ce qui manque, c'est l'interopérabilité de ces univers. Et donc, il dit, travaille tout en étant bien conscient que ça va prendre beaucoup de temps, que ça se fera que petit à petit et que le Metaverse ne se décide pas. Pour eux, néanmoins, donc oui, pour eux, parce qu'il y avait donc SaksPerson avec le VP Epic, pour eux, c'est inévitable. En fait, le succès des expériences en ligne en témoigne. Et finalement, ce qu'ils font, c'est juste de creuser le sillon. Ils veulent poser les bases d'un écosystème ouvert. Donc, pas à pas, ils veulent retranscrire les atouts du web, mais pour les mondes 3D. Alors, il y a déjà des formats, par exemple, de fichiers universels pour les objets 3D. Par contre, pour la description de scènes, il n'y en a pas. Tu vois, c'est pas encore ça. Et pour ce qui serait la logique d'un niveau de jeu, ou la physique d'un niveau de jeu, c'est encore autre chose. En fait, même Unreal Engine version normale et Unreal Engine pour Fortnite ne sont pas 100% compatibles. La coquille du jeu est compatible, elle peut passer de l'une à l'autre, mais pas la logique. La logique d'Unreal Engine pour Fortnite contient des éléments qui sont intrinsèquement liés à Fortnite, et donc il faudrait les virer. Donc, c'est compliqué. Il va falloir faire une sorte de HTML des scènes 3D, et ensuite un Javascript des scènes 3D. Ce HTML et ce Javascript, ça pourrait très bien être Verse, pourquoi pas. Mais finalement, Roblox a aussi un langage de script qui est basé sur LUA, qui s'appelle LUAU, et Tim dit qu'il sera Fairplay. Si LUAU gagne, ok. Si c'est Verse, très bien. De leur point de vue, tout le monde y gagne de toute façon si les choses sont interopérables. C'est pas un jeu à somme nulle, ils pensent qu'il y a suffisamment d'acteurs, de toute façon, pour qu'on ne se retrouve pas avec un monopole ou un duopole comme on a sur Spartphone. C'est sans doute vrai aujourd'hui, mais Microsoft y travaille. Tant sûr, pas si on s'en mettra plus petit à tête, ce genre de truc. Mais donc Tim, voilà, Tim voit un metaverse interopérable, et même au niveau économique à terme, ce qui est encore peut-être plus utopique, je sais pas. En tout cas, il s'attend à faire croître encore sa base de plus de 80 millions de joueurs mensuels, en s'ouvrant aux créateurs, qui vont pouvoir encore accroître l'attractivité de Fortnite. Et ça, c'est vrai que c'est quand même une énorme annonce, je trouve.
1:16:49 à 1:19:23 Guillaume Vendé :
L'ADN de Fortnite va au-delà, d'ailleurs, de la Battle Royale. Il y a déjà tout un écosystème de maps et d'expériences qui sont évidemment pas aussi ambitieux que ce qui va être possible de faire. Mais déjà, je te confirme, pour avoir un entourage peuplé de ces choses qu'on appelle enfants, voire adolescents, qui utilisent, qui jouent à Fortnite, ils passent aussi beaucoup de temps dans des maps qui sont pas celles du Battle Royale. Et j'ai même été surpris de voir que, finalement, même au bout d'un certain moment, ils jouent assez peu au Battle Royale, et ils jouent plutôt aux autres expériences. Donc évidemment, c'est un terrain fabuleux et très logique, qui s'ouvre à la fois à Epic et aux joueurs, et évidemment à ceux qui ont envie de créer des jeux assez ambitieux grâce à ces outils. Merci infiniment, Guillaume, de nous aider à essayer d'y voir un petit peu plus clair, d'essayer d'avoir une route qui soit tracée dans cet océan merveilleux de l'intelligence artificielle et des évolutions technologiques. Si vous partagez le sentiment que je viens de témoigner, d'apprendre des choses, de passer un bon moment, et puis d'attendre les publications, semaine après semaine, jour après jour, les petits rendez-vous en podcast en audio, on compte sur vous, vous allez sur patreon.com.taccafé, vous prenez quelques secondes, minutes, pour envisager de soutenir le podcast et de faire partie de manière intégrante à l'aventure, et évidemment, merci beaucoup de faire savoir à quel point vous appréciez TACCAFÉ sur les plateformes de podcast. Juste un petit mot, il y a deux raisons pour lesquelles on vous invite à le faire, c'est que d'une part, ça nous fait très plaisir, quand on lit les avis, comme celui de Félix Lumain, que j'ai cité en intro, ça fait évidemment très plaisir et très chaud au cœur, et ça donne de l'énergie en permanence pour faire du podcast, même si on aime ça à la base, et puis ça aide aussi les personnes qui cherchent des nouveaux podcasts, oui, il y a des personnes qui cherchent des nouveaux podcasts en 2023, et qui vont parfois sur les apps de podcast et qui se fient aussi aux avis qui sont restitués, et croyez-moi, c'est évidemment une très grande force et une très grande visibilité que vous faites en montrant à quel point TACCAFÉ est cool pour vous. Merci beaucoup pour votre fidélité, on va vous rappeler rapidement où vous pouvez nous retrouver, d'une part sur TACCAFÉ.fr pour commenter les épisodes avec les articles qui accompagnent la parution des épisodes, vous avez également le serveur Discord de TACCAFÉ, vous pouvez échanger entre vous et avec nous, et puis un truc assez bien aussi, c'est qu'on peut nous retrouver à titre individuel, Guillaume, il est grand temps, enfin, c'est l'épisode 315, vas-tu nous faire ce plus beau cadeau qui soit que de nous dire où on peut te retrouver à titre individuel ?
1:19:23 à 1:19:37 Guillaume Poggiaspalla :
Il faut que je continue ma thérapie avec la main, parce que j'ai essayé de faire un chatbot, enfin, j'ai pas essayé, il y a un chatbot et j'ai fait un chatbot psychanalyste avec la main. Je peux te dire que ça a bien évolué depuis Elisa, c'est vraiment impressionnant.
1:19:37 à 1:21:41 Guillaume Vendé :
Allez, tu vas forcément... Je suis déconnecté de Google Docs, c'est vraiment une qu'il faut qu'on arrête. Merci beaucoup Guillaume, je suis Guillaume Vordé, vous me retrouvez sur guillaumevordé.fr ou sur les réseaux sociaux, merci beaucoup encore pour votre écoute et on se dit rendez-vous dans quelques jours pour un prochain épisode de Tech Café, ciao à toutes et à tous. Ciao à tous. Merci beaucoup d'avoir écouté cet épisode de Tech Café jusqu'au bout et avant de vous laisser, je voudrais vous parler d'une belle initiative qui s'appelle le Podcaston, librement inspiré du The Event que vous connaissez bien mais avec les codes du podcast. Le Podcaston, c'est un événement caritatif qui se déroule du 25 au 31 mars 2023. Le principe est super simple, il y a plus de 350 podcasts indépendants qui ont décidé de dédier un épisode à une cause, à une association. L'enjeu est aussi et surtout d'aller vous rendre vous de votre côté en tant qu'auditeur sur le site podcaston.org et d'aller participer, soutenir ou faire un don à l'une des nombreuses associations qui ont été impliquées. Pour ma part, mon intention était initialement de mettre en avant l'association Coder Dojo qui œuvre à initier et accompagner des clubs de programmation gratuits et locaux pour les jeunes. J'ai malheureusement pas pu m'organiser correctement et mon planning ne m'a pas permis de faire un épisode dédié comme je l'aurais initialement souhaité. Mais je voulais tout de même vous insister à aller jeter un coup d'œil à ce dispositif. Ils sont présents dans plus de 100 pays et d'ailleurs dans quelques endroits en France, c'est assez à mon goût. Mais évidemment, plus globalement, de vous inciter à aller jeter un coup d'œil à l'ensemble du podcaston qui met en lumière le tissu associatif et qui fait évidemment un travail incroyable pour soutenir des causes extrêmement variées. N'hésitez donc pas à vous rendre sur podcaston.org pour découvrir les associations qui sont soutenues et peut-être, pourquoi pas, faire un don pour aider leurs causes. Merci beaucoup de votre écoute et à très bientôt pour un prochain épisode de TechCafé.