Transcription automatique de l'épisode 318supp

Via Whisper (OpenAI), faster-whisper (github/guillaumekln) et Pyannote-audio (github/pyannote). Basé sur une idée de Ruhollah Majdoddin.



0:00:12 à 0:01:40 Guillaume Vendé :
Bienvenue dans ce supplément de Tech Café. On a plein de news en vrac, qu'on va vous partager, on va aller vraiment dans tous les sens. Si vous n'avez pas écouté l'épisode incontournable du moment, c'est l'épisode 318 qui est dispo dans le flux du podcast. Je me dois aussi de vous rappeler qu'il n'y a pas d'événement, il n'y a pas d'événement, il n'y a pas d'événement, il n'y a pas d'événement, il n'y a pas d'événement, il n'y a pas d'événement, il n'y a pas d'événement, il n'y a pas d'événement, il n'y a pas d'événement, il n'y a pas d'événement, il n'y a pas d'événement, il n'y a pas d'événement. Je me dois aussi de vous rappeler que l'épisode supplément de la semaine dernière est toujours disponible. Il y sera désormais pour très très longtemps, je pense, mais disponible. Robotique et IA, la concordance des temps. Ça s'écrit D-E-T-E-N-D. Allez, ultime tolérance pour celui-ci, je vous laisse vous mettre à jour. Je suis Guillaume Vordé, podcasteur technophile enthousiaste et je retrouve le savant cuisinier qui nous a concocté la recette de cet épisode supplément, c'est Guillaume Poggiaspalla. Salut Guillaume, comment vas-tu ?
0:01:40 à 0:01:42 Guillaume Poggiaspalla :
Ben écoute, ça va, c'est moi le ratatouille de l'épisode, exactement.
0:01:42 à 0:02:12 Guillaume Vendé :
Oui, le petit rat sous la toque du chef. Merci Guillaume pour cette préparation et puis on a l'immense plaisir aussi de retrouver un chroniqueur avec qui on commence maintenant à prendre nos marques et avoir un petit peu d'habitude qui nous confiait, après l'enregistrement de l'épisode hebdomadaire, à quel point il y avait une bascule entre les échanges avant l'épisode et puis au moment où on commence et on lance l'introduction. C'est Steph, en tout cas IA Steph Vincent. Salut Steph, merci de nous retrouver pour cet épisode à nouveau.
0:02:12 à 0:02:18 Stéf :
Ravi d'être à nouveau là et de pouvoir échanger avec vous sur plein de sujets qui s'avèrent passionnants.
0:02:18 à 0:04:10 Guillaume Vendé :
Avec grand plaisir, ça va être un petit peu plus large que simplement de l'intelligence artificielle, on va explorer d'autres sujets et puis comme ça je vous laisse maintenant supputer, vous qui nous écoutez, sur le ton que j'emploie avant d'initier les épisodes. Ça restera une légende qu'on gardera entre nous, mais vous voyez je suis toujours enthousiaste pendant qu'on discute et pendant qu'on aborde nos news tech. Avant de les aborder d'ailleurs, je me dois de vous rappeler qu'il y a une plateforme de financement participatif qui s'appelle Patreon. On y a une page, elle est accessible sur l'adresse patreon.com slash techcafé et le principe est très simple, peut-être que vous soutenez déjà aujourd'hui des créateurs de contenu avec Patreon, auquel cas, il n'y a plus qu'à regarder dans quelle mesure est-ce que Techcafé vous pourriez soutenir la sortie des épisodes et participer financièrement à la production des épisodes. Si jamais vous n'avez pas de compte, je vous rassure, ça prend quelques secondes à faire. En plus, tout ce que vous ferez sur cette plateforme est sans aucun engagement, donc vous pouvez vous dire alors c'est bon, j'ai fait un mois de soutien, je n'en peux plus, ça ne le mérite pas et j'arrête. Mais vous pourriez aussi faire partie des personnes qui nous soutiennent durablement. Il y a toujours des personnes qui préfèrent laisser tomber en cours de route parce qu'ils estiment qu'ils ont assez soutenu ou qu'ils n'ont plus assez de temps pour écouter des podcasts. On ne peut pas leur jeter la pierre, mais en tout cas, évidemment, on compte sur vous qui ne l'avez peut-être jamais totalement envisagé pour aller voir si ça ne vaut pas le coup de soutenir Techcafé, le contenu qu'on vous met à disposition qui, je pense, est relativement qualitatif mais aussi, surtout, apporté avec un ton convivial et puis, en faisant cette petite démarche, vous aurez en contrepartie un flux du podcast privé, sans la pub. C'est toujours ça te prie. Sans autre forme de procès, on continue. Désolé, il en faut encore un petit peu. On va parler des modèles de langage. Guillaume, il y a des choses qu'on n'a pas encore dit sur les modèles de langage cette semaine ? Et ouais, il y a des
0:04:10 à 0:04:22 Guillaume Poggiaspalla :
trucs à savoir sur les modèles de langage. C'est des scientifiques qui le disent et les scientifiques, c'est quand même des gros filous. Parce que quand ils veulent t'arnaquer, ils y arrivent. Regarde ce papier, cet article-là. Son titre, c'est 8 choses à savoir sur les modèles de langage.
0:04:22 à 0:04:24 Guillaume Vendé :
Bon, ça annonce la couleur. Le huitième va vous surprendre.
0:04:24 à 0:06:46 Guillaume Poggiaspalla :
Voilà, c'est 8 choses. Voilà, c'est ça. Le huitième va vous surprendre, absolument. Dans la section 9, qui est la section de discussion, figure-toi qu'ils mettent 9.1, 9.2, 9.3, 9.4 et voilà qu'ils ne mettent 6 trucs en plus. Alors d'accord, ça s'appelle 8 trucs à savoir mais ils t'en parlent de 14. Et je ne compte pas les trucs en 12 entre 2, comme ça. Donc franchement, c'est pas rigoureux, ça. Bon alors, vous voulez peut-être savoir ce que c'est les 8 choses et donc pas du tout les 14 choses qu'il y a à savoir sur les modèles de langage ? Les deux premières, c'est qu'au plus vous mettez de pognon dans votre modèle, au plus il est puissant. Alors d'une part, il devient de plus en plus précis de manière prévisible. C'est-à-dire tout simplement qu'il prévoit de mieux en mieux les mots qui suivent, puisque ça, on l'oublie parfois, mais c'est quand même leur boulot de base. D'ailleurs, il y a un graphique qui est assez intéressant là-dessus, qui montre en fait la compression que cela représente. Imaginons que vous ayez un texte, avec des mots qui se suivent, si un modèle de langage est capable de prédire les mots, vous n'allez pas les stocker puisqu'il sait les prédire. Alors bien sûr, il va y en avoir qui seront nécessaires pour commencer le texte, parce qu'il ne peut pas deviner à partir de rien, et puis aussi il va se planter des fois, et donc vous devrez stocker le mot. Mais la plupart du temps, si c'est vraiment un très bon modèle de langage, forcément, il va réussir à trouver les mots et vous n'aurez pas à les stocker. Donc en moyenne, combien est-ce qu'il faut de bits par mot pour recréer le texte original si on le compresse avec un modèle de langage ? Avec GPT-4, c'est à peine plus de 1 bit par mot. Et ce qui est marrant, c'est qu'il y a une loi de loi d'échelle, c'est-à-dire sur les modèles antérieurs, un modèle qui a nécessité 100 fois moins de calcul, c'est à peu près 2 bits par mot, en gros. Et c'est extrêmement prévisible. Donc il y a une corrélation directe entre le nombre de bits par mot et la puissance nécessaire à créer le modèle. Donc dans ce sens, les modèles de langage deviennent meilleurs de manière totalement prévisible. Mais le truc à savoir, c'est qu'ils deviennent aussi meilleurs de manière imprévisible. Il y a ce qu'on appelle des capacités émergentes. Au fur et à mesure qu'ils grossissent, les modèles nous surprennent avec des capacités qu'ils acquièrent brusquement, et qui n'étaient pas prévues, et pour lesquelles, d'ailleurs, ils n'ont pas été entraînés. Par exemple, le fait que GPT-3 ait été capable d'apprendre à faire des choses juste avec quelques exemples dans le prompt, ce qu'on appelle le few-shot learning, c'est une découverte que les chercheurs ont fait après l'avoir entraîné, parce qu'eux, ils l'ont entraîné à la base juste pour compléter des phrases. Mais il y a mieux. Sa capacité à expliquer le raisonnement, à expliciter le raisonnement qu'il fait sur un problème donné, sur un problème complexe qu'on lui pose, ça a été découvert des mois plus tard.
0:06:46 à 0:06:48 Guillaume Vendé :
Donc les capacités
0:06:48 à 0:08:34 Guillaume Poggiaspalla :
à faire des jeux de mots, à les comprendre, les capacités à faire de l'arithmétique simple, à programmer, à te corriger si tu fais une erreur, c'est des choses qui apparaissent de manière abrupte, et qui se consolident par la suite. Aujourd'hui, on n'est pas sûr de tout ce que sait faire GPT-4, et on n'est pas sûr non plus de ce qui apparaîtra avec un modèle qui soit plus complexe que lui, ni même s'il y a d'autres choses qui vont apparaître d'ailleurs. Certains des plus gros modèles semblent développer une représentation du monde extérieur, comme GPT-4, qui s'est dessiné une licorne en la programmant avec un langage de graphisme vectoriel. Parfois ils peuvent jouer à des jeux de plateau, c'est vraiment assez étonnant. Toutes ces capacités sont parfois émergentes, parfois pas. Il y a des capacités qui ne sont pas émergentes, il y en a certaines qui le sont, on ne sait pas trop pourquoi, et on ne sait pas exactement ce qui va se passer. Et pour le moment, on n'a qu'une idée très vague de comment ça marche dedans. Je veux dire par là qu'on peut assez bien visualiser ce qui se passe dans un réseau convolutif qui reconnaît des formes. Vous prenez un réseau de neurones qui sait reconnaître des chats, des chiens et des belettes, on peut à peu près visualiser quelle couche repère tel type de motif. Ça, on ne peut pas encore le faire avec des modèles de langage. Certainement, certaines couches repèrent certaines structures, mais tout ça reste vraiment très flou. Donc un modèle de langage, c'est un Kinder Surprise. Tu ne sais pas ce qu'il y a dedans, et tu as des surprises quand tu ouvres. Donc ça, c'est les trois premiers points. Et quatre, oui, je sais, c'est long, on peut lire qu'il est impossible d'être totalement sûr qu'un modèle de langage ne partira pas en cacahuète à un moment ou à un autre. Donc il faut continuer à les cadrer par renforcement, comme on l'avait expliqué dans l'épisode hebdomadaire, mais il faudra aussi des garde-fous supplémentaires et des ancrages externes. D'ailleurs, ils ne devraient pas avoir non plus de valeur, ces modèles de langage, donc il faut faire attention à ce que les modèles ne véhiculent pas les valeurs des créateurs, ni même celles du web en général, parce que ce n'est pas ce qu'on recherche, de créer une espèce de photo floue du web, ce n'est pas vraiment ce qu'on recherche quand on fait un modèle.
0:08:34 à 0:08:38 Guillaume Vendé :
C'est assez embêtant pour un trousse GPT, tout ça. Et...
0:08:38 à 0:10:06 Guillaume Poggiaspalla :
Voilà, je vous laisse juger. Un modèle de langage ne devrait pas être une photo comme ça, parce que ce ne sera pas très joli. Il faut aussi voir que les LLM font... Quand je dis LLM, c'est vrai que peut-être je vais utiliser ce truc assez... LLM, c'est Large Language Model, donc c'est les gros modèles de langage, et c'est vrai que c'est assez commode de dire LLM souvent, puisqu'on répète assez souvent gros modèles de langage. Donc les LLM font parfois aussi mieux que les humains dans certaines tâches. Et surtout, c'est difficile de se faire une appréciation juste de leur capacité, tout simplement parce que des fois, même s'ils échouent, ça ne veut pas dire qu'ils ne savent pas le faire. D'ailleurs, s'ils réussissent, ça ne veut pas non plus dire qu'ils savent le faire. C'est-à-dire que parfois, ils n'échouent pas de manière constante, et des fois, ils réussissent. Parfois, c'est juste une question de formulation ou de contexte, parce que comme c'est purement du langage, la manière dont on fait le prompt est extrêmement importante. Donc c'est très difficile d'être totalement sûr qu'un modèle de langage sache ou non faire telle ou telle chose précise. Pour la section 9, je triche avec mon titre. On peut retenir rapidement quelques trucs aussi. Les modèles vont probablement continuer à s'améliorer. Ils vont sans doute être instrumentalisés dans des agents de plus en plus autonomes. Les développeurs n'auront pas énormément leur mot à dire, finalement, sur leur commercialisation et leur usage. Ce sera plutôt le marché qui donnera les orientations. Il y aura probablement aussi de plus en plus de risques liés aux IA. On peut constater que la science et l'éducation en la matière sont encore au stade embryonnaire.
0:10:06 à 0:10:14 Guillaume Vendé :
Il y a énormément de travail. Est-ce qu'il y a des choses qui t'ont marqué là-dedans, dans cette revue de tous ces points, de ces choses à savoir sur les LLM ?
0:10:16 à 0:11:56 Stéf :
Il y a une chose qui est très importante de souligner, c'est que par nature, un LLM est là pour générer. Il génère le mot prochain le plus plausible. Évidemment, pour tout ce qui est factuel, on ne peut pas du tout se fier de façon très claire à ce qu'il fait. Encore une fois, on connaît très très mal, comme l'a rappelé Guillaume, on connaît très mal la façon dont les nouveaux modèles, en particulier GPT-4, acquièrent ces espèces de capacités de raisonnement. Je mets ça entre guillemets, ce n'est pas tout à fait le cas, mais on a du mal à le concevoir et à l'expliquer. D'ailleurs, à ce sujet, j'essaierai de vous envoyer le lien. J'avais lu un article très intéressant sur les numériques, d'un journaliste qui disait qu'il avait essayé de jouer aux échecs contre... C'était Tchèque-GPT, donc GPT-3.5, et qu'il avait trouvé nul. En gros, il avait expliqué pourquoi il l'avait trouvé nul. Je trouve que c'est super intéressant de pouvoir le mettre en avant, c'est qu'encore une fois, il n'a pas de capacité de raisonnement à proprement parler. Il a vu passer, peut-être, des mouvements sur Internet dans sa base d'entraînement. Du coup, il déduit que le mouvement d'après, c'est celui qu'il a vu dans sa base d'entraînement, mais comme on le sait, le truc, c'est que chaque partie d'échec est quasiment unique. Évidemment, s'il ne comprend pas ce qu'il fait, il est incapable de jouer aux échecs. Il va juste pouvoir faire quelque chose qui semble plausible par rapport à ce qu'il a vu passer. Ce que dit Guillaume est hyper important, c'est que là, on en est à un stade embryonnaire, mais moi, ce qui m'inquiète surtout,
0:11:56 à 0:11:58 Guillaume Vendé :
c'est ce que les gens
0:11:58 à 0:12:54 Stéf :
mettent derrière, en fait. C'est ça qui est super important. L'auditeur avait tout à fait raison il y a une ou deux émissions de ça, quand il disait, ça me gêne qu'on parle d'intelligence artificielle parce qu'en fait, il y a une espèce de syndrome d'autorité. En parlant d'intelligence, quand c'est Google qui le brande, quand c'est Amazon, Apple, que sais-je, quand on parle d'intelligence, on a vite tendance à croire ce qui est dit et ce qui est fait. Moi-même, je me suis fait avoir quand je travaillais avec Cotlin, avec GPT-4 pour apprendre Cotlin. Il y avait un moment, je savais très bien ce que je faisais, je savais très bien à quoi j'avais à faire, un moment où on se fiait vraiment les yeux bandés à ce qu'il disait, avant de se rendre compte qu'il disait une énorme bêtise. C'est ça qui est à la fois effrayant et en même temps très rassurant, j'espère, pour nous sur le long terme.
0:12:54 à 0:13:38 Guillaume Vendé :
Absolument. Je l'ai déjà dit, je me permets de le répéter parce que je trouve que c'est important, mais il y a la vidéo de Science étonnante, qui est la dernière au moment où on enregistre cet épisode, qui est très parlante aussi, si vous voulez bien visualiser à quel point ces algorithmes sont générateurs de probabilités de textes plutôt que de véritables intelligences. Mais évidemment, on a aussi illustré dans tous les épisodes de Tech Café à quel point ça suffit pour plein d'usages complètement bluffants et ton témoignage, comme tu l'évoquais là brièvement par rapport à l'apprentissage de Cotlin qu'on a abordé dans l'épisode hebdomadaire de cette semaine, est aussi un très bon exemple. Guillaume, on va continuer à faire un petit peu du dessous des cartes de l'intelligence artificielle ?
0:13:38 à 0:14:00 Guillaume Poggiaspalla :
Là, c'est plutôt juste un petit follow-up, puisque la Chine vient officiellement d'annoncer qu'elle ne voudra pas d'IA capitaliste sur son sol. Parce qu'en Chine aussi, c'est la folie. Après Baidu et Sense Times, c'est au tour d'Ali Baba de dévoiler son propre projet de GPT à lui. Et donc, devant cette floraison, le parti est clair, les IA chinoises devront véhiculer des valeurs socialistes. Et pas dire du mal de Xi Jinping, évidemment. Donc, les valeurs tech...
0:14:00 à 0:14:04 Guillaume Vendé :
Ça paraît évident, en fait. Même vu de l'extérieur, ça paraît évident que ce soit décidé comme ça.
0:14:04 à 0:14:56 Guillaume Poggiaspalla :
Oui, bien sûr. Après, c'est peut-être moins facile à mettre en oeuvre. Mais bon, écoute. En tout cas, les valeurs tech qui font de l'IA continuent de grimper en Chine comme jamais. On va voir un petit peu comment ils négocient ça. Pour l'instant, l'intelligence d'Ali Baba est relativement correcte. Elle est assez comparable à ce qu'on peut avoir en Occident. Évidemment, elle s'exprime beaucoup mieux en chinois. Mais bon, elle a beaucoup de problèmes aussi avec la logique de base. Donc, pour l'instant, il n'y a rien de particulièrement... Enfin, voilà. Il n'y a pas une innovation majeure, on va dire, de l'autre côté. Pour l'instant, c'est un petit peu en coude à coude. Et on peut finir aussi en disant qu'en Italie, on avait dit qu'ils avaient banni... Enfin, JGPT. Ils vont... Ils ré-entrouvent la porte à OpenAI, si tu veux, pourvu qu'ils vérifient l'HD mineur et qu'ils demandent le consentement. En gros, ils pourraient revenir jusqu'au 30 avril pour se mettre en conformité. Mais bon, peut-être que l'interdiction ne sera pas de très très longue durée.
0:14:56 à 0:15:12 Guillaume Vendé :
On le rappelle, l'interdiction portait plus sur des éléments un peu annexes que vraiment sur les sujets de fond liés à ChatGPT. Parfait. On continue, du coup, avec Microsoft et Samsung, Guillaume.
0:15:12 à 0:17:20 Guillaume Poggiaspalla :
Écoute, d'après le New York Times, Samsung envisagerait sérieusement de remplacer Google par Bing sur ses appareils. Alors, évidemment, c'est un gros coup pour Google, qui serait, je cite, en état de choc, voire en panique. Google paye assez cher pour être le moteur de recherche par défaut chez Samsung, d'ailleurs, chez Apple aussi. Et c'est peut-être ça le véritable enjeu. C'est-à-dire qu'ils payent déjà beaucoup, mais ils pourraient payer encore plus. Parce qu'avant, Bing, il était anecdotique. Bon, et maintenant, bon, maintenant, il est toujours anecdotique, mais il fait la une des médias. Il est un tout petit peu moins petit. Et puis, il est très très hype et à ChatGPT, c'est une rockstar mondiale, donc, bon, c'est peut-être juste une bonne occasion de mettre un gros coup de pression sur Google pour le faire payer plus. De toute façon, Samsung et Microsoft marchent déjà main dans la main, tu sais, comme François Mitterrand et Helmut Kohl, mais rien n'indique que Microsoft sera prêt à aligner dans les, quand même, 4 milliards de dollars, cet ordre-là, pour imposer Bing, donc, en plus de tout ce qu'il a déjà, tout ce qu'il a déjà déboursé, ne serait-ce que pour le mettre en œuvre. Donc, ils ont déjà beaucoup donné. Par contre, menacer Google, qui a son premier concurrent potentiel semi-crédible depuis 20 ans, ben, ça pourrait rapporter un petit peu plus de pognon à Samsung. Parce que Google, il n'est pas habitué à la concurrence, ça le perturbe un petit peu tout ça. Il se sent tout vulnérable, le pauvre. Et donc, après le journal, d'ailleurs, la compagnie qui est un interne, il faudrait refondre tout, y compris d'ailleurs la recherche, pour y intégrer encore plus d'IA. Et alors, en fait, c'est marrant parce que ça fait des années que Google utilise BERT, qui est une IA, qui est un modèle de langage, déjà, pour faire de la recherche sémantique. Mais c'est pas visible. C'est ça qui est assez rigolo, Google fait de l'IA depuis des années, mais c'est pas assez spectaculaire, en gros, tu vois, et du coup, ils se retrouvent, ben, au second plan. Mais d'après les documents internes, alors c'est non confirmé par les intéressés, Google aurait projet Maggi. Alors c'est bien joué parce que c'est connu, Maggi soleil ou bien Maggi larme, on est sous le charme. Bref, ça rajouterait à la fois une dimension conversationnelle et une dimension fortement prédictive à la recherche. Donc le tout en conservant les pubs, bien entendu. Et bon, bien entendu, aussi le projet de mettre de l'IA dans tout, absolument tous les produits Google, et même des nouveautés, il y aura un prof de langue étrangère qui sera en préparation et un générateur de gifs animés, il y aura une chatbot pour Chrome, bon voilà. Plein de produits dont 60% seront assassinés froidement d'ici trois ans, comme d'habitude.
0:17:20 à 0:17:42 Guillaume Vendé :
Steph, comment tu observes un peu justement les mouvements de Google ? Bon, Guillaume en a fait un bon résumé, je pense, mais tu penses qu'ils peuvent sortir leur épingle du jeu rapidement ? Il va leur falloir du temps ? C'est vrai que ça donne vraiment l'impression qu'ils sont un petit peu en panique et pourtant, Google, ils ont de la ressource sur ces sujets-là. Comment ça peut évoluer selon toi ? Je...
0:17:42 à 0:19:12 Stéf :
Pour moi, ils sont soumis au dilemme de l'innovateur, c'est-à-dire qu'ils ont une telle puissance commerciale qui s'est instaurée avec leur mode de fonctionnement actuel qu'ils ont énormément de mal à bouger les lignes. Je rappelle quand même que l'article fondateur de tous les LLM, enfin en partie, c'est sorti des équipes de chez Google. C'est un article de 2017 qui parle des modèles d'attention et en particulier, c'est de là qu'est sorti les Transformers. Ce que je trouve hallucinant, c'est de voir à quel point ils sont en retard. En tout cas, sur le plan commercial, ils sont en retard là-dessus. Parce que je ne suis pas dupe. Je me doute bien qu'en ayant sorti de leur propre labo depuis 2017 les Transformers, ils doivent être extrêmement efficaces pour traiter de l'IA dans différentes tâches. Mais par contre, c'est vrai que commercialement, on ne les voit pas et ça devient de plus en plus compliqué. Et le problème, c'est qu'on le sait très bien, quand on réagit sous l'angoisse et l'impulsivité, il y a de fortes chances pour qu'on fasse des bêtises. Là, j'ai envie de dire que ça commence à être presque trop tard. Il va falloir très sincèrement, je crois qu'il y a la conférence des développeurs, c'est ça mon soupeux ? Pour Google. Je ne sais plus quand est-ce que c'est. J'espère qu'ils vont sérieusement sortir
0:19:12 à 0:19:42 Guillaume Vendé :
le paquet. Ce qui est assez dingue aussi, c'est de voir que Microsoft n'a pas fait des avancées incroyables en tant que telles, finalement, mais que ça passe beaucoup aussi par OpenAI, qu'ils ont largement financé, en tout cas sur les sujets qui nous intéressent spécifiquement et ceux qu'on relaie. Donc, c'est vraiment une guerre qui se mène avec des mouvements assez inhabituels. On verra quelle est la tendance dans les épisodes et les semaines à venir. Merci pour ton regard. En tout cas, on continue à parler de ces sujets-là, mais appliquez à la musique, Guillaume. Je ne sais pas si vous avez
0:19:42 à 0:19:50 Guillaume Poggiaspalla :
écouté Savages ? Pas du tout. La chanson que ne chante pas Jay-Z. Elle passe sur YouTube. Je l'ai vu.
0:19:50 à 0:19:52 Guillaume Vendé :
Tu l'as vu passer ? C'est assez
0:19:52 à 0:19:54 Stéf :
impressionnant, honnêtement. On dirait
0:19:54 à 0:22:15 Guillaume Poggiaspalla :
vraiment une chanson qui est sortie dans 1999 ou un truc comme ça. Et donc, ça y est, il y a un début de pop culture. Il y a ces fameuses vidéos virales Harry Potter en Balenciaga, qui ont de plus été déclinées en Star Wars par Balenciaga, Marvel par Balenciaga, etc. Et bon, tout ça, c'est marrant, mais ça ne fait pas du tout rigoler Universal Music, qui vient de demander explicitement à Spotify et Apple de bloquer toute récolte de données qui viseraient à entraîner les IA. Donc, ils ne veulent pas que les IA s'entraînent sur leur musique, parce que sinon, après, elles vont faire les mêmes. Et voilà, c'est un gros problème. Bon, c'est déjà le cas. De toute façon, il suffit d'aller voir un truc comme Plugging AI aussi sur YouTube. Bon, Universal a une sorte de réalisation Stable Diffusion. Tu vois, il a un petit moment Stable Diffusion. Un petit ArtStation, une petite ArtStationnite, un petit peu pareil, tu sais, quand il y a eu ce backlash, là, sur ArtStation, contre les images générées. A voir si ça peut ralentir la machine, parce que la stopper, je pense que là, c'est totalement mort, mais bon. D'ailleurs, il y a encore un miriage qui a gagné un concours artistique. Alors, cette fois, c'est une fausse photo d'époque, qui est de Boris Heldgadsen, qui a gagné un concours de photos, et un concours de vraies photos, en tout cas, a priori. Il a gagné dans la catégorie créative sur le 2023 du concours de l'Organisation Mondiale de la Photographie. Mais la photo de Boris, elle a été créée par une IA, elle a été aussi beaucoup retravaillée, c'est un vrai travail, mais comme toutes les photos de sa collection, de sa collection pseudo-amnesia, ce ne sont pas des vraies photos, ce sont des fausses photos des années 40. Elles sont vraiment intéressantes, mais bon, ce sont effectivement des faux souvenirs, en quelque sorte. Donc, Boris a prévenu que c'était du miriage, mais il a gagné quand même, et il a refusé le prix. Il a fait un petit speech pour mettre les choses au point. Combien de juges ont eu conscience qu'ils ne savaient pas, qu'ils n'avaient pas une vraie photo devant les yeux ? Ce n'est pas vraiment clair. Il y a un vrai mouvement artistique aussi, d'ailleurs, autour de cette pseudo-photographie. Il y a aussi Julie Weiland, qui fait des images qui ressemblent à s'y méprendre à des images de films des années 70-80, mais qui n'ont jamais été tournées. Et d'ailleurs, elle a un nom que j'aime bien pour ces miriages, elle appelle ça des synthographies. Parce que pour elle, les synthographies, ça désigne ces espèces de photos réalistes, c'est-à-dire ces fausses photos, ces faux souvenirs, elle appelle ça des synthographies. Mais finalement, j'aime bien aussi cette notion de photographie synthétique, puisque tu fais presque des photos d'un rêve quand tu fais des miriages comme ça. Alors je ne sais pas, vous préférez quoi ? Vous préférez quel terme ? Miriage ou synthographie ?
0:22:15 à 0:22:19 Guillaume Vendé :
Moi, tu sais que je suis acquis à une cause, mais Steph, qu'en penses-tu ?
0:22:19 à 0:22:27 Stéf :
Moi, je suis un vendu aussi, vous avez bien vu. Dans les faits, évidemment que c'est miriage qui l'emporte haut la main.
0:22:28 à 0:22:36 Guillaume Vendé :
C'est plus court et c'est plus élégant, c'est beau, ça apporte une forme de poésie. La synthigraphie, c'est sympa aussi, il y a un côté artisanal un petit peu.
0:22:36 à 0:22:38 Guillaume Poggiaspalla :
C'est la synthographie, parce que la synthigraphie, c'est un autre truc.
0:22:38 à 0:22:42 Guillaume Vendé :
Pardon, la synthographie, oui ! C'est la présence de Suresh qui me perturbe.
0:22:42 à 0:22:44 Stéf :
Il est de moins aimer la première.
0:22:45 à 0:22:49 Guillaume Vendé :
Merci de me corriger. Bon, très bien. Allez, après la photo, la vidéo.
0:22:49 à 0:26:55 Guillaume Poggiaspalla :
Oui, bah l'IA va probablement aussi transformer la vidéo. Alors la production déjà, puisqu'on avait évoqué Gen 1 et Gen 2, donc voilà les tout premiers mille journées de la vidéo, si on veut. Adobe vient d'annoncer de l'IA génératrice pour Premiere Pro et pour After Effects. Donc c'est des fonctions qui seront implémentées via Firefly, donc sa famille d'IA générative. Donc la vidéo de démo montre des possibilités de générer de la musique et des effets sonores à la demande. On peut aussi agir avec un prompt pour modifier toute une vidéo, comme on le fait simplement pour une image, donc en image to image, par exemple. L'outil peut générer des animations avec le logo, il semblerait, pour s'y transcrire automatiquement l'audio, donc des vidéos en texte. Il peut aussi, à l'inverse, générer des storyboards à partir de scripts. La génération vidéo à 100%, c'est pas encore assez au point, mais bon, ça pourrait venir à un moment, bien entendu. Et petit à petit, l'IA change aussi petit à petit, peu à peu, l'infrastructure de la vidéo en ligne, au niveau de l'infrastructure vraiment des machines, en particulier sur le codage et la compression. Alors, c'est assez notable en ce moment, on a l'habitude de dire l'IA, elle fait tout mieux, et en réalité, pour la compression vidéo, c'est pas encore le cas. L'IA n'est pour l'instant pas à la hauteur des techniques traditionnelles de compression. Il faut dire que la compression vidéo, c'est devenu un enjeu économique majeur, puisqu'on estime quand même parfois 80% à la part du flux d'Internet qui serait de la vidéo. C'est pas très étonnant, parce qu'imagine tous les millions de flux 4K, YouTube, Twitch, Netflix, Pornhub, bien entendu, qui transitent chaque jour. C'est énorme. Et d'ailleurs, l'avènement du streaming oblige aussi les prestataires à passer par du matériel spécifique. Parce que autant Netflix, il peut transcoder ses vidéos en plein format, pépère au calme, et prendre 10 heures pour bien compresser un film s'il en a envie, autant Twitch, il n'a pas cette opportunité. Il faut faire du transcodage en temps réel, dans des formats qui sont toujours plus complexes à produire, et bon, alors d'un côté, ces formats sont plus complexes, mais ils donnent des fichiers qui sont de plus en plus petits, donc ça économise énormément de temps de passante, mais de l'autre, évidemment, ils demandent encore beaucoup plus de calculs. Les prestataires s'orientent du coup vers des GPU, comme les T4 ou les L4, ou des cartes spécialisées dans le transcodage, comme la carte Alveo, qui peut elle seule encoder 32 flux 1080p en AV1, et tout ça en seulement 35W. Et de fait, on continue à utiliser des algorithmes comme l'AV1, ou HEVC. Les algorithmes de compression vidéo ont quand même 30 ans d'avance, et bon, des IA qui compressent aussi bien qu'AV1, ça va prendre un petit peu de temps. Mais par contre, les IA peuvent quand même déjà aider dans le processus. D'ailleurs, les Alveo ont une unité accélératrice pour l'IA, et c'est pas un hasard, parce que déjà, on peut améliorer le flux de sortie, et on en avait déjà parlé avec le VSR de chez NVIDIA. Donc le VSR, c'est un petit peu le DLSS de la vidéo, donc on prend un flux pas très bon, en 480p par exemple, puis on en fait du 1080, exactement comme on le ferait d'une image de jeu avec le DLSS. Et on peut très bien imaginer améliorer une image qui est déjà en 1080p, par exemple en upscale par IA, et ensuite on remet à l'échelle avec un bon lissage, ça fait une sorte de super sampling. Donc, il y a des améliorations qui sont des améliorations en sortie, et le machine learning peut aussi permettre de mieux compresser en entrée. Avec ce qu'on appelle le content-aware encoding, on reconnaît quelles sont les zones les plus importantes, typiquement où les yeux des utilisateurs vont se poser en particulier, donc les visages, les corps, etc., et on leur alloue plus de bits par seconde, plus de bandes passantes. Avec le deep learning, ce qui est important de voir, c'est qu'on change peu à peu la manière dont on considère la qualité de la vidéo. Jusqu'ici, on utilise des mesures qui sont très scientifiques, pour mesurer la qualité d'une compression, rapport signal-bruit, similitude des images, des mesures vraiment rigoureuses, mais avec les IA, tout est plus flou, et on s'attache plus à des mesures de type perceptuel, c'est-à-dire qu'on préfère demander à des gens les images qu'ils préfèrent, et parfois ce n'est pas exactement les mêmes qu'avec les mesures, d'ailleurs. À ce moment-là, la tendance, c'est à augmenter les méthodes traditionnelles d'encodage avec des IA, plutôt que de les remplacer, mais à la clé, on aura quand même des compressions qui sont un peu meilleures, et qui sont aussi plus rapides, et du coup, ça ouvre aussi la possibilité de streamer pour d'autres types d'applications, par exemple comme la VR, où il faut une latence extrêmement faible.
0:26:55 à 0:27:21 Guillaume Vendé :
Tu vois. Les approches que tu décris, ça me fait penser au rendu faux VA, là, sur les cases de réalité virtuelles, où effectivement, le calcul, c'est notre approche, mais le calcul se fait plus là où tu poses ton regard, où l'analogie a vite ses limites. Très bien. Tu vois des vraies opportunités, Steph, dans l'intelligence artificielle et le streaming vidéo. Est-ce qu'il y a des choses qui vont arriver rapidement ?
0:27:21 à 0:28:01 Stéf :
Moi, je m'interroge surtout sur quel domaine est exemple de l'IA. C'est quand même hallucinant. Il faudrait qu'on calcule le nombre de fois qu'on a dit, peut-être pas IA, mais le nombre de sujets qui sont en lien avec l'IA dans tout ce qu'on a évoqué jusqu'à présent, on doit être à 90%. Je suis estomaqué. Moi, je n'avais pas vu passer l'article qu'a relayé Guillaume. Je trouve que c'est, encore une fois, une utilisation particulièrement judicieuse et élégante de l'IA. Après, je ne sais pas ce que ça va donner au quotidien, mais en tout cas, la proposition est très intéressante.
0:28:01 à 0:28:37 Guillaume Vendé :
De manière rhétorique, on peut dire que l'IA n'a pas changé la manière dont on construit des épisodes de podcast, mais en fait, c'est totalement faux parce que le fond de l'info apportée dans Tech Café et son visage a changé aussi beaucoup depuis l'été dernier parce qu'évidemment, c'est une composante énorme de l'info et de ce qui se passe dans le monde de la tech. Ça touche à plein d'autres aspects. En plus, c'est passionnant. J'ose espérer que peut-être on va pouvoir mettre de côté l'IA pour cette semaine après y avoir dédié un gros épisode hebdomadaire et une partie de l'épisode supplémentaire. Il nous reste des choses à vous partager quand même. Guillaume, tu as ta petite marotte, c'est les robots.
0:28:37 à 0:28:59 Guillaume Poggiaspalla :
On peut dire ça pour aller un peu plus vite. C'est vrai, on peut faire un petit tunnel IA et mobilité, c'est-à-dire des trucs qui bougent comme effectivement le robot-dog qui revient à New York. Mais oui, le robot-dog, souvenez-vous, on avait couvert le fait qu'il y avait eu un énorme vent de protestation en 2020 quand la police avait montré son robot-chien comme ça. C'est vrai que c'était un petit peu dystopique. Les flics qui ont ce robot-chien qui se baladent
0:28:59 à 0:29:01 Guillaume Vendé :
Ils n'ont pas promis qu'il ne serait pas armé ?
0:29:01 à 0:31:15 Guillaume Poggiaspalla :
Alors, ils ont promis qu'il ne serait pas armé, d'ailleurs, il promet toujours qu'il ne serait pas armé, pour le moment. Devant le tollé, c'est vrai qu'il était reparti à la niche, le robot-dog, mais réflexion faite, aux œufs, tout simplement, puisque là, il le ressort et puis c'est tout. Ça coûte encore fort cher quand même, 750 000 dollars pour deux robots Boston Dynamics, donc c'est pas rien, mais c'est à ce prix que New York pourra se transformer peu à peu en Night City. D'ailleurs, ne vous inquiétez pas, l'IA et les robots vont se démocratiser eux aussi et vous pourrez bientôt faire un robot-chien vous-même, très certainement, puisque Sony fait un partenariat avec Raspberry pour intégrer une puce dans les prochaines générations de Raspberry Pi. Alors, précisément, c'est la division semi-conducteur de Sony qui aura fait un investissement stratégique chez Raspberry pour intégrer des puces donc AI-trios, dans les mini-ordinateurs préférés, voilà, des petits et des grands, donc on n'est pas du tout dans la puce pour faire tourner un chat GPT portable, vraiment pas, mais plus vraisemblablement pour faire de l'inférence rapide sur des modèles beaucoup plus légers, de la reconnaissance de formes, éventuellement de la reconnaissance vocale, ce genre de choses. Donc, voilà, pensez reconnaître ou suivre des gens, tu vois, par une caméra connectée, ben voilà, les prochains Raspberry Pi pourront sans doute le faire eux aussi sans trop utiliser le processeur et donc en consommant assez peu d'énergie. Et donc, pour conclure cette section des trucs qui bougent, on va parler un petit peu des voitures autonomes, qui bougent pas toujours assez vite. Dernièrement, les Waymo ont eu énormément de mal avec le brouillard de San Francisco et c'est un vrai souci parce que là-bas, le brouillard, quand même, ça arrive, c'est pas précisément rare. Or, les voitures autonomes, que ce soit des Waymo ou des Cruze de Ford, ben quand elles savent pas, quand elles sont pas vraiment sûres d'elles, elles s'arrêtent carrément, elles frisent. Elles bougent plus. Et comme y'a personne dedans, ben évidemment, les gens qui sont autour sont démunis, quoi, un petit peu. Et donc, une Cruze a manqué de percuter un bus qui a provoqué des retards monstres, y'a des Waymo qui étaient perdus, qui s'arrêtent un peu n'importe où, ça provoque des bouchons et donc d'après des vidéos de Dashcam, en fait, y'a une quantité d'exemples différentes comme ça et ça commence à excéder un peu les habitants. Le pire, c'est que justement, la plupart du temps, les voitures sont des nuisances par excès de prudence, en quelque sorte. Les Waymo ont des millions de kilomètres au compteur sans aucun accident grave. Le fait qu'elles continuent à conduire comme moi à ma deuxième leçon d'auto-école montre la difficulté de passer d'un truc qui marche à 99% à un produit viable dans la vraie vie et déployable, tu vois, massivement.
0:31:15 à 0:31:31 Guillaume Vendé :
C'est une illustration hyper concrète, effectivement. On parle Waymo, on parle recherche Google. Stef, tu voulais nous parler d'un sujet qui va pas du tout, du tout, du tout nous faire peur, des pensées. Tu vas aborder le sujet des pensées avec Google dans le cerveau. Oui,
0:31:31 à 0:33:23 Stéf :
en fait, il y a un mois, c'est-à-dire la préhistoire en IA, vous avez vu sans doute passer un article qui titrait que l'IA pouvait dorénavant lire dans vos pensées. Alors, derrière l'accroche un peu clickbait, je me dis qu'il y avait un article passionnant et du coup, c'est exactement ce que j'ai fait. J'ai pris l'article et je l'ai lu et en fait, il n'y a pas autant de magie que ça derrière tout ça et je voulais en fait vous relayer ici un petit peu ce qui se passe. Donc, le principe, c'est le suivant. On montre des images à des patients à qui on fait réaliser une imagerie fonctionnelle cérébrale à type d'IRM fonctionnelle. Je l'appellerais IRMF pour aller plus vite. Donc, ce que c'est qu'une IRM fonctionnelle, c'est tout simplement une imagerie par résonance magnétique, donc une IRM classique, mais dans lequel on n'étudie pas seulement la morphologie, mais on étudie également l'activité cérébrale à travers l'étude des flux sanguins cérébraux. En particulier, quand on observe une image, l'activité de certaines régions cérébrales s'active et change de façon à ses caractéristiques. Donc, à partir de cette image d'IRMF, on utilise stable diffusion pour générer une image qui est proche de celle qui a activé ces zones cérébrales. Et globalement, ça marche plutôt très bien. Je vous encourage à aller voir les résultats qui sont obtenus, même si je pense qu'ils ont quand même fait un peu du cherry picking, ils ont quand même choisi les meilleurs, mais vous allez voir que par exemple, sur l'image du nounours qui a stimulé les zones cérébrales et le nounours qui est généré par stable diffusion, c'est absolument incroyable. Alors, je voudrais juste faire un petit détour pour vous expliquer comment ça marche. Alors juste, c'est hébergé par Google l'article, mais en l'occurrence, c'est des chercheurs japonais qui ont mis ça en lumière.
0:33:23 à 0:33:25 Guillaume Vendé :
Qui ne sont pas de chez Google, du coup.
0:33:25 à 0:34:21 Stéf :
Non, qui ne sont pas du tout de chez Google, qui sont de l'université de je ne sais plus quoi, c'est dans l'article, mais ça a été hébergé par Google, c'est un pré-print, c'est-à-dire c'est une pré-publication, mais par contre, ils vont officiellement pouvoir publier dans une grande conférence autour de Computer Vision, qui est très connu, i3e pour les intimes, et du coup, ça donne quand même beaucoup de caution à ce qu'ils ont fait, même l'article est plutôt bien monté scientifiquement. Donc, comment est-ce qu'ils ont fait ça ? Ce qu'il y a d'intéressant, c'est qu'en fait, les chercheurs, ils n'ont jamais eu à placer quiconque dans une machine. Vous allez me dire, mais comment c'est juste possible ? Très simplement, ils ont utilisé un dataset libre, qui s'appelle NSD, qui a été établi en 2022, et qui corrèle une dizaine de milliers d'images, avec leur description détaillée, au relevé IRMF
0:34:21 à 0:34:23 Guillaume Vendé :
correspondant. Oui, c'est du pain béni, forcément,
0:34:23 à 0:39:29 Stéf :
oui, bien sûr. Voilà, et donc ça, c'est quand même un travail qui a été fait par des gens de très grande qualité, qui a pris un an. Et ce que je trouve quand même d'assez remarquable, c'est qu'ils ont eu l'intelligence et l'élégance de le rendre public, et c'est grâce à ça qu'on peut avoir des recherches aussi actives, et donc du coup, je prêche pour ma paroisse, mais le libre, c'est vraiment quelque chose d'important qu'il faut essayer de privilégier et pas fermer ses modèles. Donc comment est-ce qu'ils ont fait ? Ils ont établi une correspondance entre les images, entre les données IRMF, et leur représentation mathématique abstraite, dans l'intelligence artificielle. Puisqu'on va se dire, effectivement, quand on va vouloir entraîner Stable Diffusion, je vous rappelle que Stable Diffusion, il n'est pas capable de lire une image directement en entrée, en fait, il va être capable de lire une représentation latente. Donc il a fallu transformer cette image en représentation latente qui, elle, est interprétable par Stable Diffusion. Par ailleurs, Stable Diffusion, dans son mode de fonctionnement, il a également besoin d'un prompt. Mais le prompt, par le modèle, il va être généré sous la forme d'un Embedding. Je pense que Guillaume en parlera probablement quand il fera le dossier sur l'IA. Mais globalement, c'est une forme de représentation du texte qui est interprétable par une machine, qui est vectorisée, si vous voulez. Donc on dispose, à partir de ce moment-là, d'images et de textes qui sont travaillés, si vous voulez, pour le faire rentrer dans Stable Diffusion. Et là, à partir de là, on se dispose de tout ce qu'il faut pour que l'IA générative puisse permettre de générer l'image souhaitée. Donc, les données, elles sont interprétées directement par l'IA pour produire l'image. Une partie des données qui sont perceptives sont, en fait, sous forme d'images, sous forme visuelle. Elle est interprétée comme l'image de base par Stable Diffusion, tandis que les données sémantiques, c'est-à-dire les données textuelles, sont utilisées pour affiner le résultat. Ce qu'il faut bien noter dans l'histoire, c'est qu'à aucun moment, Stable Diffusion a été entraîné ou fine-tuné spécifiquement pour ce qu'il fait. C'est-à-dire que là, la seule chose qu'on a entraîné, le seul modèle qu'on a entraîné, c'est la correspondance qui est faite entre les images fonctionnelles, le texte, pour le faire lire, si vous voulez, par Stable Diffusion. Mais, en fait, c'est ça qui est relativement novateur dans l'approche qui a été utilisée. Les détails techniques sont dans l'article. Ça peut être assez velu, quand même, donc il faut y aller, il faut le relire deux, trois fois. Mais, globalement, si vous comprenez ce que je vous dis là, c'est assez simple. Dans l'idée, on a juste utilisé les données qu'on avait pour les transcrire, transformer dans un format qui est acceptable par Stable Diffusion. Là, c'est comme si on avait fait la même chose que vous et moi avec Stable Diffusion. Il n'y a pas eu d'entraînement particulier, il n'y a pas eu de chose spécifique qui a été fait en plus que ce que, nous, on peut faire en tant que particulier. Dans la seconde partie de l'étude, ils ont même fait l'inverse, c'est-à-dire qu'ils se sont dit, est-ce qu'à partir d'une image donnée, est-ce qu'on peut recréer une image cérébrale IRMF correspondante ? Et là, ils ont utilisé un réseau neuronal, je ne veux pas trop entrer dans les détails parce que ça a commencé à être assez technique, mais ils sont parvenus à réaliser des résultats qui sont tout à fait intéressants. Ça ressemble très fort à l'image à l'IRMF qu'on est censé obtenir dans ce cadre-là. Donc, pour finir, ce que je voulais dire, c'est que ce n'est pas du tout un domaine nouveau, même si, évidemment, ça a été très mis en avant et, du coup, ça a fait les choux gras dans la presse généraliste, ce n'est pas un domaine qui est nouveau. Il y a plein de résultats similaires qui ont déjà été produits. La recherche, ça fonctionne comme ça, de façon très itérative. C'est assez rare qu'on ait quelque chose qui vienne disrupter complètement le flux tel qu'il a été généré par la recherche. Donc, ça, ça fait déjà une dizaine d'années que c'est un petit peu en travail, en gestation, mais là où on peut quand même souligner la chose qui fait que cet article sort un petit peu du lot, c'est que, déjà, ils ont utilisé un modèle non entraîné et, surtout, ils ont utilisé des données libres. Donc, finalement, à part les calculs qu'ils ont été amenés à utiliser pour transformer ces données en quelque chose interprétable par Stable Diffusion, ils n'ont pas fait des choses qui soient complètement inenvisageables pour quelqu'un qui serait un particulier très averti. D'ailleurs, sauf erreur de ma part, les deux chercheurs ne sont pas directement informaticiens. Je crois qu'ils sont bio-informaticiens, quelque chose comme ça. Il y en a un, je crois, qui n'est même pas informaticien, tout court. Donc, c'est pour dire que ça se démocratise, mais qu'en plus, quand on a des chercheurs qui ont des capacités particulières, ça va permettre d'avoir des synergies qui proposent des choses qui sont relativement remarquables.
0:39:29 à 0:39:55 Guillaume Vendé :
Ce qui me marque, c'est de voir à quel point le cerveau a un fonctionnement qui est lisible quand il est stimulé par certaines informations. Finalement, c'est presque ça qui me bluffe le plus, après d'arriver à avoir la clé de lecture que tu renvoies à Stable Diffusion pour qu'il régénère quelque chose. C'est évidemment l'illustration la plus bluffante, mais remarquable. Guillaume, tu avais suivi cette recherche, ces travaux de recherche ?
0:39:55 à 0:40:21 Guillaume Poggiaspalla :
Oui, pas forcément autant en détail que ça, mais j'avais vu passer l'article. Je trouve que c'est quand même assez impressionnant d'arriver à faire le point entre l'image cérébrale et l'image cérébrale de Stable Diffusion, puisqu'on parle à cette représentation latente qui est une représentation interne à Stable Diffusion. C'est un peu son état d'esprit, si on veut. Je trouve ça vraiment très cool.
0:40:21 à 0:40:39 Guillaume Vendé :
On arrive à lire dans les pensées. Comme tu disais, après, ils ont sélectionné, Steph, des résultats qui sont particulièrement parlants. Peut-être qu'il y a énormément de déchets, mais ça reste quand même intéressant de voir qu'on peut aller dans ce sens-là. On reste dans le domaine de la biologie, et plus spécifiquement dans le domaine du soin, avec le soin vu par les algorithmes.
0:40:39 à 0:40:43 Guillaume Poggiaspalla :
Je ne sais pas si vous avez vu Cyberpunk Edge Runner sur Netflix.
0:40:43 à 0:40:47 Guillaume Vendé :
Non, toujours pas, moi. C'est la série animée
0:40:47 à 0:43:07 Guillaume Poggiaspalla :
dans l'univers du jeu Cyberpunk, bien entendu. Je ne vais pas vous spoiler, mais rassurez-vous. Au début, le héros et sa mère ont un accident de voiture, et quand lui se réveille après le crash, ils voient arriver les secours. Ils viennent vers lui, mais ils le scannent, et ils concluent qu'ils ne sont pas assurés. En tout cas, ils ne sont pas assez assurés. Ils repartent. Ils s'en vont, et ils vont vers une autre victime plus friquée qu'eux qui s'en portent. C'est un grand classique de l'ASF, de ce style. Je sais bien, mais ça marche toujours. Surtout, ça résonne quand même un petit peu trop fort, je trouve, avec ce qui se passe au niveau de la couverture santé aux Etats-Unis. On va dire, aux Etats-Unis. C'est vrai, d'une manière générale, les soins sont très chers, les assurances tout autant, là-bas. Même avec Medicare. C'est justement un article à propos de Medicare Advantage qui m'est revenu en tête après avoir vu Cyberpunk. On parle énormément d'IA et de comment elle pourrait transformer la société. On a bien raison, mais d'un autre côté, ça fait un moment que notre vie est régie par des algorithmes au sens large. Et apparemment, Medicare Advantage, qui est grosso modo une version budget de Medicare, qui utilise des algorithmes avec du deep learning dedans, pour décider du temps de soins à financer aux patients. Pour résumer, l'algo prend en compte tout un tas de paramètres et détermine en fonction de ce que tu as eu, ton état de santé, ton âge, je ne sais quoi, combien de temps tu auras besoin de rester à l'hôpital, par exemple. Or, il semble que cet algorithme soit plutôt enclin à donner le minimum de temps. Et c'est fâcheux parce que c'est lui, et pas les soignants, qui décident de si tu dois rentrer chez toi ou pas, si tu dois continuer à recevoir le traitement ou pas. Et là, aussi complexe et sophistiqué que soit l'algo, et aussi deep que soit le learning, un article de stats détaille de multiples exemples d'à quel point ça marche pas bien. Et c'est dramatique, parce que si l'assurance décide que tu dois partir, et que t'as pas de recours, et sans fric, la quasi-totalité des personnes doivent rentrer, qu'ils soient remis ou pas, qu'ils aient des douleurs insupportables ou pas. Alors en fait, techniquement, tu peux faire en retour le temps que ça aboutisse, soit t'es guéri, soit t'es mort. Dans une certaine mesure, Medical Advantage c'est déjà le futur dystopique de Cyberpunk. Parce que l'humain est éliminé des décisions, les algos décident. Et bien sûr, sous couvert d'expertise et de deep learning, ils ont quand même plutôt tendance à limiter les frais pour la compagnie de l'assurance, et à moins limiter les frais pour toi, étrangement. Parce qu'on n'a bizarrement jamais recensé de cas où il avait attribué trop de jours d'hospitalisation.
0:43:07 à 0:43:13 Guillaume Vendé :
Ça c'est beaucoup plus rare. Ça doit faire écho au médecin qui est en toi, Steph.
0:43:13 à 0:44:15 Stéf :
J'ai lu une partie de l'article, je suis outré. Vraiment. Parce que ce que Guillaume n'a pas précisé, c'est qu'ils se sont permis d'utiliser ça également pour arrêter des soins chez des personnes âgées. C'est-à-dire qu'ils ont utilisé des algos prédictifs, j'imagine, de machine learning. Ils ont dit « troubles cognitifs, âge avancé, telle pathologie, on arrête de payer ». C'est-à-dire que, pour le médecin et le français que je suis, c'est au moment où potentiellement on en aurait le plus besoin qu'ils décident, eux, de couper les couvertures médicales. Vraiment outré. J'espère sincèrement qu'il n'y ait pas de médecin ou de gens qui soient dans le médical qui aient participé à ça. Il faut vraiment remettre en question son mode de fonctionnement interne et ses choix de carrière dans ces cas-là. C'est particulièrement choquant.
0:44:15 à 0:44:21 Guillaume Vendé :
On va continuer un petit peu dans le médical, mais sous l'angle de la recherche cette fois-ci.
0:44:21 à 0:44:27 Guillaume Poggiaspalla :
Des scientifiques ont réussi à utiliser des bactéries de peau de souris pour guérir les cancers.
0:44:27 à 0:44:29 Guillaume Vendé :
C'est dégueulasse.
0:44:29 à 0:45:03 Guillaume Poggiaspalla :
Oui, c'est dégueulasse, mais c'est génial. On les a quand même un petit peu manipulées, les bactéries. On leur a fait produire une protéine qui stimule le système immunitaire. Et ça a super bien marché. Les scientifiques étaient même surpris de voir à quel point ça a marché. Je sais ce qu'on va me dire. C'est pas la première fois qu'on a des promesses incroyables pour traiter des cancers qui ne passent jamais chez les humains. Moi, justement, je vais poser une question naïve. Pourquoi c'est si difficile de passer chez les humains ? Parce que moi, je me sens très proche d'une souris. Dans ma tête, une souris et un gonze, c'est quasiment pareil. C'est deux mammifères modérément intelligents qui aiment bien le fromage. Donc, je sais pas. Steph, qu'est-ce qui peut coulier quand on passe d'une souris à un humain ?
0:45:03 à 0:45:05 Guillaume Vendé :
Ah,
0:45:05 à 0:45:23 Stéf :
il y a plein de choses, mon ami. En particulier, la façon dont le système immunitaire fonctionne. Il y a énormément de choses qui font que... Tu sais que l'animal duquel on est le plus proche pour... En particulier, pour tout ce qui est bio et tout ça, ça reste le porc.
0:45:23 à 0:45:25 Guillaume Vendé :
Si tu te reconnais plus,
0:45:25 à 0:45:29 Stéf :
c'est ça. Si tu te reconnais plus là-dedans...
0:45:31 à 0:45:59 Guillaume Vendé :
C'est d'ailleurs la raison pour laquelle, je crois, Elon Musk fait son travail, le travail de Neuralink sur la base de porc, me semble-t-il. Guillaume, tant mieux pour les souris, et tant mieux pour nous qui ne sommes pas assez proches de souris. Et on continue avec un outil assez remarquable qu'on avait déjà mentionné et qui promet beaucoup de choses. Peut-être que ça a avancé, tu vas nous tenir à jour. C'est CRISPR. CRISPR,
0:45:59 à 0:46:01 Guillaume Poggiaspalla :
ça ressemble vraiment à une marque de corneflex.
0:46:01 à 0:46:05 Guillaume Vendé :
Absolument, et qui croustille en plus.
0:46:05 à 0:47:45 Guillaume Poggiaspalla :
Mais bon, c'est pas ça. C'est un outil super puissant pour faire de la génétique et même de la thérapie génique parce que c'est en gros une sorte de ciseaux à ADN. Alors je sais, ça peut faire peur comme ça. Un ciseau à ADN ? Demandez à Victoria Gray. Victoria Gray, elle est plutôt contente puisqu'elle avait une anémie falciforme. C'est une maladie du sang qui déforme les globules rouges, et comme c'est eux qui trimbalent l'oxygène dans le sang, c'est assez grave. Et Victoria, elle a été guérie par thérapie génique et grâce à CRISPR en particulier. Donc il y a actuellement une bonne cinquantaine d'essais cliniques sur des volontaires pour des thérapies géniques sur leur affection, qui est donc difficile ou voire impossible à traiter autrement. Il y en a 40 qui utilisent CRISPR. Principalement, c'est des cancers ou des maladies du sang héréditaires. La technique est en train de devenir une star du domaine et ouvre la voie à des traitements personnalisés, même pour des maladies orphelines, puisqu'on peut facilement dire quels gènes on veut couper. Et pour le moment d'ailleurs, on débute un petit peu, donc c'est un petit peu grossier et on utilise l'outil de manière grossière, c'est-à-dire que on se contente de couper un gène pour l'inactiver et c'est tout. On ne le remplace pas vraiment. Dans le cas de l'anémie de Victoria, on a coupé le mauvais gène, qui ont les globules rouges zarbis, pour un autre gène parce qu'il y a un autre gène de secours en fait qui ne s'exprime pas en temps normal et qu'il a appris le relais. D'ailleurs, son traitement a été très très lourd puisque bon, ça a revenu à faire une grève de moelle osseuse et après avoir modifié les gènes des cellules de sa moelle osseuse. Donc, pendant un moment ça risque de rester des traitements qui sont très lourds et donc très chers, ce qui d'ailleurs exclura de fait, sinon techniquement mais au moins économiquement, les maladies rares. Néanmoins, c'est quand même une nouvelle vague de traitements et de nouveaux espoirs qui commencent à voir le jour, qui vont se raffiner au cours du temps, j'imagine. Donc, c'est quand même sympa. C'est de la biotechnologie, on va dire.
0:47:45 à 0:47:51 Guillaume Vendé :
Steph, est-ce que tu as quelque chose à rajouter pour encenser CRISPR ?
0:47:51 à 0:49:43 Stéf :
Alors, CRISPR, CRISPR-Cas9 en fait, c'est un système qui est... Je parlais tout à l'heure en disant que la recherche c'est par itération et que finalement, les révolutions ce n'est pas tant que ça, ça c'est une révolution. C'est littéralement une révolution. Ça a permis d'accéder à des... à de l'édition d'ADN à finalement un coût très modéré. Alors, malgré tout, ça reste cher mais par rapport à ce qu'on pouvait faire avant pour éditer de l'ADN, c'est sans commune mesure. D'ailleurs, ça value à ces deux découvreuses, dont une française me semble-t-il, le prix Nobel de chimie associé à ça. Et objectivement, c'est l'avenir. Là, pour le coup, on parle d'IA et c'est passionnant, mais ça, à terme, c'est le moyen de traiter des cancers, de traiter des maladies orphelines, de traiter la drépanocytose comme la dame que tu évoquais plus tôt. C'est vraiment révolutionnaire pour un prix, encore une fois, qui reste modéré. Les médicaments qu'on utilise pour l'instant, ils ne sont pas encore en mass distribution. Forcément, ça coûte relativement cher, mais c'était inatteignable il y a même 10 ans de ça. Vraiment, là, je suis très enthousiaste parce que l'avenir s'annoncera Dieu pour les malades pour lesquels on est en difficulté thérapeutique ou des gens pour qui ils se sentent un peu abandonnés sur le plan médical parce que maladie orpheline, donc pas rentable, pour les labos, de développer des traitements adaptés et là, ça permettrait de régler ce problème là aussi. Donc, vraiment, c'est une révolution qu'il faut surveiller de très très près pour les prochaines années.
0:49:43 à 0:50:03 Guillaume Vendé :
On va continuer avec les révolutions parce que tu avais savamment mis de côté, Guillaume, tu préparais le retour de Steph dans Tech Café pour nous parler d'encore un truc qui va nous faire décrocher la mâchoire, mais c'est le cas de le dire, un capteur qui pourrait lire notre crachat, quelque part.
0:50:03 à 0:50:25 Guillaume Poggiaspalla :
Oui, c'est même mieux que ça, en fait, puisque ça peut lire ta bave. En tout cas, c'est l'objectif. A la base, il y a quand même une puce de Silicon Lab. C'est une puce qui est vraiment toute mignonne parce qu'elle fait moins de 3 mm de côté. Elle s'appelle le XG27 et donc elle consomme aussi extrêmement peu d'énergie. Elle a un cœur Cortex M33, donc évidemment, ça ne va pas faire
0:50:25 à 0:50:29 Guillaume Vendé :
tourner Crysis, mais enfin, je veux dire, c'est vraiment... On ne va pas le mettre dans le Steam Deck de Steph.
0:50:29 à 0:51:11 Guillaume Poggiaspalla :
Mais ça suffit, effectivement, pour récolter des données avec des capteurs. Elle gère en plus le Bluetooth et le Zigbee. Et donc, sa taille record permet... Oui, quand même. Et sa taille record lui permet un usage plutôt inattendu, puisque ce serait de l'implanter dans une dent. Donc, le but, ce serait de l'accompagner dans un capteur pour monitorer en permanence la salive. Donc, ça pourrait être collé sur une molaire, potentiellement, et surveiller la survenue de plus de 1000 maladies. En tout cas, c'est ce qu'il y a dans l'article. Donc, c'est l'Ura Health qui vient de finir les tests cliniques et qui envisage une commercialisation de ce truc dans les 12 à 18 mois. Bon. Un ordinateur qui bagne dans la bave en permanence, c'est complètement dégueulasse, mais est-ce que ça pourrait vraiment aider ? J'aurais jamais pensé.
0:51:11 à 0:51:13 Guillaume Vendé :
Steph ?
0:51:13 à 0:51:21 Stéf :
Je suis hyper flatté que vous m'ayez assimilé à de la bave. Ça me touche énormément les mecs.
0:51:21 à 0:51:27 Guillaume Vendé :
C'est le moment où je peux me cacher derrière Guillaume pour dire que c'est lui qui est le producteur. C'est ça ?
0:51:29 à 0:51:49 Stéf :
Écoute, je n'avais même pas vu passer ça. C'est plutôt intelligent. Franchement, c'est plutôt intelligent. Après avoir 1000 maladies, ça me semble... Pourquoi pas ? Ça me semble démesuré. Je ne sais pas. Pour le prix et la proposition que ça fait, ça vaut le coup.
0:51:49 à 0:51:53 Guillaume Vendé :
Comment s'est alimentée cette puce ? Comment elle est alimentée ?
0:51:53 à 0:51:55 Guillaume Poggiaspalla :
C'est une bonne question.
0:51:55 à 0:51:59 Guillaume Vendé :
Je ne suis pas sûr que les mouvements de bave permettent de...
0:51:59 à 0:52:09 Stéf :
Non, c'est peut-être les pieds de zoo, non ? Il doit y avoir des pieds de zoo à l'intérieur. Quand tu fermes et ouvres la bouche, tu dois activer les pieds de zoo et ça ne doit pas consommer des caisses.
0:52:09 à 0:52:19 Guillaume Poggiaspalla :
Je n'avais pas vraiment d'info, mais il y a plusieurs possibilités outre la petite batterie. Il y a effectivement la possibilité juste des mouvements.
0:52:19 à 0:52:21 Guillaume Vendé :
Les mouvements de poignée,
0:52:21 à 0:52:23 Guillaume Poggiaspalla :
à l'extrême limite, ça pourrait suffire.
0:52:23 à 0:52:25 Guillaume Vendé :
Ça n'a pas besoin de fonctionner tout le temps.
0:52:25 à 0:52:41 Guillaume Poggiaspalla :
Non, parce qu'ils disent aussi explicitement qu'il a un mode veille qui ressemble quasiment à rien du tout. Il peut se mettre en veille toute sa vie quasiment et juste pendant quelques secondes faire une mesure dans la journée.
0:52:41 à 0:52:51 Guillaume Vendé :
Voilà, je pense. OK, excellent. On était dans le tout petit, on va passer au maxi grand, le gros calcul, Guillaume.
0:52:51 à 0:52:55 Guillaume Poggiaspalla :
Oui, le gros calcul. Pourquoi est-ce qu'on fait des super machines
0:52:55 à 0:53:01 Guillaume Vendé :
de calcul depuis toujours ? Une des applications les plus concrètes, c'était pour prévoir la météo.
0:53:01 à 0:54:23 Guillaume Poggiaspalla :
Exactement, et en plus, je vous saoule tout le temps avec les exascales, les frontières, les grosses capacités, et c'est vrai qu'on évoque souvent la météo. Là, on a un exemple concret d'utilisation pour ça, pour améliorer la résolution de la grille sur laquelle on approxime le modèle physique de l'atmosphère. Et là, quelle tronche ? C'est une grille qui recouvre la Terre entière, potentiellement, et quand elle recouvre la Terre entière, les cases de la grille font à peu près 28 km de côté. En tout cas, c'est comme ça que le modélise le Global Forecasting System qui approxime le climat de la Terre entière sur les moyens qu'il a. Si on s'intéresse uniquement à une zone géographique précise, on peut réduire un petit peu cette grille. Sur le centre européen météo, il y avait des grilles de 20 km, et celles qui couvraient les Etats-Unis seulement, il y a des endroits où tu as une précision d'environ 10 km. Mais bon, disons qu'on veut avoir la Terre entière parce qu'on veut suivre les conséquences du changement climatique aussi, donc les pluies, les six colonnes, 28 km de côté, 28 km pour une case, c'est pas si mal pour la Terre entière. Si tu regardes de loin, ça fait un maillage assez fin, mais on se rend bien compte que les nuages, par exemple, ne sont pas aussi énormes que ça. Clairement, on n'est pas à des échelles qui sont de 28 km. Souvent, tout ça, c'est bien plus petit. Puis tu sais très bien qu'entre deux villes à 30 bornes de distance, il peut y avoir de grosses différences de température, d'humidité, etc. Et en plus, c'est pas régulier.
0:54:23 à 0:54:25 Guillaume Vendé :
C'est comme en Bretagne.
0:54:25 à 0:56:15 Guillaume Poggiaspalla :
Entre 100 et 10 km de précision, on peut dire que les changements sont incrémentaux. Quand tu passes d'une grille comme ça entre 100 et 10 km, les changements, c'est à peu près progressif. Par contre, entre 10 et 1 km, ça change tout, parce que du coup, t'as plus besoin de faire des approximations pour plein de choses. Et on commence à capturer l'échelle à laquelle se forment des événements qui sont plutôt locaux, comme des tempêtes ou des tornades, etc. Et comme le climat devient de plus en plus bordélique, il faut donc suivre avec des simulations qui sont elles de plus en plus fines. Le souci, c'est qu'évidemment, une grille plus fine, ça fait plus de mémoire et plus de calcul. Et donc là, en particulier, les météorologues ont eu accès à Frontière et ont pu s'amuser sur 9000 ECME pendant 10 jours. Ils ont réussi à modéliser l'atmosphère de la Terre entière à 3,25 km, avec des grilles, donc une grille dans les cases fait 3,25 km de côté, et avec près de 128 couches. Donc 128 couches de masse d'air. Et ils ont pour la première fois eu des nuages réalistes intégrés directement, parce que normalement, les nuages, c'est des couches d'approximation supplémentaires. Donc c'était un code en C++ qui a permis d'entrevoir un petit peu le futur de la météo, c'est-à-dire des prévisions plus précises, beaucoup plus fiables, beaucoup plus locales, et même sur des phénomènes qui sont par nature instables. Alors, évidemment, ça sera vrai quand on aura cette résolution, ou que cette résolution sera plus généralisée. Pour atteindre un kilomètre de résolution, malheureusement, un hexaflop ne sera pas suffisant. Donc voilà, ça paraît déjà énorme, mais en réalité, si on veut vraiment modéliser la Terre à ces échelles-là, on n'a pas encore ce qu'il faut. À moins que les IA soient là pour accélérer les modèles physiques. En fait, il y a vraiment des pistes dans ce sens-là. Apparemment, les IA sont assez douées pour approximer certains systèmes physiques complexes, donc peut-être qu'on en reparlera.
0:56:15 à 0:56:37 Guillaume Vendé :
De toute façon, bien sûr. Je suis ravi, parce qu'effectivement, c'était un enseignement que j'avais eu des supercalculateurs de prévoir la météo, mais là, tu nous en donnes vraiment une preuve hyper concrète et des avancées dans ce domaine. Merci, Guillaume, pour cet aperçu. On enchaîne et on s'éloigne vers l'Inde. Oui, parce que
0:56:37 à 0:57:33 Guillaume Poggiaspalla :
je trouve ça assez intéressant. C'est un truc qu'on ne connaît pas vraiment. On est très occidentaux, c'est assez normal. Mais en Inde, il y a des systèmes qui sont déjà en place et qui pourraient s'aimer un petit peu partout dans le monde, qui pourraient faire de l'Inde une espèce de pôle technologique qu'on ne soupçonne pas vraiment. Et pourtant, quotidiennement, en Inde, il y a des gens qui achètent leur salade sur le marché avec des QR codes et leur portable. Toutes les transactions, en fait, entre 1 centime et 1 200 dollars, sont possibles de les effectuer sur un système qui s'appelle UPI. Et UPI, ce système-là, a dépassé l'usage des cartes bancaires dans le pays depuis déjà 7 ans. Et en janvier seulement, il y a 8 milliards de transactions qui ont été faites via UPI, donc avec ces QR codes, pour un volume de 200 milliards de dollars. Alors, UPI, c'est un système de paiement qui est ultra populaire et qui repose sur l'infrastructure technique et qui est purement indienne. Alors, on avait parlé de Aadhaar. Je ne sais pas si vous vous en souvenez, c'était il y a longtemps, ça.
0:57:33 à 0:57:35 Guillaume Vendé :
Non, je ne me rappelle pas du tout, moi.
0:57:35 à 0:58:03 Guillaume Poggiaspalla :
Alors, Aadhaar, déjà, c'est le méchant des anneaux de pouvoir. Voilà. Mais si vous mettez deux A, Aadhaar et H, c'est aussi le système d'identification biométrique national indien qui a été déployé en 2009. Et donc, Aadhaar fonctionne ni plus ni moins que comme une carte d'identité dématérialisée qui se résume à un nombre de 12 chiffres. Il y a 1,3 milliard d'indiens qui en possèdent une et il est nécessaire de toute façon, ce numéro, pour accéder à à peu près toutes les prestations sociales.
0:58:03 à 0:58:07 Guillaume Vendé :
Ah oui, c'est un gros truc de flicage, effectivement.
0:58:07 à 1:00:59 Guillaume Poggiaspalla :
Exactement, on avait parlé dans cette optique-là. Aadhaar est bâti sur une infrastructure informatique publique qui s'appelle le DPI, pour Digital Public Infrastructure, tout simplement. Et sur cette DPI, donc, il y a Aadhaar et UPI, le système de paiement qui, donc, lui aussi, en plus, utilise l'identifiant Aadhaar. Il y a aussi un système, il y a des systèmes pour d'autres, évidemment, d'autres services digitaux, des services de signature, des apports pour la santé, etc. En fait, c'est une véritable pile logicielle qu'ils appellent même la IndiaStack. Et c'est un système unifié et souverain et la raison de son existence, elle est politique, elle est même géopolitique et elle date pas d'hier, parce qu'en 99, déjà, les Etats-Unis ont refusé l'accès à la technologie GPS à l'Inde. Il y a eu des sanctions suite aux tests nucléaires de 98, il y a pu, évidemment, la Russie est redevenue l'adversaire et donc, depuis, c'est encore pire. La Russie a été exclue de SWIFT, le système de communication interbancaire, et l'Inde continue d'acheter des ressources à la Russie et donc, elle a peur, elle veut pas être une victime collatérale des sanctions de l'Ouest, elle veut continuer à, évidemment, avoir son indépendance et pouvoir faire des transferts bancaires, etc. Et puis, les Indiens refusent la colonisation digitale. Donc, ils veulent que leurs systèmes critiques soient locaux et pas à la merci des puissances occidentales. Donc, dans le contexte fort tendu de ces dernières années, il y a aussi plein d'autres pays qui n'ont pas envie de s'aligner avec l'Occident, ni complètement non plus avec la Russie, d'ailleurs. Et du coup, cette pile indienne, elle est devenue attractive hors de l'Inde. Hors de l'Inde. UPI est déjà disponible à l'international, d'ailleurs, pour les Indiens à l'étranger, et pour faciliter les transferts d'argent vers les familles. Alors ça, c'est un truc énorme en Inde, puisque c'est le pays qui en reçoit le plus, il y en a eu pour 100 milliards de dollars en 2022. Et depuis 2018, il existe des versions open source, donc, de toute cette infrastructure. Donc, une solution d'identification digitale, sur laquelle tu peux répliquer l'Indian stack et la personnaliser aux besoins de ton pays. Et il y a une cinquantaine de pays qui sont intéressés, jusqu'au Maroc et aux Philippines. Chaque pays peut le modifier comme il veut, donc c'est vraiment complètement ouvert, d'ailleurs, c'est vraiment open source. Cette solution permet donc d'accéder à des services publics de base, de payer, c'est très inclusif et ça suit d'énormément de pays. Alors, c'est vrai que c'est plutôt positif, en soi, il y a quand même beaucoup d'avantages, mais évidemment, les choses sont complexes. Parce que c'est évidemment centralisé, c'est le gouvernement qui gère tout. Or, le parti au pouvoir en Inde, c'est le BJP et c'est pas précisément un parti tout blanc en matière de respect des droits de l'homme, de la liberté de la presse, tout ce genre de trucs. On en a parlé récemment avec Storykillers. Et d'ailleurs, très récemment aussi, le parti a fait passer une loi qui lui permet de créer une unité de lutte contre les fake news gouvernementales. C'est une unité qui peut fact-checker et virer n'importe quoi, n'importe où, que ce soit sur le web indien. Et pour beaucoup de journalistes, le gouvernement vient tout simplement de s'octroyer tous les pouvoirs sur ce qui est vrai ou pas sur Internet. Un pouvoir en théorie absolue qui a évidemment de quoi inquiéter, surtout si l'Inde exporte son modèle à l'international. Et ce qui est évident, c'est qu'elle a telle intention
1:00:59 à 1:01:07 Guillaume Vendé :
d'essayer. Steph, je sais pas si t'as une observation sur cette situation en Inde. J'ai écouté
1:01:07 à 1:01:11 Stéf :
religieusement, j'avoue que je découvre.
1:01:11 à 1:01:37 Guillaume Vendé :
C'est toujours intéressant de voir toutes ces infos qu'on glane de ces environnements du monde qu'on connaît moins, comme tu le disais tout à l'heure, Guillaume, avec ce site que je souligne à chaque fois, Rest of World, qui est décidément très cool. On termine avec, et oui, il fallait qu'on parle de portables, mais attention, pas n'importe quel portable. Quand on parle de Tech Café en 2023, on parle des portables les moins portables du monde.
1:01:37 à 1:01:43 Guillaume Poggiaspalla :
Un portable de 30 kilos, qu'est-ce que vous dites de ça ? Tu sais que moi, ça me choque à peine, en fait.
1:01:43 à 1:01:45 Guillaume Vendé :
Ah, ah bon ?
1:01:45 à 1:03:09 Guillaume Poggiaspalla :
Ben oui, parce que moi je suis assez vieux pour me souvenir, alors j'allais pas vraiment utiliser, je suis assez vieux pour me souvenir des premiers transportables. Parce qu'à l'époque, avant qu'il y ait les laptops, ça paraît complètement naturel, mais avant qu'il y ait les laptops, les premiers ordinateurs transportables, c'était des unités centrales, qui étaient un petit peu allégées, mais dans lesquelles il y avait un clavier détachable, un petit écran qu'on mettait dans un trou comme ça, et des lecteurs de disquettes. Mais globalement, ça avait la taille d'une unité centrale, et ça pesait facilement 10 kilos. Et ce qui est très rigolo, c'est que j'ai découvert qu'il existait des transportables encore aujourd'hui, qui font entre 20 et 30 kilos, et dans lesquels tu peux mettre des CPU épiques à 96 heures, donc tu peux avoir une machine portable, enfin portable, donc 20 kilos, une grosse valise, dans laquelle tu as un double épique à 2 fois 96 heures, 2 écrans, mais tu peux en mettre 6, le tout consomme plus de 300 watts, et avec de la DDR5, tu peux mettre 1 Teraoctet DDR5, et alors je sais que, je trouve ça absolument à mourir de rire, et tu t'imagines au Starbucks, le mec, il arrive au Starbucks, il travaille au Starbucks, il arrive avec son truc de 20 kilos, il met ses 6 écrans, je crois que là tu vas devenir l'attraction du truc. Je pense qu'on peut dire que c'est l'ordinateur portable le moins portable du monde,
1:03:09 à 1:03:13 Guillaume Vendé :
et ça m'a fait bien rigoler. Il vaut mieux quand même un casque de réalité virtuelle.
1:03:13 à 1:03:19 Stéf :
Guillaume, deux questions, la première, est-ce que ça fait tourner Crysis ?
1:03:19 à 1:03:21 Guillaume Vendé :
C'est la première chose.
1:03:21 à 1:03:23 Guillaume Poggiaspalla :
En réalité virtuelle, en Raytracing probablement.
1:03:23 à 1:03:35 Stéf :
En Raytracing, oui. Et la deuxième chose, est-ce que tu peux installer SteamOS dessus, parce que je pense que les 69 grammes du Steam Deck ont trouvé un compétiteur très
1:03:35 à 1:03:37 Guillaume Vendé :
inquiétant pour eux.
1:03:37 à 1:03:47 Guillaume Poggiaspalla :
Je pense que tu peux t'autoriser à lui all-boot. Et en plus, tu peux mettre jusqu'à deux GPU dedans. Tu peux mettre deux cartes graphiques, c'est un truc de malade mental.
1:03:47 à 1:04:07 Stéf :
N'empêche, blague à part, j'ai cliqué sur le lien, j'ai vu, c'est impressionnant. Ça a beau être loin des standards actuels, c'est quand même dingue ce qu'on arrive à mettre dans une valise. Ils ne précisent pas le prix, par contre. Call for price. Oui, call for price.
1:04:07 à 1:04:09 Guillaume Poggiaspalla :
Non, mais il dit de nous consulter.
1:04:09 à 1:05:23 Guillaume Vendé :
C'est comme dans certains quartiers de Paris, quand tu n'as pas les chiffres dans la vitrine, c'est que ça donne une indication de chiffre inatteignable. Merci beaucoup pour, d'une part, cette revue complète de l'actu, notamment au travers de l'épisode des hebdomadaires, mais aussi de cet épisode supplément Guillaume qui ne reste pas là. Et puis, merci, évidemment, beaucoup à toi, Steve, d'avoir accepté de passer cette semaine en notre compagnie. Là aussi pour l'épisode hebdomadaire et pour ce supplément qui paraît le week-end et quelques jours avant pour les personnes qui nous soutiennent sur Patreon. On se doit de rappeler d'abord aux gens qui écoutent l'épisode jusqu'à cet endroit que, vraiment, s'ils n'ont pas envisagé un soutien sur Patreon et s'ils sont encore à ce stade de l'épisode et qu'ils ne sont pas endormis, ils devraient aller jeter un coup d'œil sur le hashtag TechCafé pour envisager un soutien. Ils devraient également, dans tous les cas, nos chers auditeurs, aller déposer un avis sur Apple Podcast, sur Podcast Addict ou mettre des étoiles sur Spotify pour dire tout le bien qu'ils pensent de TechCafé et ainsi faire rayonner le podcast auprès de tous. Et puis, enfin, on doit conclure cet épisode en vous rappelant où est-ce qu'on peut nous retrouver individuellement. Vous pouvez notamment contacter Steve quelque part, mais où ?
1:05:23 à 1:05:27 Stéf :
Écoute, dans une IRM en train de passer une IRM fonctionnelle pour me faire
1:05:27 à 1:05:41 Guillaume Vendé :
lire mes pensées. Et on essaiera de restituer avec des miriages quel était l'objet de tes pensées les plus folles. Je ne sais pas si on a toujours envie de le savoir, d'ailleurs. Peut-être que les chercheurs ont eu des résultats particuliers. Bref, merci beaucoup. Blague à part sur
1:05:41 à 1:05:45 Stéf :
le Discord, sur le Discord de TechCafé, avec grand plaisir. Rendez-vous
1:05:45 à 1:05:55 Guillaume Vendé :
sur le Discord de TechCafé où on parle de Tech, mais pas que. TechCafé.fr, stage Discord. Et enfin, on peut également, je n'en doute pas une seule seconde, Guillaume, te retrouver quelque part. Tu vas nous dire où.
1:05:55 à 1:06:01 Guillaume Poggiaspalla :
Moi, je suis en train de me remplir le formulaire sur Media Workstation pour avoir les prix. Il paraît que ça démarre à
1:06:01 à 1:06:05 Guillaume Vendé :
5 000 dollars, ces données. Ah bah écoute, ça vaut le coup.
1:06:05 à 1:06:07 Stéf :
Ça me paraît dingue.
1:06:07 à 1:06:27 Guillaume Vendé :
C'est cadeau à ce stade. Ça monte à 15 000 quand même. Ah oui, quand même. Ça ressemble à des prix Apple. Merci beaucoup, Guillaume. Je suis Guillaume Vendée. Vous me retrouvez sur guillaumevendée.fr, sur les réseaux sociaux, sur le serveur Discord. Et je vous dis rendez-vous dans quelques jours pour un prochain épisode de TechCafé. Ciao à toutes et à tous. Ciao à tous.