à paraître en 2026
à paraître en 2026
à paraître en 2026.
à paraître en 2026
Résumé: En devenant capables d’interpréter et produire du texte, des images, ou des vidéos au sujet de notions complexes, sans qu’on leur en ait fourni les articulations logiques, les algorithmes d’intelligence artificielle dite « générative » (ChatGPT, Claude, Gemini, Stable Diffusion, Midjourney, DALL-E, Gen-2 ou Sora…) posent un défi scientifique : qu’est-ce que l’intelligibilité si celle-ci peut être produite ou simulée par de tels dispositifs ? Les théoriciens, artistes et usagers se sont efforcés d’en rendre compte à l’aide de la notion d’« espaces latents », qui désigne les grilles par lesquelles les algorithmes « interprètent » les motifs culturels. Ces « grilles » comportent des dizaines de milliers de dimensions (chacune des dimensions servant d’axe de différenciation des motifs) au service d’une « interprétation » qui peut être à la fois une herméneutique (reconnaître un motif, ou plus généralement le situer dans un réseau de proximités et de distances avec les autres motifs) et une production, une « interprétation » au sens où un pianiste interprète une partition musicale. Pour mieux évaluer ce qu’ils peuvent et ce qu’ils font, les espaces latents des algorithmes ont été comparés avec le monde des formes platoniciennes, ce qui pose des problèmes épistémologiques et politiques. Nous proposons une comparaison alternative avec le projet de bibliothèque d’Aby Warburg, les espaces latents ayant comme point commun leur manière de classer les motifs culturels (par similarité ou « affinités »), ce qui permet de les positionner dans un réseau d’analogies à même de relier l’ensemble des motifs, à rebours des frontières médiales ou disciplinaires, notamment de la distinction entre ce qui tient de la science et ce qui relève de l’imaginaire, et éclaire ce que l’intelligibilité d’un motif culturel doit à son positionnement dans un réseau d’analogies plutôt qu’à ses articulations logiques.
Dans des espaces latents de matrices mathématiques immenses, des réseaux de neurones artificiels comprennent le monde comme un code et se mettent à apprendre par eux-mêmes à produire des images et des sons, à écrire, à traduire, à parler. Le Monde selon l’IA : cet ouvrage est une pierre fondatrice de l’édifice intellectuel qui interroge ces nouveaux outils qui permettent de repenser et de renouveler les processus de création tout en éclairant la manière dont les machines voient et habitent le monde. L’ouvrage dévoile les œuvres – pour certaines inédites – d’artistes de la scène française et internationale qui ont abordé les nouvelles technologies d’IA selon différentes perspectives : Kate Crawford & Vladan Joler, Fabien Giraud, Agnieszka Kurant, Christian Marclay, Trevor Paglen, Hito Steyerl…
Résumé : L’augmentation de la taille des modèles de langue (LLM, dont ChatGPT est le plus célèbre représentant), et le constat que cela induit des effets d’échelle libérant des performances insoupçonnées, a suscité une controverses entre ceux pour qui il y aurait là émergence de facultés de raisonnement − les LLM constitueraient les prémisses d’une « intelligence artificielle générale » −, et ceux pour qui il ne s’agit que d’un mirage statistique : les LLM ne seraient que des « perroquets stochastiques ». Bien qu’aucune de ces deux positions ne résiste à l’examen, les étudier nous permet de mieux cerner pour quelles raisons, bonnes ou mauvaises, les LLM sont capables de produire d’aussi bonnes réponses.
Compte-rendu du livre de Daniel Andler, Intelligence artificielle, intelligence humaine, la double énigme (Gallimard, 2023).
L’ouvrage collectif, issu d’un colloque à Cerisy, s’interroge sur les différents angles morts (politiques, théoriques, artistiques…) du déploiement numérique, déploiement présenté ou ressenti comme ubiquitaire. Ma contribution propose une description de l’intuition qui montre en quoi le projet d’intelligence artificielle, en restreignant son appréhension de l’esprit à ce qui peut en être décrit comme une machine, la relègue dans un angle mort et par conséquent se prive de comprendre l’intelligence qu’il prétend pourtant élucider.
Résumé: Pour certains journalistes et théoriciens, ainsi qu’une partie du public, les big data sont l’occasion d’une apocalypse, en ce qu’elles permettraient de dévoiler le réel, le social, et de juger les citoyens selon leur mérite. Le réel est pensé comme une catastrophe inévitable qu’il est possible d’orienter en choisissant ceux qui seront épargnés grâce aux big data, qui permettent de révéler et d’évaluer les vertus de chacun. Si cette lecture est critiquable, et parfois délirante, on peut lui trouver un « grain de vérité » , à l’instar de ce que fait Freud avec le délire de Hanold dans la Gradiva. En l’occurrence, les discours apocalyptiques seraient les symptômes d’une mutation à l’œuvre, l’émergence d’une société de contrôle, voire de ciblage, qui perpétue un certain désir d’éradiquer ce qui est singulier. Il ne s’agit pas d’élever cette interprétation au rang de vérité avérée, ce qui répéterait le simulacre de révélation que nous critiquons, mais d’en faire l’occasion d’une réflexion sur la possibilité de distinguer sans reste la perception de l’imagination, la science de la fiction, et la rationalité de la folie.
Résumé : Dans « Deuil à venir, dieu à venir », article publié dans Critique en 2006, Quentin Meillassoux se penche sur le problème des « spectres essentiels », ces morts dont nous n’arrivons pas à faire le deuil et qui nous laissent face à un dilemme : soit le désespoir, si Dieu n’existe pas, soit la colère, s’il existe et qu’il a laissé advenir ces morts révoltantes. Dans la continuité des thèses développées avec Après la finitude, Meillassoux s’appuie sur le concept de contingence pour proposer une troisième possibilité : Dieu n’existe pas encore. En proposant l’idée de la venue d’un Dieu apportant la justice aux « spectres essentiels », Meillassoux réactive sur un plan philosophique la notion d’apocalypse, en tant que révélation à venir de l’absolu. Mais après ? L’apocalypse selon Meillassoux, dans la mesure où elle se fonde sur le concept de contingence, est une révélation et une sotériologie, mais sans eschatologie puisque le temps poursuit son cours. C’est ce temps de l’après qu’il s’agit de considérer, en examinant les notions mobilisées par l’idée d’Apocalypse : Dieu et la contingence, le spectacle de l’exercice de la colère, et le réglement des comptes à la fin des temps.
L’article, rédigé en 2017, avant la vague des grands modèles de langage, propose une expérience de pensée : un programmeur chargé d’entraîner une intelligence artificielle générative sur le corpus de Jacques Derrida afin de créer un chatbot capable de s’exprimer comme le philosophe, découvre que Jacques Derrida a déjà imaginé cette situation dans un texte datant des années quatre-vingt dix (Jacques Derrida, Circonfession, Paris, Édition des femmes, 1993) à la faveur de la création par Geoffrey Bennington d’une Derridabase, programme informatique imaginaire censé abstraire le « système » de pensée de Derrida. Conformément au changement de paradigme qui a eu lieu depuis en intelligence artificielle, il ne s’agit plus de mener une réflexion sur la notion de système philosophique (correspondant à l’école symbolique), mais sur l’écriture philosophique et sa possible imitation par les programmes de l’école connexionniste, ce qui est une manière de se demander si un réseau de neurones pourrait être capable de raisonner. L’article fait suite à une invitation à la journée d’étude « Technique et monde, le monde réseau et ses liens » au Centre de création numérique « Le Cube », en mai 2017. J’y avais partagé le trouble ressenti après avoir entraîné un réseau de neurones sur l’ensemble des livres de Balzac pour en produire des pastiches, et mon questionnement d’alors : pourrait-on produire de tels pastiches pour un philosophe, et en particulier Jacques Derrida, connu pour sa proximité avec la littérature, pour sa manière singulière d’écrire et ayant, dès les années quatre-vingt dix, imaginé l’existence d’une machine capable de parler à sa place ou en son nom ?
Résumé : En s’appuyant sur différents cas d’utilisation de programmes informatiques par des poètes (Jackson McLow, Charles Hartman, John Cage, Flarf), l’article s’interroge sur la possibilité d’utiliser les algorithmes comme un moyen d’inspiration artificielle, voire comme imitateurs du poète, notamment à travers une analyse des premiers outils de « génération de texte » comme le « générateur de Shakespeare » proposé par Andrej Karpathy ou le générateur de définitions pour des mots inexistants proposé par Ross Goodwin.
Résumé : En tant que mythe apocalyptique, le récit d’une singularité technologique à venir pourrait être interprété comme un symptôme, le symptôme d’un rejet de la fiction dans la science. En imaginant l’avènement d’une intelligence artificielle conçue comme une « superintelligence » sans erreur, sans fiction, et, d’une certaine façon, hors du temps, ils font revenir, à la façon d’un lapsus, le devenir par là même où il devait être éradiqué : le mythe de la singularité technologique, en tant qu’événement mettant fin à tous les évènements, est une figure du temps, une erreur, un monstre de la pensée engendré non par un sommeil mais par une insomnie de la raison, un usage non critique de celle-ci.