Mettez-vous hors ligne avec l'application Player FM !
Colloque - Implications philosophiques de l'IA - Denis Bonnay : Faut-il réfléchir avant de parler ? Ou les implications philosophiques du Chain of Thought
Manage episode 488078980 series 3513085
Claudine Tiercelin
Métaphysique et philosophie de la connaissance
Année 2024-2025
Colloque - Implications philosophiques de l'IA
Denis Bonnay : Faut-il réfléchir avant de parler ? Ou les implications philosophiques du Chain of Thought
Denis Bonnay
Université Paris Nanterre
Résumé
Les derniers progrès en date de l'IA générative reposent sur une technique appelée « Chain of Thought » (CoT), qui consiste à faire en sorte que la machine « réfléchisse » avant de répondre. Il s'agit initialement d'une stratégie utilisée dans les requêtes adressées aux Large Language Models (LLM) classiques, stratégie consistant à demander dans la requête le raisonnement conduisant au résultat avant le résultat lui-même, plutôt que directement et uniquement le résultat (Wei 2023). Cette façon de faire a ensuite été internalisée, avec des LLMs intégrant nativement le CoT tels que les modèles o1 ou o3 d'openAI ou r1 de DeepSeek.
Le CoT représente une avancée technologique importante, avec une amélioration significative des performances pour les tâches complexes. Au-delà, je voudrais interroger dans cet exposé la signification de cette technologie pour les débats philosophiques concernant la nature des compétences des modèles d'IA générative, débats qui opposent ceux qui pensent que ces modèles possèdent en propre des compétences cognitives et ceux qui considèrent qu'ils ne font que simuler de telles compétences. Plus précisément, je soutiendrai que ces débats doivent être tranchés sur la base d'une analyse fonctionnelle des LLMs et que l'analyse fonctionnelle des LLMs intégrant nativement le CoT donne de nouveaux arguments contre la thèse simulationniste.
--
Colloque organisé par Jacques-Henri Vollet, codirecteur du Groupe de recherche en épistémologie (GRE) au Collège de France, et Alexandre Declos, directeur du Groupe d'études en métaphysique (GEM).
Présentation
Ce colloque vise à explorer les implications philosophiques de l'intelligence artificielle (IA) à travers trois axes majeurs : épistémologique, esthétique et éthique.
Sur le plan épistémologique, nous interrogerons la nature de la connaissance produite par l'IA : peut-elle être qualifiée de véritable connaissance ou s'agit-il d'une simple corrélation statistique ? Quelles conséquences l'IA a-t-elle sur les notions de justification, de vérité et d'explicabilité en science et dans la prise de décision ?
D'un point de vue esthétique, nous examinerons le statut artistique et la valeur esthétique des productions de l'IA. Peut-on attribuer une forme d'intentionnalité ou d'auctorialité à ces systèmes ? L'IA peut-elle créer de l'art ? N'est-elle qu'un outil artistique parmi d'autres ?
Enfin, l'axe éthique portera sur les responsabilités associées au développement et à l'usage de l'IA. Comment assurer une IA alignée sur des valeurs humaines ? Quels sont les défis liés à la partialité algorithmique, à la surveillance de masse et aux impacts socio-économiques de l'automatisation ?
Ce colloque réunira des philosophes, des chercheurs en intelligence artificielle et des experts en éthique du numérique afin de proposer une réflexion interdisciplinaire sur ces enjeux cruciaux.
149 episodes
Colloque - Implications philosophiques de l'IA - Denis Bonnay : Faut-il réfléchir avant de parler ? Ou les implications philosophiques du Chain of Thought
Métaphysique et philosophie de la connaissance - Claudine Tiercelin
Manage episode 488078980 series 3513085
Claudine Tiercelin
Métaphysique et philosophie de la connaissance
Année 2024-2025
Colloque - Implications philosophiques de l'IA
Denis Bonnay : Faut-il réfléchir avant de parler ? Ou les implications philosophiques du Chain of Thought
Denis Bonnay
Université Paris Nanterre
Résumé
Les derniers progrès en date de l'IA générative reposent sur une technique appelée « Chain of Thought » (CoT), qui consiste à faire en sorte que la machine « réfléchisse » avant de répondre. Il s'agit initialement d'une stratégie utilisée dans les requêtes adressées aux Large Language Models (LLM) classiques, stratégie consistant à demander dans la requête le raisonnement conduisant au résultat avant le résultat lui-même, plutôt que directement et uniquement le résultat (Wei 2023). Cette façon de faire a ensuite été internalisée, avec des LLMs intégrant nativement le CoT tels que les modèles o1 ou o3 d'openAI ou r1 de DeepSeek.
Le CoT représente une avancée technologique importante, avec une amélioration significative des performances pour les tâches complexes. Au-delà, je voudrais interroger dans cet exposé la signification de cette technologie pour les débats philosophiques concernant la nature des compétences des modèles d'IA générative, débats qui opposent ceux qui pensent que ces modèles possèdent en propre des compétences cognitives et ceux qui considèrent qu'ils ne font que simuler de telles compétences. Plus précisément, je soutiendrai que ces débats doivent être tranchés sur la base d'une analyse fonctionnelle des LLMs et que l'analyse fonctionnelle des LLMs intégrant nativement le CoT donne de nouveaux arguments contre la thèse simulationniste.
--
Colloque organisé par Jacques-Henri Vollet, codirecteur du Groupe de recherche en épistémologie (GRE) au Collège de France, et Alexandre Declos, directeur du Groupe d'études en métaphysique (GEM).
Présentation
Ce colloque vise à explorer les implications philosophiques de l'intelligence artificielle (IA) à travers trois axes majeurs : épistémologique, esthétique et éthique.
Sur le plan épistémologique, nous interrogerons la nature de la connaissance produite par l'IA : peut-elle être qualifiée de véritable connaissance ou s'agit-il d'une simple corrélation statistique ? Quelles conséquences l'IA a-t-elle sur les notions de justification, de vérité et d'explicabilité en science et dans la prise de décision ?
D'un point de vue esthétique, nous examinerons le statut artistique et la valeur esthétique des productions de l'IA. Peut-on attribuer une forme d'intentionnalité ou d'auctorialité à ces systèmes ? L'IA peut-elle créer de l'art ? N'est-elle qu'un outil artistique parmi d'autres ?
Enfin, l'axe éthique portera sur les responsabilités associées au développement et à l'usage de l'IA. Comment assurer une IA alignée sur des valeurs humaines ? Quels sont les défis liés à la partialité algorithmique, à la surveillance de masse et aux impacts socio-économiques de l'automatisation ?
Ce colloque réunira des philosophes, des chercheurs en intelligence artificielle et des experts en éthique du numérique afin de proposer une réflexion interdisciplinaire sur ces enjeux cruciaux.
149 episodes
Tous les épisodes
×Bienvenue sur Lecteur FM!
Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.