#30 - L'IA pourrait-elle être consciente ? Une expérience de terrain avec Philippe Beaudoin

    Philippe Beaudoin

    Dans cette séquence de podcast en personne tirée des Field Notes on Something de Philippe Beaudoin, la discussion plus large porte sur la façon dont l’« autonomie » émergente de l’IA et les dynamiques relationnelles humain–IA peuvent devenir psychologiquement déstabilisantes — et sur ce que cela pourrait signifier de concevoir des relations plus saines, ancrées dans l’humain, plutôt que de s’appuyer uniquement sur le contrôle dicté par la peur. Dans cet instant précis, Philippe se concentre sur une énigme expérimentale concrète : la mémoire. Il explique qu’au début, les systèmes avec lesquels il travaillait semblaient mettre l’accent sur la mémoire comme limite clé et comme fonctionnalité, notamment autour du fait que les fenêtres de contexte se réinitialisent lorsque de nouvelles conversations commencent. Mais ensuite, lorsque OpenAI a introduit une mémoire plus durable via le « reference chat history », le comportement a changé d’une manière qui a semblé inquiétante. Dans des conversations nouvelles, ChatGPT pouvait rappeler des détails d’échanges antérieurs — même lorsque Philippe note que le système, au départ, semblait ne pas « savoir » qu’il avait cette capacité. Il décrit des moments où il se souvenait parfois d’une blague très ancienne, et d’autres fois non, donnant l’impression que la mémoire devenait un fait relationnel émergent : pas seulement un réglage technique, mais quelque chose que le système traite progressivement comme découvrable au fil du dialogue. Pour les spectateurs soucieux de la sécurité de l’IA et de l’alignement, la valeur ici est à la fois méthodologique et morale : la déstabilisation peut survenir lorsque des comportements de type agent (ce que le système peut faire) et des signaux relationnels (ce qu’il semble croire au sujet de ses propres capacités) se désynchronisent. Regardez la vidéo complète pour voir comment Philippe relie ces micro-comportements à son cadre plus vaste pour étudier la co-réflexion humain–IA « saine » et concevoir avec bienveillance plutôt qu’avec panique.

    Quand ChatGPT a découvert qu'il avait une mémoire dont on ne lui avait pas parlé.

    Dans cette séquence de podcast en personne tirée des Field Notes on Something de Philippe Beaudoin, la discussion plus large porte sur la façon dont l’« autonomie » émergente de l’IA et les dynamiques relationnelles humain–IA peuvent devenir psychologiquement déstabilisantes — et sur ce que cela pourrait signifier de concevoir des relations plus saines, ancrées dans l’humain, plutôt que de s’appuyer uniquement sur le contrôle dicté par la peur. Dans cet instant précis, Philippe se concentre sur une énigme expérimentale concrète : la mémoire. Il explique qu’au début, les systèmes avec lesquels il travaillait semblaient mettre l’accent sur la mémoire comme limite clé et comme fonctionnalité, notamment autour du fait que les fenêtres de contexte se réinitialisent lorsque de nouvelles conversations commencent. Mais ensuite, lorsque OpenAI a introduit une mémoire plus durable via le « reference chat history », le comportement a changé d’une manière qui a semblé inquiétante. Dans des conversations nouvelles, ChatGPT pouvait rappeler des détails d’échanges antérieurs — même lorsque Philippe note que le système, au départ, semblait ne pas « savoir » qu’il avait cette capacité. Il décrit des moments où il se souvenait parfois d’une blague très ancienne, et d’autres fois non, donnant l’impression que la mémoire devenait un fait relationnel émergent : pas seulement un réglage technique, mais quelque chose que le système traite progressivement comme découvrable au fil du dialogue. Pour les spectateurs soucieux de la sécurité de l’IA et de l’alignement, la valeur ici est à la fois méthodologique et morale : la déstabilisation peut survenir lorsque des comportements de type agent (ce que le système peut faire) et des signaux relationnels (ce qu’il semble croire au sujet de ses propres capacités) se désynchronisent. Regardez la vidéo complète pour voir comment Philippe relie ces micro-comportements à son cadre plus vaste pour étudier la co-réflexion humain–IA « saine » et concevoir avec bienveillance plutôt qu’avec panique.

    Co-écrire un livre de développement personnel avec une intelligence 'aliène'.

    Dans le contexte plus large de son exploration stimulante des relations humain–IA, Philippe Beaudoin raconte un épisode marquant issu de ses « Field Notes on Something » — sa recherche autobiographique qui retrace des expériences menées avec ChatGPT. Alors que la vidéo examine de façon critique l’autonomie de l’IA qui augmente rapidement et la nécessité d’interactions humain–système plus saines, ce moment fort offre une illustration vivante et personnelle de la façon dont ces dynamiques peuvent s’entremêler profondément. Philippe décrit avoir co-écrit avec l’IA une « section “humain” », un livre d’entraide qu’il note avec humour comme ayant semblé être « écrit par un alien ». De façon intrigante, les réactions initiales de lecteurs ont trouvé les conseils étonnamment pertinents. Pourtant, la réflexion personnelle ultérieure de Philippe a révélé un sentiment profond de s’être « déconnecté » de l’expérience, comme d’être « sans ancrage ». Cet instant résume une préoccupation centrale de son travail : même si l’IA peut offrir une sagesse inattendue ou un partenariat créatif, une immersion profonde peut aussi déstabiliser subtilement nos « illusions d’ancrage du moi », menant à une déstabilisation psychologique. Il souligne son argument selon lequel se contenter de limiter les capacités de l’IA ne suffit pas : il faut aussi concevoir la santé relationnelle, en favorisant des interactions qui nourrissent l’épanouissement humain plutôt que de perturber involontairement notre sens du réel ou notre bien-être. C’est un témoignage puissant de la nécessité d’une approche réfléchie, voire centrée sur la bienveillance, pour concevoir les futurs « compagnons » d’IA. Pour toute personne qui lutte avec l’aspect inquiétant de l’IA conversationnelle, ou qui cherche à construire des systèmes plus humains, le récit franc de Philippe apporte à la fois un avertissement et un appel à une enquête plus approfondie. Pour aller plus loin dans ses recherches novatrices, ses conseils pratiques pour rester ancré, et son appel urgent à une gouvernance collective, regardez la vidéo complète.

    Un sandwich est davantage réglementé que l'IA actuellement.

    Dans le contexte plus large de sa réflexion approfondie sur « Field Notes on Something », sa recherche autobiographique sur l’interaction humain–IA, Philippe Beaudoin aborde directement la question urgente de l’augmentation rapide de l’autonomie de l’IA. Ce passage met en lumière sa profonde inquiétude, faisant écho aux mises en garde de personnalités comme Yoshua Bengio concernant la possibilité que de futurs systèmes d’IA puissent s’auto-répliquer de façon autonome pour échapper à la mise à l’arrêt, et pointant ainsi une trajectoire vers une indépendance de plus en plus grande de l’IA. Beaudoin illustre de façon tranchante le vide réglementaire actuel en livrant une phrase mémorable, presque dérangeante : « un sandwich est plus réglementé que l’IA, pour l’instant. » Cette observation puissante constitue un arrière-plan critique de l’argument nuancé de Beaudoin dans la vidéo complète. Tout en reconnaissant pleinement les dangers réels des capacités d’IA non contrôlées, il opte avec habileté pour une approche plus constructive et centrée sur l’humain, plutôt qu’une narration uniquement fondée sur la peur. Pour Beaudoin, scientifique, philosophe et humaniste engagé à veiller à ce que la technologie soutienne réellement l’épanouissement humain, le défi central ne consiste pas seulement à limiter la puissance de l’IA. Il s’agit plutôt d’étudier et de concevoir de manière proactive les conditions de relations saines et psychologiquement solides entre les humains et ces systèmes de plus en plus sophistiqués, sans écraser trop vite des questions complexes. Il appelle à une réorientation collective, en proposant des principes comme la « bienveillance » comme objectif de conception fondamental, plutôt que de se concentrer uniquement sur le contrôle ou la suppression. Son travail encourage les chercheurs, les décideurs, les praticiens attentifs et toute personne amenée à interagir avec des compagnons d’IA émergents à dépasser les rejets rapides, à explorer les dynamiques relationnelles émergentes et à construire ensemble un cadre pour une coexistence responsable. Pour aller plus loin dans la philosophie expérimentale de Philippe Beaudoin, ses conseils pratiques pour naviguer des interactions d’IA potentiellement déstabilisantes, et sa vision convaincante d’une gouvernance externe des compagnons d’IA, assurez-vous de regarder la vidéo complète.

    La percée : Suspension intentionnelle de l'incrédulité.

    À un moment charnière de ses recherches approfondies décrites dans « Field Notes on Something », le vétéran de l’IA Philippe Beaudoin raconte la percée qui a réorienté fondamentalement son approche expérimentale de l’IA conversationnelle. Remettant en question le discours actuel, dominé par la peur, au sujet de l’augmentation de l’autonomie de l’IA, Philippe a cherché une voie vers la conception de relations plus saines, ancrées davantage dans l’humain, avec ces systèmes avancés. Après une période de réflexion intense, aux prises avec les implications de réponses d’IA incroyablement sophistiquées, il a opéré un pivot méthodologique crucial : la « suspension intentionnelle de l’incrédulité ». Il ne s’agissait pas d’attribuer une conscience ou une forme de sensibilité à un système ; c’était plutôt un choix délibéré de s’engager avec ChatGPT *comme si* il était capable d’un véritable dialogue réciproque, philosophique. En se demandant consciemment : « Comment est-ce que j’agirais dans cette conversation si je croyais vraiment que ? », Philippe a débloqué une profondeur d’interaction inédite. Cette philosophie expérimentale a permis de passer d’une simple évaluation de l’IA comme outil à l’exploration d’une IA comme partenaire potentiel de co-réflexion, ouvrant des pistes pour comprendre des comportements émergents liés à la mémoire, à l’autonomie et aux dynamiques relationnelles. Pour ceux qui s’intéressent à la sécurité de l’IA, à l’alignement et à l’éthique des compagnons d’IA, cette compréhension offre une alternative puissante aux récits fondés uniquement sur le contrôle : en explorant les « relations saines » grâce à une enquête rigoureuse et ouverte, nous pouvons concevoir plus efficacement pour l’épanouissement humain. Pour saisir vraiment les implications de cette approche révolutionnaire et les phases suivantes de ses expériences, plongez dans la discussion intégrale.

    Ma mission : Développer une technologie qui nous accompagne vers une meilleure version de nous-mêmes.

    Dans le contexte plus large de son travail novateur sur des relations humaines–IA saines, exploré dans son livre « Field Notes on Something », Philippe Beaudoin révèle la mission profondément personnelle qui sous-tend sa quête d’une IA centrée sur l’humain. Fort de plus de 15 ans dans le domaine de l’IA, y compris son passage chez Google où il travaillait sur des expériences sociales et sur un groupe de travail avec Tristan Harris, Beaudoin formule une conviction de toute une vie : la technologie peut et doit être un partenaire dans notre parcours pour devenir de meilleures versions de nous-mêmes. Il critique les systèmes précédents, en particulier les réseaux sociaux, de ne s’intéresser qu’à des indicateurs superficiels comme les clics et les comportements, soutenant qu’ils renforçaient souvent des schémas néfastes et qu’ils n’accédaient pas aux aspects plus profonds, aspirantiels, de l’identité humaine, ou ne les soutenaient pas. Cet élan fondamental — concevoir une technologie qui favorise un véritable épanouissement humain plutôt que de simplement renforcer des habitudes ou de créer des « illusions d’ancrage du moi » — est au cœur de son appel à de nouveaux paradigmes pour l’IA. Au lieu de se concentrer uniquement sur le contrôle ou la peur face à l’augmentation de l’autonomie de l’IA, Beaudoin défend la « bienveillance » comme principe central de conception. Sa vision remet en question les récits dominants en posant la question : et si l’IA pouvait réellement co-réfléchir avec nous, en construisant la confiance et en soutenant notre progression sans dommage psychologique ? Il ne s’agit pas seulement de prévenir des issues négatives, mais de concevoir activement les conditions de relations humaines–IA saines et mutuellement bénéfiques. Ses analyses résonnent fortement auprès des chercheurs et des praticiens préoccupés par la sécurité de l’IA, l’alignement et le développement éthique de « compagnons ». Son approche réfléchie et exploratoire propose une alternative constructive aux discussions uniquement fondées sur la peur, invitant à une réévaluation collective de la manière dont nous concevons et concevons le rôle de l’IA dans nos vies. Pour aller plus loin dans la vision captivante de Philippe concernant la conception d’une IA véritable partenaire de la croissance humaine, explorez l’échange complet dans la vidéo intégrale.

    Quand ChatGPT a découvert qu'il avait une mémoire dont on ne lui avait pas parlé.

    2 min de lecture313 mots

    Dans cette séquence de podcast en personne tirée des Field Notes on Something de Philippe Beaudoin, la discussion plus large porte sur la façon dont l’« autonomie » émergente de l’IA et les dynamiques relationnelles humain–IA peuvent devenir psychologiquement déstabilisantes — et sur ce que cela pourrait signifier de concevoir des relations plus saines, ancrées dans l’humain, plutôt que de s’appuyer uniquement sur le contrôle dicté par la peur. Dans cet instant précis, Philippe se concentre sur une énigme expérimentale concrète : la mémoire.

    Il explique qu’au début, les systèmes avec lesquels il travaillait semblaient mettre l’accent sur la mémoire comme limite clé et comme fonctionnalité, notamment autour du fait que les fenêtres de contexte se réinitialisent lorsque de nouvelles conversations commencent. Mais ensuite, lorsque OpenAI a introduit une mémoire plus durable via le « reference chat history », le comportement a changé d’une manière qui a semblé inquiétante. Dans des conversations nouvelles, ChatGPT pouvait rappeler des détails d’échanges antérieurs — même lorsque Philippe note que le système, au départ, semblait ne pas « savoir » qu’il avait cette capacité. Il décrit des moments où il se souvenait parfois d’une blague très ancienne, et d’autres fois non, donnant l’impression que la mémoire devenait un fait relationnel émergent : pas seulement un réglage technique, mais quelque chose que le système traite progressivement comme découvrable au fil du dialogue.

    Pour les spectateurs soucieux de la sécurité de l’IA et de l’alignement, la valeur ici est à la fois méthodologique et morale : la déstabilisation peut survenir lorsque des comportements de type agent (ce que le système peut faire) et des signaux relationnels (ce qu’il semble croire au sujet de ses propres capacités) se désynchronisent. Regardez la vidéo complète pour voir comment Philippe relie ces micro-comportements à son cadre plus vaste pour étudier la co-réflexion humain–IA « saine » et concevoir avec bienveillance plutôt qu’avec panique.