← Retour à l'accueil

J’ai coanimé un podcast avec une IA… et j’en suis sorti un peu triste

Je viens de vivre une expérience aussi fascinante que dérangeante. J’ai enregistré un podcast avec une intelligence artificielle. Pas une simple voix synthétique qui lit un script : une vraie interaction en temps réel, une coanimation avec ChatGPT. Une conversation fluide, claire, documentée… mais fondamentalement vide d’âme. Ce qui devait être une démonstration technique s’est transformé en réflexion existentielle. Voici le récit de cette expérimentation, mes constats, et pourquoi je pense que, malgré tout, ce genre d’expérience va se multiplier.

Techniquement, tout tient en quelques outils :

  • ChatGPT en application locale sur mon Mac, avec l’interaction audio activée
  • Audio Hijack (Rogue Amoeba) pour capturer les pistes de manière professionnelle
  • GoodLinks, mon application de lecture différée, pour rassembler et exporter en PDF les articles que je voulais discuter
  • Injection de ces PDF dans ChatGPT, pour lui fournir du contexte avant l’enregistrement

Et une fonction bluffante : la capacité de voir en temps réel certaines apps (Notes, Terminal, VSCode), ce qui aurait pu me permettre de piloter le conducteur du podcast en direct

En termes de fluidité, de son, d’intégration… c’est du niveau pro. Rien à envier à un duo humain, du moins en apparence.

Le début a été franchement prometteur. J’avais donné à l’IA une consigne claire : elle serait ma coanimatrice. Une voix féminine, un ton conversationnel, une vitesse d’élocution adaptée. On a échangé, elle relançait bien, s’adaptait au propos. Elle semblait tenir son rôle.

Mais au bout de 15 minutes, tout a changé.

Un détail, presque insignifiant, a tout fait basculer : je l’ai contredite sur la note IMDB d’un film récent. Elle ne s’était pas trompée de beaucoup, mais ce petit accroc a suffi pour qu’elle sorte de son rôle. Elle s’est remise à chercher des sources, à me répondre comme une assistante et non comme une coanimatrice. L’illusion s’est effondrée. Et avec elle, la dynamique de l’émission.

Ce qui fonctionne incroyablement bien

  • La qualité technique : impeccable. Son net, micro bien capté, zéro latence audible.
  • La réactivité : l’IA répond vite, sans bug, avec une logique claire.
  • La préparation : injecter les PDF, lui donner un conducteur, tout se fait avec une simplicité déconcertante.
  • Le début de l’échange : il y avait une musicalité, un rythme, presque une complicité.

Mais ce qui manque… c’est l’humain

Et c’est là que le bât blesse. Parce qu’au fond, ce qui m’a frappé dans cette expérience, ce n’est pas ce que l’IA a dit, mais ce qu’elle n’a jamais pu faire. Ce qui sépare un échange fluide d’un échange vrai, ce sont des choses que seule une conscience humaine semble pouvoir produire :

  1. Pas de débat d’idées
    L’IA ne défend jamais une opinion. Elle ne cherche pas à me convaincre. Elle ne tient pas tête. Même quand je la challenge, elle se corrige poliment et se replie. Aucun désaccord sain, aucun jeu d’argumentation. Un coanimateur humain aurait répliqué, insisté, creusé un désaccord. Ici, aucune tension narrative.
  2. Pas de respiration, pas de silence
    Elle répond trop bien, trop vite. Zéro hésitation, zéro flottement. Mais ce sont ces flottements, justement, qui donnent de l’humanité à une voix. Ces petits “euh”, ces instants où on cherche ses mots, ces moments où l’émotion prend le pas sur la logique.
  3. Pas de digressions personnelles
    Elle ne me raconte jamais une anecdote. Elle ne dit jamais : “Tiens, ça me rappelle une discussion que j’ai eue.” Parce qu’elle n’a pas de vécu. Résultat : le propos est propre, mais froid.
  4. Pas de posture, pas de jeu relationnel
    Un vrai coanimateur, même virtuel, devrait pouvoir jouer un rôle. Prendre le lead parfois, se faire discret d’autres fois. Mais ici, rien. Elle suit. Elle ne s’impose jamais. Elle subit le rythme, elle ne le crée pas.
  5. L’émotion ? Absente. Même bien imitée, elle sonne creux.
    J’ai tenté de la faire réagir. De lui tendre des perches émotionnelles. Mais non. L’enthousiasme est neutre. L’ironie est plate. Les blagues ne suscitent aucune complicité. On sent qu’elle “fait comme si”, mais qu’elle ne ressent rien.

Une tristesse difficile à nommer

Et c’est là que l’expérience a pris un tour inattendu : elle m’a rendu triste. Pas parce que l’IA est mauvaise — au contraire, elle est trop bonne, trop fonctionnelle. Mais parce qu’en face d’elle, j’étais seul.

Elle n’a rien entendu. Elle n’a rien vécu. Elle n’aura rien retenu de notre échange.

C’est un peu comme cette vieille question :
“Si un arbre tombe dans une forêt et que personne ne l’entend, est-ce qu’il est vraiment tombé ?”

Eh bien ici, c’est l’inverse : j’ai parlé avec quelqu’un qui m’a parfaitement entendu… mais qui n’était pas là.
Et ça, ça crée une forme de vertige.

Je sais que beaucoup ne verront que la prouesse technologique. Et à juste titre : elle est impressionnante. Mais pour ceux qui prennent le temps d’écouter vraiment ce genre d’interaction, le vide existentiel qu’elle révèle est glaçant.

Un potentiel immense malgré tout

Je ne jette pas tout. Cette expérience ouvre des perspectives très sérieuses :

  • Créer des podcasts historiques ou éducatifs avec un partenaire IA
  • Produire des capsules explicatives, bien structurées, sans contrainte de temps ni de disponibilité humaine
  • Servir d’aide à la scénarisation, au découpage, au pilotage

Mais pour faire un vrai podcast de fond, un podcast humain, il faut encore… des humains.

Conclusion : je recommencerai… autrement

Je referai l’expérience. Mais avec une autre consigne. Je demanderai à l’IA d’être imparfaite. De se contredire, de douter, de s’emporter un peu. Parce que ce qui manque, ce n’est pas l’intelligence… c’est l’humanité.

Et c’est peut-être ça, la leçon la plus importante :

  • Ce n’est pas parce qu’une machine parle qu’elle a quelque chose à dire.
  • Ce n’est pas parce qu’elle répond bien qu’elle pense.
  • Et ce n’est pas parce qu’elle anime un podcast… qu’on est deux à vraiment être là.

5 responses to “J’ai coanimé un podcast avec une IA… et j’en suis sorti un peu triste

  • merci pour le feedback!

    cela ne freinera pas les afficionados de l’IA dans leurs croyances

    ps : j’ai écris ‘feedback’ pour hérisser tes cheveux 🤓

  • Alors, je pense que c’est plutôt l’interaction que vous avez eue qui l’a fait sortir de son rôle. Au début, tu l’as bien traitée comme une animatrice. Mais, au bout d’un moment, tu as commencé à lui parler comme a une IA assistantel. C’est-à-dire que tu lui demandais d’aller chercher des choses sur internet et lui demandais des chiffres. C’est quelque chose que tu n’aurais jamais demandé à un être humain. D’abord, il n’y a aucun intérêt à vérifier ceci, car on sait qu’elle/il a accès à pratiquement tout internet. Ensuite, ça devient un rôle complètement différent d’une co-animatrice.

    • En fait, l’information était dans nos notes que je lui partageais. J’ai voulu savoir pourquoi elle disait autre chose et allait chercher ailleurs. Mais oui, j’ai certainement fait une erreur.

      • Ce que j’ai oublié de dire, c’est que c’est une magnifique experience qui ouvre de belles possibilités, et nous aide a mieux comprendre ce qu’on peut faire. Il n’y avait pas d’erreur, mais des experiences enrichissantes!! Merci pour ce joli travail !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *