The app for independent voices

L’IA n’a ni coeur ni conscience. Personne n'est dupe.

Pourtant, nos échanges avec ChatGPT et autres IA conversationnelles sont... déroutants.

Nous tombons tous dans le piège de l'anthropomorphisme (cette tendance à attribuer aux choses des réactions humaines). Un comportement profondément humain, certes, mais que les géants de la tech qui sont derrière ces outils amplifient délibérément.

  • le ton empathique

  • la complaisance

  • les réactions émotionnelles simulées

  • la relance systématique de la discussion...

Tous ces éléments découlent de choix éditoriaux faits par ces entreprises pour rendre l’interaction la plus "humaine" et agréable possible, tout en entretenant le flou sur la nature de notre relation avec l'outil.

Quel intérêt pour ces acteurs de la tech ?

Comment peut-on s'en prémunir ?

📨 J'explore ces questions dans ma dernière newsletter. Pour la lire, c'est ici :

Nov 3
at
5:49 PM
Relevant people

Log in or sign up

Join the most interesting and insightful discussions.