L’IA n’a ni coeur ni conscience. Personne n'est dupe.
Pourtant, nos échanges avec ChatGPT et autres IA conversationnelles sont... déroutants.
Nous tombons tous dans le piège de l'anthropomorphisme (cette tendance à attribuer aux choses des réactions humaines). Un comportement profondément humain, certes, mais que les géants de la tech qui sont derrière ces outils amplifient délibérément.
le ton empathique
la complaisance
les réactions émotionnelles simulées
la relance systématique de la discussion...
Tous ces éléments découlent de choix éditoriaux faits par ces entreprises pour rendre l’interaction la plus "humaine" et agréable possible, tout en entretenant le flou sur la nature de notre relation avec l'outil.
Quel intérêt pour ces acteurs de la tech ?
Comment peut-on s'en prémunir ?
📨 J'explore ces questions dans ma dernière newsletter. Pour la lire, c'est ici :