Gzii a écrit :
La réponse dans le sens de la question, on la retrouve avec ChatGPT (peut-être surtout la 3.5 ? Ou pas ?).
Avec ChatGPT la confusion est sans doute bien plus probable. Mais ce n'est pas du tout la même dynamique conversationnelle. Liza c'est un algorithme très frustre qui n'introduit aucune information externe et se contente de relancer ce que tu dis, avec empathie, à la façon de certains psy. Le but c'est qu'en t'approuvant et en ajoutant une invitation à élaborer, tu clarifies par toi-même. Mais ça ne va pas très loin.
Je suis surpris que cette histoire apparaisse à propos de l'intelligence artificielle contemporaine, car clairement, il faut être vraiment déjà très perturbé pour se prendre au jeu d'une conversation avec Liza. Avec Chatgpt, le danger de manipulation est de toute autre nature, car il sera bien plus capable de "comprendre" que tu racontes des choses aburdes et il est programmé pour être prudent. Le danger de manipulation vient plutôt de la désinformation ou plus subtilement des biais qu'il peut introduire en masse, dans notre système d'information global. Avec google, comme avec les bibliothèques et institutions culturelles dans le passé, la "culture humaine" s'est transformée de façon imperceptible mais réelle: n'existe que ce qui est trouvable sur google pour dire les choses simplement. Avec Chatgpt, c'est un pouvoir largement plus fin et plus centralisé sur cette transformation qui apparaît. Donc utilisable, manipulable...
Bref, je ne crains pas que les robots prennent le pouvoir (lol). Par contre, qu'une intelligence artificielle, capable de produire du contenu, puisse se concentrer sur moi et mes comportements pour apprendre à me connaître, et faire de même avec tous les habitants connectés de cette planète, on passe à un autre degré de contrôle que les bon vieux algorithmes youtube...
Vous battez pas, je vous aime tous