Doc Loco a écrit :
Ce qui m'intéresse notamment dans ce sujet, c'est l'aspect conscience: à partir de quel stade d'"intelligence" une IA a t'elle conscience d'elle-même, ressent-elle des choses et accomplit-elle des choix et actes arbitraires, voire plus seulement guidés uniquement par la logique? Est-ce déjà purement une simple question d'intelligence, et si oui de quelle type d'intelligence?
Pour moi, c'est la question primordiale, car à partir du moment ou une IA aura conscience d'elle-même et de son intérêt - y compris pour sa survie - j'ai bien peur que les jours de l'homme soient comptés. Pas sûr qu'un regard extérieur sur l'humanité ne dégage un bilan particulièrement favorable et en faveur de la survie de l'espèce.
c'est la conclusion de l'I.A dans "2001 l'odyssée de l'espace", et dans terminator si mes souvenirs sont bons ... :pleurs:
par contre attention, sur ce forum il y a un modo qui s'appelle SKYNET
j'espère qu'il ne m'a pas repéré ..
en fait c'est la conclusion de pleins de fictions, dans le manga "appleseed" (même auteur que ghost in the shell) l'I.A décide que la variable qui pose problème pour la survie de la terre, c'est l'homme ! et donc elle décide de l'éradiquer pour laisser une chance à la planète.
Aux vues de :
1/ les hommes politiques qu'on a (il parait qu'on a les hommes politiques qu'on mérite). Je parle de ceux aux niveaux nationaux, internationaux, pas les élus locaux qui sont encore dans une relation de proximité avec la réalité des gens ordinaires ...
2/ les pauvres choix minables pris sur le long terme, au profit (le mot est bien choisit, tiens) du court terme
ben .. on peut difficilement lui donner tort !
Il faut donc appliquer les 3 lois de la robotique aux I.A !!!
viva Asimov, je savais que c'était un génie
on second tought, let's not go to Camelot : it's a silly place !
- le roi Arthur