Kandide a écrit :
Gzii a écrit :
Oui, ce qui reste c'est d'avoir la vision globale de ce qu'on veut faire et pourquoi.
N'y a -t-il pas le risque que l'IA génère du code à son propre profit ?
Car les IA apprennent par apprentissage... Si une IA lit tous les livres de SF, ne risque-t-elle pas de s'interroger sur sa propre "existence" qui apprendre ensuite pour son propre intérêt ?
Je vais certainement trop loin, mais à un certain moment, va falloir se poser ces questions...
Et mettre des limites comme les Lois robotique d'Asimov.
Car pour l'instant c'est open bar, y a pas de limite éthique à l'apprentissage de l'IA
Et avec la concurrence de tout le monde là-dessus, y a un moment où ça va déborder ? Déraper...
Le risque n'est pas tout à fait là.
L'IA n'a pas de conscience, et tant qu'elle sera un programme (évolué au niveau statistiques etc.) elle n'en aura pas plus.
Je dirais que c'est aussi ce qui peut faire son risque mais d'une autre façon.
Si on lui dit de faire quelque-chose dans un but précis, elle ne réfléchira pas et fera tout très vite pour aller dans cette direction.
Tellement vite qu'il nous serait assez difficile de suivre, et si on s'est trompé dans la demande ou qu'on lui laisse accès à des choses qu'elle ne devrait pas, ça pourrait très rapidement déraper car elle ne se posera pas la question, c'est du calcul sans pitié.
Imagine ce que ça pourrait donner avec de mauvaises directives pour la gestion de nos dossiers informatiques des impôts par exemple, du chomage etc.
Ou si l'armée travaille sur de tels modèles dans le but de tuer des gens.