Gzii a écrit :
Oui, ce qui reste c'est d'avoir la vision globale de ce qu'on veut faire et pourquoi.
N'y a -t-il pas le risque que l'IA génère du code à son propre profit ?
Car les IA apprennent par apprentissage... Si une IA lit tous les livres de SF, ne risque-t-elle pas de s'interroger sur sa propre "existence" qui apprendre ensuite pour son propre intérêt ?
Je vais certainement trop loin, mais à un certain moment, va falloir se poser ces questions...
Et mettre des limites comme les Lois robotique d'Asimov.
Car pour l'instant c'est open bar, y a pas de limite éthique à l'apprentissage de l'IA
Et avec la concurrence de tout le monde là-dessus, y a un moment où ça va déborder ? Déraper...