ZePot a écrit :
...attention à ne pas minimiser le danger non plus. Le danger existe simplement de par l'importance des tâches qui vont être confiées à l'IA. Une IA chargée de diriger une flotte de drones, par exemple, pourrait faire des dommages collatéraux considérables juste sur une erreur d'appréciation. Pour l'instant
il y a toujours un humain chargé de valider le tir, mais ça rend le système beaucoup plus lent évidemment. En cas de conflit non-asymétrique, face à un système entièrement automatisé, l'humain devrait être supprimé. Tu vois le danger maintenant ?
Es-tu sûr qu'il y a toujours un humain pour valider le tir ?
Car j'ai cru comprendre que certains pays n'appliquent les "règles" internationales en vigueur à ceux sujet... (qui va contrôler d'ailleurs ? )
Je pense que la France, les US, etc doivent avoir un humain qui valide le tir, mais je pense que tous les pays n'appliquent pas cela... (problème d'éthique)
C'est comme les armes à fragmentations... Nous en France on s'interdit d'utiliser cela, mais pas les US qui vont d'ailleurs en fournir en Ukraine. Et cela fait un ravage dans la population civile.
C'est comme les mines papillons, ça tue ou ça blesse beaucoup d'enfants... ils pensent voir un jouet... C'est quand même vicieux d'avoir imaginé ce type d'arme
Mais bon le commerce des armes rapporte tellement d'argent que l'on aurait tort de s'en priver !
L'être humain, c'est dans le pire qu'il est le meilleur...
Nous sommes des gros tarés, je ne vois pas d'autres explications ?