Intelligences Artificielles

Rappel du dernier message de la page précédente :
cliclac
Il s’agit plus de supprimer des taches inutiles que de réduire des coûts. En médecine par exemple, l’IA améliore l’analyse des images, après au médecin de savoir quoi faire du truc qu’il n’aurait peut-être pas remarqué à l’œil nu
Gzii
  • Gzii
  • Vintage Total utilisateur
  • #466
  • Publié par
    Gzii
    le 10 Fév 2023, 18:11
Kandide a écrit :
Gzii a écrit :
Oui, ce qui reste c'est d'avoir la vision globale de ce qu'on veut faire et pourquoi.
N'y a -t-il pas le risque que l'IA génère du code à son propre profit ?
Car les IA apprennent par apprentissage... Si une IA lit tous les livres de SF, ne risque-t-elle pas de s'interroger sur sa propre "existence" qui apprendre ensuite pour son propre intérêt ?

Je vais certainement trop loin, mais à un certain moment, va falloir se poser ces questions...
Et mettre des limites comme les Lois robotique d'Asimov.
Car pour l'instant c'est open bar, y a pas de limite éthique à l'apprentissage de l'IA
Et avec la concurrence de tout le monde là-dessus, y a un moment où ça va déborder ? Déraper...

Le risque n'est pas tout à fait là.
L'IA n'a pas de conscience, et tant qu'elle sera un programme (évolué au niveau statistiques etc.) elle n'en aura pas plus.
Je dirais que c'est aussi ce qui peut faire son risque mais d'une autre façon.
Si on lui dit de faire quelque-chose dans un but précis, elle ne réfléchira pas et fera tout très vite pour aller dans cette direction.
Tellement vite qu'il nous serait assez difficile de suivre, et si on s'est trompé dans la demande ou qu'on lui laisse accès à des choses qu'elle ne devrait pas, ça pourrait très rapidement déraper car elle ne se posera pas la question, c'est du calcul sans pitié.
Imagine ce que ça pourrait donner avec de mauvaises directives pour la gestion de nos dossiers informatiques des impôts par exemple, du chomage etc.
Ou si l'armée travaille sur de tels modèles dans le but de tuer des gens.
Lao
  • Lao
  • Vintage Top utilisateur
  • #467
  • Publié par
    Lao
    le 10 Fév 2023, 18:21

On peut dire que le déterminisme est un brin défaillant avec les IAs
Blow Up
cliclac a écrit :

J’ai vécu et participé à l’éclosion du numérique en photo, on y a laissé des plumes, la facilité d’obtention d’images correctes a banalisé leur fabrication pourquoi payer ce que je peux faire moi même avec l’assistance d’une machine ?


C'est différent, c'est pas juste un outil, c'est une révolution copernicienne. C'est plutôt l'homme qui sera l'assistant de la machine (enfin quand elle en aura besoin).
Je pense que dans quelques décennies, ça va devenir compliqué de parler de valeur travail, la droite va être en PLS
"Macron est de gauche" BluesBarbu le 20/02/2021
Gzii
  • Gzii
  • Vintage Total utilisateur
  • #469
  • Publié par
    Gzii
    le 10 Fév 2023, 19:34
Pour que la machine puisse asservir l'homme il faudrait qu'elle ait une volonté/conscience propre et dans les technologies utilisées ça ne sera pas le cas.

Donc ça sera peut-être l'homme qui asservira l'homme par des machines.
lo-fi reup
ça va laisser pas mal de monde sur le carreau c est clair et dans bcp de domaines

vous croyez pas à l'abri

là c est que le premier modèle grand public qui sort et ça existe que depuis 5 ans ces premiers modèles la (au debut il faisait que traduire du texte)

imaginez dans encore 5 ans! (une eternité en IA)

moi je m en fous je sais faire plusieurs metiers
Biosmog
  • Biosmog
  • Vintage Méga utilisateur
Je pense, comme dans toute technologie, que ça va rapidement plafonner.

Et pour l'instant, à propos de deep learning, je suis dubitatif. Dit de façon péremptoire, ChatGBT est un robot qui a appris à tricher. J'ai testé sur différent trucs : c'est globalement du flan. Ce qui est impressionnant, c'est l'apparence de vérité. C'est un peu comme la traduction de DEEPL: c'est vrai que ça imite bien du langage naturel, mais ça dévie beaucoup plus que des algorithmes non deep learning. C'est en tout cas le résultat d'un test que je viens de faire sur des bases de données de textes. Je bosse sur BERT en ce moment (allez regarder), et bien malgré le fait que ce soit la star des méthode de catégorisation, il y a du mauvais. Le danger est que cette technologie arrive à nous bluffer. Car ce n'est pas impossible qu'elle y arrive.

Une autre hypothèse est qu'on parvienne à mieux déterminer les domaines où elle est utile (imitation) et où elle ne l'est pas (création).

Une dernière hypothèse est que cette étape du Deep Learning soit dépassée. Je n'ai pas de boule de cristal, je ne suis pas un crack en math, donc je n'en sais rien. Mais comme dit en intro, je pense que ça va plafonner. Et qu'on va petit à petit mieux cerner les domaines où le deep learning est bon, revenir à d'autres méthodes automatisées dans certains cas (comme je l'ai dit, des algo de traduction plus littérales sonnent moins naturels, mais sont mieux exploitable concrètement). Donc l'enjeu est de déterminer ces domaines précisément, à mon avis. Ne le répétez pas, c'est le sujet d'un papier que je suis en train de préparer (petit moment melon)
Vous battez pas, je vous aime tous
Lao
  • Lao
  • Vintage Top utilisateur
  • #472
  • Publié par
    Lao
    le 10 Fév 2023, 22:02
Je pense au domaine de diagnostic médical. Si on fournit assez de données, une IA est idéale pour faire une synthèse et sortir une conclusion dans la mesure où l'apprentissage a été fait correctement. Évidemment ce sera aux praticiens de l'utiliser et de juger la pertinence du diagnostic. Le taux d'erreurs obtenu 'devrait' être inférieur à celui d'un humain.
M'étonnerait que ce soit pas déjà dans les 'neurones'.
SenorMicky
Biosmog a écrit :
Ce qui est impressionnant, c'est l'apparence de vérité. C'est un peu comme la traduction de DEEPL: c'est vrai que ça imite bien du langage naturel:


même pas, en 10 minutes on capte que c’est aussi limité qu’un humain au Q.I moyen sortant de Fac, programmé qu’à un certain nombre de taches/ situations/ réactions limitées et apprises en plus d’être dénué de tout sens d’improvisation, passé quelques messages on a fait vite le tour…. ( comme un grateux démonstratif dénué d’emotions rejouant les mêmes plans) c’est rigolo, mais tout juste au dessus d’un vieux siri…. chatgpt c’est du wikipedia un peu plus poussé…

Pour nous donné la météo, faire un calcul ou rédiger un texte fade à la limite…je ne comprend pas toute cette hype.. un effet de mode et une promotion intelligente?

Bon en même temps, nous n’en sommes qu’aux balbutiements… attendons de voir

Ca impressionnerais un enfant de 5 ans facilement impressionnable, à la limite…
10000001700010 / HEK293 / 978-2-940631-11-7 / SV40 / W02020060606
jamais dans la tendance mais toujours dans la bonne direction ...
les chiens aboient, la caravane passe...
lo-fi reup
Bah disons que ca fait un truc moyen (pour l'instant) mais dans absolument tous les domaines

Tu connais bcp de gens capables d expliquer la theorie des cordes, qui savent traduire chinois vers arabe, qui pondent du code et ferus d histoire?

La recherche avance, rien ne nous dit qu un algo meilleur (qui sera pas du deep) va pas sortir demain et egaler le cerveau humain

Si on debloque le quantique ca tombe direct

Y a un côté flippant, pas parce que ce sera terminator, mais parce qu on se demande a quoi on servira!
cliclac
Lao a écrit :
Je pense au domaine de diagnostic médical. Si on fournit assez de données, une IA est idéale pour faire une synthèse et sortir une conclusion dans la mesure où l'apprentissage a été fait correctement. Évidemment ce sera aux praticiens de l'utiliser et de juger la pertinence du diagnostic. Le taux d'erreurs obtenu 'devrait' être inférieur à celui d'un humain.
M'étonnerait que ce soit pas déjà dans les 'neurones'.

D’après un article du Monde le taux de réussite serait supérieur à celui d’un humain en un temps beaucoup plus court et c’est entré dans les blocs apparemment ou ça va arriver :
https://www.inserm.fr/dossier/(...)-cao/
Lao
  • Lao
  • Vintage Top utilisateur
  • #476
  • Publié par
    Lao
    le 11 Fév 2023, 13:41
J'ai fait des études en biomédical. Depuis longtemps les programmes sont souvent capables d'être meilleurs que les humains (j'ai surtout travaillé en électrophysiologie ECG, EMG, ...). En premier lieu, un humain n'est pas capable de faire une analyse fréquentielle et a même des sens relativement limité pour discerner des nuances dans certaines grandeurs.
Par contre sans contrôle humain, le peu d'erreur que peut faire une machine pourrait mener à la catastrophe.
corto30
La vitesse d'apprentissage est impressionnante : là par exemple l'IA a compris qu'il lui manque des donnèes pour faire un bon plug in d'overdrive, du coup si tu lui redemandes elle te réponds demerde toi
Nutrisco et Extinguo
Gzii
  • Gzii
  • Vintage Total utilisateur
  • #478
  • Publié par
    Gzii
    le 11 Fév 2023, 14:33
Je pense qu'on pourra arriver quand même à de bonnes choses en mélangeant les méthodes.
Quand l'IA répond par une formule ou un fait qu'elle a capté statistiquement, par exemple, une surcouche pourrait vérifier toutes les conjectures logiques pour voir si elles se tiennent.
De même que pour un homme pour lequel on parle de plusieurs intelligences différentes, en diversifiant les méthodes on peut augmenter les recoupements que l'IA serait capable de faire.

Quant à la comparer au QI d'un universitaire moyen, non, elle connaît sans doute plus de choses et ça peut faire illusion, mais pour l'instant le QI reste très bas pour certaines choses, même si la compréhension des questions est souvent bluffante.
ZePot
  • ZePot
  • Vintage Total utilisateur
  • #479
  • Publié par
    ZePot
    le 11 Fév 2023, 14:48
Biosmog a écrit :
Je pense, comme dans toute technologie, que ça va rapidement plafonner.

Rien qu'en l'état, le potentiel est monstrueux.
Kandide
Perso, je ne crois pas du tout au plafonnement. Sauf si on arrête de développer des nouveaux processeurs.

Mais comme il y a une course effrénée à la puissance de calcul forcément l'IA va continuer à progresser jusqu'à...

En ce moment sur backstage...