tiboard a écrit :
Tu prétends que les données de base constituent le seul problème dans l'histoire, tu es soit mal informé, soit de mauvaise foi. Selon l'avis de tous ceux qui se sont penchés dessus, le traitement de ces données montre dans le meilleur des cas des erreurs, et dans le pire du bidonnage pour coller aux conclusions. Les scientifiques qui s'expriment publiquement se demandent comment une telle étude a pu passer à travers un comité de lecture.
Tu dis que je suis mal informé ou de mauvaise fois et tu répètes ce que je dis...
Les données utilisées ont été bidonnées, inventées, fabriquées, utilise le mot que tu veux, c'est la même chose.
Ensuite, il est étonnant que l'étude soit passée à travers un comité éditorial, mais pas un comité de lecture. Parce que je te l'expliquais dans mon message précédent, le comité éditorial anonymise l'article en enlevant toute référence institutionnelle et nom propre, ce qui interdit aux comités de lecture toute possibilité de mener l'enquête sur la provenance des données. C'est à l'éditeur donc, de vérifier la crédibilité des auteurs, le fait que l'article n'a pas été publié ailleurs, qu'il ait respecté la déontologie lors de la récolte de données, etc.. toute ces choses "administratives". Lui seul peut mener une enquête sur le fournisseur de données, la moralité des auteurs de l'analyse, puisque lui seul connait leur nom. Donc un comité de lecture (reviewers) ne se concentre que sur le contenu, l'analyse, les méthodes, les interprétations.
Et si tu as déjà travaillé sur des bases de données quantitative, tu sais que c'est inévitable d'avoir du bruit (c'est-à-dire des erreurs). Ce serait d'avoir une base de 96'000 individus sur je ne sais combien de pays sans aucune aberration qui serait suspect (aucune faute de frappe, de codage, erreur, etc..). Donc les aberrations relevées étaient "normales" et faisaient partie des 1-2% d'erreurs inhérent à ce type de support. Après, quand l'article a été publié, que le nom de cette entreprise de bigdata a été donné, c'est facile pour un spécialiste du domaine de se montrer soupçonneux et de regarder plus précisément les chiffres, leur structure, pour en déceler un éventuelle problème de falsification: un acteur institutionnel d'une telle importance surgi de nulle part, ça sent au mieux l'incompétence, au pire la magouille. Mais cette information, normalement les reviewers ne l'avaient pas.
Cette histoire montre une chose banale, c'est que le monde fonctionne beaucoup sur la base de la confiance, et que c'est extrêmement difficile de lutter contre la fraude. Tout le reste, je n'en pense pas grand chose (tentative de complot des anti-chloroquine, piège grossier des pro-chloroquines...). Quoi que le fait que l'entreprise de bigdata soit tenue par une starlette du X pourrait faire un bon scénario de film.
Vous battez pas, je vous aime tous