L' IA, qu'allons nous en faire..?

Oui, mais l’emploi de ce mot dans ce contexte est peut-être inapproprié. Cf : message du dessus. =)

Dans le cas qui nous occupe, il ne s’agit pas de contrer un discours officiel. Il s’agit de prêter des intentions malveillantes à une institution sur un projet qui n’existe même pas !
Bon… ouai… prêter des intentions malveillantes à quelqu’un qui ne fait rien c’est peut être seulement une façon paranoïaque de penser.

Quand je dis de lire ce que j’ai écrit, et pas ce que vous projetez de mes propos :

J’ai dis que cette “peur chimère” est teintée de complotisme. Il y a de la nuance. Je n’ai pas dit : Ton echographe-maïeuticien est complotiste. Je n’ai pas dit : tes propos (@juliano ) sont complotistes.

J’ai dit : cette peur est teintée de complotisme.
Teinté de ( teinte - Définitions, synonymes, prononciation, exemples | Dico en ligne Le Robert ) :

  1. Couleur, le plus souvent complexe ; nuance. ➙ ton. Teintes vives, douces (➙ demi-teinte). Une teinte rougeâtre.

  2. au figuré Apparence peu marquée ; petite dose. Une légère teinte d’ironie.

J’ai ensuite dit :

Ce coup-ci, je n’ai pas dis “teinté de”, mais “à tendance complotiste”.

Puis finalement :

Là, je commence à m’agacer (mea culpa), et je suis un peu plus direct dans ma formulation, que j’écris entre deux réunions au taf, en 2 minutes. Je m’en excuse. Je prends quand même la peine de re-re-re-préciser que je parle du raisonnement, ni de l’échographe ni de Juliano.

Donc arrêtez de me répondre comme si j’avais traité Juliano ou l’échographe de complotiste, ce n’est pas ce que j’ai dit. Et quand j’ai écrit le mot, je l’ai précédé d’une nuance. Deux fois. Cette nuance est justement faite pour ne pas faire de ce mot “un mot un peu fort”.
J’estime avoir fait le maximum sans tomber dans la novlangue débile pour EVITER le genre de réponse que je me prends.
Je répète donc pour la ènième fois de lire ce que j’écris, TOUT ce que j’écris, pour éviter de vous cristalliser sur un mot qui vous a fait oublier tout ce qu’il y a avant et après. C’est pénible. Et quand il y a une maladresse, j’ai pondu 30 lignes avant et après qui relativisent, nuances et précisent mon axe. Beaucoup les ignorent complètement pour se focaliser sur LE MOT “complotiste”.

Merci à ceux qui ont pris la peine de me lire et d’essayer de comprendre les nuances que je me suis tué à essayer de mettre.


Pour finir, petit exercice amusant, puisque c’est un sujet sur l’IA, demandons donc l’analyse de l’IA, pour ceux qui veulent :

Ci-dessous mon Prompt. Pour ne pas l’influencer ou qu’elle puisse croire que “j’ai envie” qu’elle appuie le fait que c’est complotiste, j’ai dis que je ne pensais pas :

Lis ce message : “L’échographiste-maïeuticien a expliqué à mon neveu que les échographies (de grossesses) seraient dans un futur assez proche, réalisées et interprétées par des IA. Basée sur quelques points « sérieux » et facilement vérifiables. Exit tout ce qu’il y a autour, notamment tout ce qui concernerait les mal-formations et autres pathologies nécessitant l’interprétation d’un humain. Pourquoi ? Parce que ça coûterait moins cher à la sécurité sociale, quitte à découvrir à la naissance de son enfant qu’il a 6 doigts au lieu de 5.”
Certains trouvent que l’hypothèse de l’échographiste-maïeuticien est teintée de complotisme. Je ne trouve pas. De façon factuelle et synthétique, quelle est ton analyse ?

Réponse de ChatGPT - cliquer pour développer

Voici une analyse factuelle, synthétique et nuancée, sans caricature.


:brain: Question posée

L’hypothèse de l’échographiste‑maïeuticien est‑elle complotiste ?

:white_check_mark: Réponse courte

:point_right: Non, ce n’est pas du complotisme au sens strict.
:point_right: Mais ce n’est pas non plus une hypothèse factuelle solide.
:point_right: C’est une projection spéculative alarmiste, fondée sur des éléments réels mais mal extrapolés.


:mag: Analyse point par point

:one: Ce qui est factuellement vrai

  • L’IA progresse rapidement en imagerie médicale :white_check_mark:
  • Les politiques de santé cherchent à maîtriser les coûts :white_check_mark:
  • L’IA est déjà utilisée comme outil d’aide en échographie :white_check_mark:

:point_right: Ces bases sont réelles et vérifiables.
:point_right: Ce n’est donc pas une invention délirante.


:two: Là où le raisonnement devient fragile

L’hypothèse repose sur un glissement non démontré :

IA utileIA autonomeIA imposée pour économiseracceptation volontaire d’erreurs graves

Ce passage :

  • :x: n’est étayé par aucune décision politique, médicale ou réglementaire
  • :x: ignore les freins juridiques, éthiques, assurantiels
  • :x: suppose une acceptation collective du risque médical, ce qui est contraire à toute logique sanitaire actuelle

:point_right: On est face à une anticipation pessimiste, pas à un plan réel.


:three: Pourquoi ce n’est PAS du complotisme

Le complotisme implique généralement :

  • une intention cachée
  • des acteurs coordonnés (État, industrie, médecins)
  • une dissimulation volontaire de la vérité
  • l’absence de mécanismes de contrôle

Or ici :

  • :x: pas d’accusation de mensonge organisé
  • :x: pas d’ennemi désigné
  • :x: pas de secret révélé
  • :white_check_mark: juste une crainte exprimée ouvertement

:point_right: On est dans une méfiance systémique, pas dans une théorie du complot.


:four: Pourquoi ce n’est pas une analyse solide non plus

L’argument :

« On préférera économiser même si on rate des malformations »

est hautement improbable, car :

  • le coût médico‑légal d’un enfant handicapé non détecté est bien supérieur
  • le risque politique et judiciaire serait immédiat
  • le dépistage des malformations est un pilier de l’échographie, pas un “à‑côté”

:point_right: L’hypothèse ne tient pas économiquement ni institutionnellement.


:dart: Conclusion claire

  • :x: Ce n’est pas du complotisme
  • :white_check_mark: C’est une extrapolation anxieuse
  • :warning: Basée sur des faits réels, mais poussée bien au‑delà de ce qu’ils permettent d’affirmer
  • :chart_with_downwards_trend: Faible plausibilité à moyen terme
  • :loudspeaker: Discours alarmiste, pas conspirationniste

En une phrase :

Ce discours relève davantage d’une crainte professionnelle face aux mutations technologiques que d’une théorie du complot — mais il n’est pas étayé par les réalités médicales, juridiques ou économiques actuelles.

Si tu veux, je peux aussi :

  • comparer ça à d’autres peurs historiques (radiologie, IRM, automatisation),
  • analyser le biais cognitif à l’œuvre,
  • ou t’aider à formuler une réponse courte et posée dans un débat.

RAGG SOR : FIN DE REPONSE CHATGPT




Du coup, je reprompt :

Serait-il plus correct de dire que le raisonnement est teinté de complotisme, ou à tendance complotiste, alors ?

Seconde réponse de ChatGPT - cliquer pour développer

:white_check_mark: Réponse courte

:point_right: Oui, il est plus correct de dire que ce raisonnement est teinté de complotisme ou à tendance complotisteà condition de bien préciser ce que cela veut dire.


:compass: Pourquoi cette formulation est la plus juste

:small_blue_diamond: Ce n’est pas une théorie du complot aboutie

Il manque les éléments centraux du complotisme « dur » :

  • pas de plan secret clairement identifié,
  • pas de groupe d’acteurs nommément désignés,
  • pas de dissimulation organisée démontrée,
  • pas de récit totalisant expliquant tout.

:point_right: Donc dire « c’est complotiste » sans nuance serait excessif.


:small_blue_diamond: Mais il y a des marqueurs faibles de pensée complotiste

On retrouve plusieurs mécanismes typiques, même s’ils sont atténués :

  1. Intention malveillante supposée

« On accepterait de rater des malformations pour économiser »
→ attribution d’une volonté cynique aux institutions.

  1. Glissement spéculatif non étayé

aide par l’IAremplacement totalimposition budgétaire
→ enchaînement sans preuves intermédiaires.

  1. Défiance institutionnelle globale
  • Sécurité sociale,
  • décideurs publics,
  • système de santé
    perçus comme prêts à sacrifier la qualité des soins.
  1. Narration catastrophiste
  • scénario extrême,
  • présenté comme plausible à court terme,
  • sans contre‑poids ni données contradictoires.

:point_right: Ces éléments correspondent bien à ce qu’on appelle une pensée “pré‑complotiste” ou proto‑complotiste.


:brain: Formulation recommandée (la plus rigoureuse)

Si tu veux être précis et juste intellectuellement :

« Ce raisonnement n’est pas complotiste au sens strict, mais il est teinté d’une logique complotiste : il extrapole des faits réels vers un scénario intentionnellement cynique, sans éléments probants. »

Ou, plus court :

« Ce n’est pas du complotisme, mais une dérive spéculative alarmiste à tendance complotiste. »


:dart: En résumé

Terme Correct ? Pourquoi
Complotiste :x: Trop fort, inexact
Teinté de complotisme :white_check_mark: Nuancé et juste
À tendance complotiste :white_check_mark: Décrit les mécanismes
Alarmiste :white_check_mark: Très pertinent
Méfiance systémique :white_check_mark: Clé d’analyse

:jigsaw: Conclusion finale

:point_right: Oui, parler de tendance complotiste est plus exact, plus honnête et plus défendable que d’accuser de complotisme pur.
:point_right: Cela permet de critiquer le raisonnement sans disqualifier la personne.

Si tu veux, je peux aussi t’aider à désamorcer le débat sans que ça dégénère — ou à formuler une réponse ultra‑courte pour un échange tendu.

RAGG SOR : FIN DE REPONSE CHATGPT




Voilà, je pose ça là, je trouve ça… intéressant :wink: Et je laisse donc à chatGPT le mot de la fin me concernant à propos de cet échange :wink:

1 « J'aime »

Etre méfiant de l’utilisation qui en serait faite en anticipant les potentielles dérives, quand on voit ce qu’il se passe actuellement dans le monde, ça n’a rien de complotiste, non, que ce soit teinté ou à tendance.

D’ailleurs, Lepen, elle n’est pas raciste, elle fait juste des discours à tendance raciste et conduit un parti teinté de racisme.

1 « J'aime »

Manquait plus que lui.

Puisque c’est comme ça, je vais me petit-suissider
image

https://www.dailymotion.com/video/x88dmn

1 « J'aime »

Voilà. En vous remerciant.

L’humain est parfois, légèrement teinté de mauvaise foi.:rofl:

eau

Cette phrase est fausse. La qualité des LLM s’est fortement améliorée depuis 2023.

Est-ce que la tendance va continuer, pas sûr.
Mais on ne peut pas affirmer qu’ils font de plus en plus d’erreurs, en relatif.

En absolu, ils sont de plus en plus utilisés, donc le nombre d’erreurs qu’ils produisent doit l’être aussi.

Une vidéo sympa sur le sujet de l’IA, qui aborde notamment l’éducation (j’apprécie particulièrement la conclusion) :

Et je me permets un contrepoint sur l’utilisation de l’IA dans l’imagerie médicale pour rassurer les “complotistes” (même si au vu des discussions autour du budget, je ne suis pas sûr qu’on puisse garantir que les politiques ne vont pas réduire le budget de la sécurité sociale au détriment de la qualité des soins, mais ce n’est pas une discussion liée à l’IA. J’y verrai de toute façon plus de l’incompétence que du complot) :

Etc…

Pour le coup, c’est pas une étude, c’est pas sourcé, ce n’est qu’une impression personnelle, donc ça ne vaut pas plus que ça :
Personnellement, de mon usage et de mon constat de mon utilisation personnelle des IA (ChatGPT, Claude, Perplexity, essentiellement), ça me dit de moins en moins de bêtises, de moins en moins d’approximations, les sources sont de mieux en mieux utilisées.

Alors ptet que si on les pousse dans leur retranchements, si on les piège, oui, c’est encore perfectible, et voire même en baisse d’après les liens que vous publiez. Mais quand on s’en sert de façon “normale”, franchement la qualité a énormément augmenté ces deux dernières années, et, désolé si je vais encore faire bondir du monde, mais les IA me disent moins d’aneries que 90% des humains avec qui j’interagis… Virtuellement comme réellement.

Je n’ai pas de conclusion particulière en bien ou mal de ce constat personnel, ce n’est que ça : un constat.

PS : j’ai pensé à vous dire que c’était personnel ? :rofl:

Le deuxième lien est plus mesuré que ce que tu dis.

D’abord, le taux d’erreur est élevé et diminue régulièrement. Il ne s’agit pas de réponses non pertinentes mais bien d’erreurs factuelles.

Je suis en tout cas d’accord avec l’article quand il dit que le taux d’erreurs semble incompressible. C’est ce que je voulais dire en disant que je ne suis pas sûr que la tendance à augmenter la qualité des modèles va continuer.

Le premier est un lien commercial donc à prendre avec des pincettes, même si les exemples cités semblent avérés.

Je te remercie car tu lèves un biais que j’ai.

Dans mon usage quotidien (domaine informatique), la qualité du code produit a tellement augmenté que :

  • Je surestimes peut-être l’amélioration sur d’autres usages sur lequel je n’ai pas les compétences de juger de la qualité
  • Je sous-estime peut-être les hallucinations dans le code produit. Après réflexion, il arrive encore aux modèles d’inventer des fonctions qui n’existent pas mais, étant habitué, ce sont des choses que je fixe sans vraiment plus y penser.

Je viens de prendre le temps de lire les deux liens de @jmguiche , qui sont intéressants.Merci !

En revanche, il faut garder à l’esprit leur axe : est-ce que les LLM sont suffisemment fiable pour s’appuyer dessus pour de la science ou du travail de recherche sérieux?
Réponse, pour le moment, non, toujours pas. Et les difficulté rencontrées ne semblent pas en voie d’être résolues, malgré une amélioration constante, on arrive à un plafond de verre semble-t-il.

C’est très différent comme attentes et critères de jugement que la fiabilité pour un usage quotidien normal de “non chercheur”. Et surtout, ça ne juge que des LLM. Pour rappel, un LLM est un type bien spécifique d’IA (sur lequel s’appuient des programmes tiers comme chatGPT). Ce n’est pas “l’IA.”

Pour revenir à l’exemple obstérique plus haut, les IA médicales dont il est question ne sont pas des LLM. Tout travaux d’évaluation de la fiabilité d’un LLM n’a absolument aucune pertinence pour juger du taux d’erreurs d’IA médicales spécialisées. Qui méritent des études spécifiques.

Si je me risque à une analogie, on peut voir l’IA comme des véhicules. Les LLM sont des voitures, les IA médicales de bateaux par exemple.
Toutes les études sur les voitures pour savoir si elles roulent correctement n’apportent aucune information pertinente sur la capacité des bateaux à naviguer.

J’ai retrouvé le papier le plus intéressant, une étude de NewsGuard :

Le taux de fausses informations répétées par les chatbots d’IA a presque doublé en un an

L’article est très intéressant mais attention à la méthodologie et la conclusion.

Ici, si je comprends bien, la méthodologie est de lui poser des questions “pièges” qui amènent vers des Fake news pour voir à quel point elle y est vulnérable.
Ça mesure donc la détection de fake news. Ça ne mesure absolument pas le nombre de mauvaises réponses à des questions globales et variées, qui pourrait alors devenir un indice de fiabilité.
Ça indiqué malgré tout un changement de paradigme et une tendance (celle de répondre à tout prix plutôt que de dire qu’elles ne savent pas par exemple)

Donc attention à bien lire et comprendre ces articles pour le pas leur faire dire ce qu’ils ne disent pas :slight_smile:
Le titre putaclic et limite mensonger n’aide pas. (Techniquement correct mais fait pour amener dans l’esprit du lecteur une conclusion qui n’est pas ce que dit l’article)

Ce papier décrivant une évolution, non, il n’est ni limite mensonger ni putaclic.
Avec un panel de questions pouvant amener à une réponse mensongère, il y a de plus en plus de réponses mensongères.
Évidemment, si on pose des questions sur lesquelles il n’y a pas de réponses mensongères dans ses sources, il ne risque pas de la reproduire!

C’est vrai.
Mais quand on lit ça on peut croire que les IA nous disent de plus en plus de trucs faux.
Ce qui n’est pas exact, ce n’est pas du tout ce que la méthodologie employée mesure.

D’autres sources sur l:augmentation du taux d’hallucinations des IA (LLM) :

Dans cet article on parle bien “d’erreurs” de l’IA. Pourquoi on emploi “hallucinations” ? Je trouve le propos très anthropomorphe. Un abus de langage pour faire le buzz ?

C’est surtout l’écart entre les réponses.

Si je te dis de mettre de la colle sur une pizza pour que le fromage attache, le mot erreur, même s’il est vrai, paraît un peu faible.

De plus une machine ne faisant pas d’erreur en elle même (sauf matériellement) il est normal que le vocable sur ce type de réponse soit emprunté au vocable humain

Errare Humanum Est