Les IA ne voient deja pas bien mieux que les humains en terme de médecine?
Une erreur médicale d’IA sera probablement bien moins acceptable que 100 erreurs d’humains, tout comme un mort sur la route par voiture autonome est moins acceptable que 2000 morts par humain (quand on regarde les km parcours mar les voitures autonome, si on regarde le ratio de mort par km, les machines nous éclatent déjà. Mais on n’a pas confiance.)
Attention à ne pas confondre IA et agent conversationnel (LLM)
Je répète que je ne souhaite pas défendre les IA et que je ne suis pas pour, mais je préfère qu’on leur fasse des reproches légitimes plutôt que des clichés, toujours, les mêmes, souvent
A ce sujet global complexe, il y a en France, le collectif pauseia cependant, je ne pense guère qu’il puisse faire quelquechose aux vues, de ce que promet l’IA pour certains acteurs, de la disparition des comités d’éthiques aux seins des entreprises créatrices…
Nous sommes un ensemble de bénévoles rassemblés au sein d’une association à but non lucratif dont l’objectif est de minimiser les risques liés à l’IA (y compris le risque d’extinction). Notre objectif est de convaincre le gouvernement d’intervenir et de mettre en pause le développement d’une IAG (Intelligence Artificielle Générale puis d’une Superintelligence). Dans ce but, nous alertons le public, dialoguons avec les décideurs et organisons des manifestations.
Pause IA est la branche française de PauseAI Global. Bien que nous soyons en relation avec PauseAI Global, nous bénéficions d’une entière autonomie et menons nos propres projets en France.
Ici il a eu des exemples cités autour de la traduction et du droit qui relèvent plus de la mauvaise utilisation des chatbot que de l’IA elle-même.
Si je reprends l’exemple de l’avocat, en effet un LLM générique peut inventer des sources qui n’existent pas. Dans un système spécialisé, vous pouvez être certain que l’IA aura accès directement à une base de données connaissant les jurisprudence et un agent IA aura la tâche de vérifier celle citées.
Cela n’empêche pas que l’argumentaire est de la responsabilité de l’avocat et qu’il aurait clairement du vérifier ce que lui a pondu l’IA aussi.
Pour de la traduction de règles de jeu, il est peu probable que la traduction passe uniquement par un prompt “traduis moi ces règles du jeu”. J’imagine facilement un autre Agent IA qui a le rôle de relecteur et est chargé de vérifier que le vocabulaire utilisé est bien homogène.
Je ne pense pas que cela puisse remplacer la qualité qu’un humain consciencieux (une denrée rare ?) mais quand je vois les traductions de Matagot, notamment sur sa gamme micro-game, je me dis que l’IA ne pourrait pas faire pire.
Je ne dis pas qu’il faut remplacer tout le monde par de l’IA mais cela reste un outil bluffant quand il est bien utilisé même si personnellement j’aime bien avoir de l’humain en face de moi et je regrette le temps où les LLM n’existaient pas vu les chamboulements qu’ils ont apportés (que je vois plutôt négatif pour la société jusqu’à maintenant avec des risques sur le long terme).
Quand il s’agit de mécanique, de vol guidé, je veux bien. Mais l’interprétation d’échographies c’est plus fin que ça… ça demande une maîtrise de l’outil (radio qui selon l’angle, ne permet pas de voir ce qu’il faudrait interpréter, pour lever des doutes concernant certaines pathologies par exemple) et une adaptation au fœtus en temps réel (parce qu’il bouge). Les praticiens ont soulevé un certain nombre de défauts chez l’IA qui génère des erreurs/oublis qui ne sont pas acceptables. L’outil sera malheureusement adopté pour des raisons économiques… et non humaine. Pas sûr que le temps suffise pour que les améliorations comble l’absence humaine… On va d’abord casser des œufs, pour des omelettes manquées.
Je ne l’ai pas fait avec ChatGPT mais par curiosité, et parce qu’on ne critique bien que ce qu’on ne connaît bien, j’ai essayé d’autres outils (et j’ai demandé à un ami d’utiliser ChatGPT pour comparer).
Ce que je constate, c’est que :
s’il y a du narratif, l’IA (quelle qu’elle soit) se ramasse assez vite. Ce qu’elle produit fait le café mais vu qu’elle ne sait pas reformuler, elle calque la structure anglaise et ses lourdeurs (ce qu’on reproche aux 1re années en gros : surutilisation de la forme passive, participe détaché, expressions idiomatiques, tournures de phrase, niveaux de langue etc.).
(bon dans cet exemple il y a un aspect comique en plus, que l’IA ne peut pas “connaître”, mais ça montre bien ses limites.)
s’il y a de courtes phrases techniques, l’IA peut (à peu près) gérer. Par exemple pour des cartes : “Piochez 3 cartes, puis avancez sur la piste blabla” ; “Lancez le dé Combat” ; etc. Pour autant je ne confierais pas la traduction de cartes à l’IA, parce que 1° elle va se planter sur certains contextes (par ex. s’il y a “draw” sans contexte, elle va avoir tendance à dire “piocher” mais ça peut vouloir dire dessiner, tracer ou même égalité et 2° ça me prendra plus de temps de tout vérifier que de le faire moi-même.
dans un livret de règles complet, bah c’est un peu les deux problèmes à la fois. Il y a souvent un peu de narratif dans une règle, même si on n’y attache pas beaucoup d’importance ; et il y a beaucoup de technique, que l’IA seule a du mal à traiter. Alors on pourrait être tenté de faire de la post-édition pour gagner du temps (c’est ce que Philibert fait sur la localisation des Lacerda, et c’est plutôt mauvais en général) mais en vérité, si on voulait bien faire les choses, ça prendrait autant de temps de partir de rien que de repasser derrière l’IA. Le risque de repasser derrière l’IA, c’est qu’on va prendre des biais de confirmation et valider des erreurs qu’on n’aurait jamais faites seul. Déjà parce qu’on n’a pas le temps de bien travailler, ensuite parce que l’esprit humain va au plus simple.
Assez en phase avec ça.
C’est ce que je dis partout en fait, on nous survend l’aspect économique de l’IA parce que “c’est pas cher” et que ça ferait aussi bien que l’humain. C’est peut-être vrai dans certains domaines mais en traduction, ce n’est certainement pas le cas. Le problème, c’est que tout le monde se satisfait plus ou moins d’une traduction médiocre, “tant qu’on comprend”. Dit autrement la priorité ne serait plus de respecter un certain style, retranscrire l’humour, les jeux de mots, la saveur du texte ; on va au plus simple puisque l’IA ne sait faire que ça. Et vous avez des personnages publics qui se croient autorisés à dire que c’est fantastique alors que dans mon domaine, c’est un appauvrissement général du langage qui se profile.
J’ai un pote qui a remplacé son télétravail par une machine et il en est content, lui.
Maintenant, il a juste à dire “machine, fais moi à manger. Machine, fais une lessive” etc.
Il m’a dit que c’est un contrat de mariage qui les l’IA…
Dans les discussions qui ont cours au sujet des I.A. reviennent souvent des réserves sur les erreurs ou le manque de fiabilité. Ce qui me dérange un peu, c’est qu’à ces travers on apporte la même réponse : aujourd’hui c’est imparfait, mais demain, elles vont être améliorées ou s’améliorer.
Il n’est pas question de savoir si l’usage de l’I.A. est bon ou mauvais, ce qui nous place au niveau moral, mais juste de savoir comment faire pour améliorer l’outil, ce qui est purement fonctionnel et productiviste.
Cela évacue les problématiques cognitives (baisse du travail intellectuel de l’humain assisté puis remplacé par des robots) et environnementales (avec quelle énergie on alimente ces machines ?).
Evidemment, il y a quelques critiques, on l’a vu plus haut, mais c’est inaudible dans une ambiance globalement technidolâtre (c’est mon néologisme du jour).
Je pense surtout qu’il faut avoir des discussions précises sur des thèmes spécifiques.
Identifier et reconnaître les forces des IA n’empêche pas de prendre au sérieux leurs risques, bien au contraire. Par exemple je suis très nerveux quand au traitement des assurances, RH par les IA en ce qu’elles ne soient de nouveaux vecteurs de préjugés et discriminations, avec un effet de distanciation encore plus problématique.
Identifier que les IA sont un outil puissant nous oblige à prendre au sérieux les risques qu’elles posent.
Si les IA ne font que de la merde, elles pourraient difficilement être un problème. L’astrologie ne marche pas, mais c’est pas un problème, car on n’utilise pas l’astrologie pour gérer des processus critiques (j’espère).
Ceci étant dit, il y a bien une dérive que je considère comme idolâtre, c’est de penser que l’on va résoudre nos problèmes actuels juste parce qu’on aura une meilleure technologie, surtout dans les domaines sociaux ou environnementaux. Là on arrive au niveau du cargo cult.
Je pense que la qualité d’une traduction a l’aide d’une IA dépend aussi du prompt qui est derrière (l’humain) dont la maîtrise de la langue, ses tournures, ses expressions et ses sens cachés sont indispensables pour retranscrire la première intention de l’auteur. Sans intervention humaine, la qualité ne peut pas être au rendez-vous. En ce sens, l’IA peut être un très bon outil. (Je suppose).