En fait je pense qu’il faudrait entraîner des IA spécifiques pour comprendre une mécanique à partir une règle de jeu et en comprendre les implicites. Sans quoi le risque d’hallucinations risque d’être élevé.
À partir de là on pourrait même les entraîner pour être capable d’arbitrer une partie et tracker les erreurs des joueurs juste avec une caméra et un haut parleur
Je ne pense pas qu’il faut faire confiance à un llm pour faire un truc qu’on ne connait pas ou dont on n’est pas capable de vérifier la justesse ou au moins la cohérence.
Un llm est un jouet impressionnant mais cela reste un pipotron evolué.
de ce que j’ai compris des llm, c’est uniquement des rapprochement statistiques d’un graphe de mots souvent associés, comme les réseaux de neurones physiques dont les connections se renforcent ou disparaissent selon l’usage qu’on a de ce lien
du coup, jamais ça ne comprendra ce que ça raconte : un truc aussi précise qu’une règle (genre le paragraphe d’une règle présente dans un PDF d’un seul jeu) ne sera pas transcrit fidèlement
il va associer statistiquement les mots decks - cartes - draft , et ça te le recrachera comme tel
là où le niveau de pertinence peut monter, c’est lorsque les concepts sont fréquemment utilisés ensemble dans de nombreuses publications, comme jeu - société - plaisir - amis -
ensuite, honnêtement, je ne me suis jamais servi d’un LLM - et j’évite tous les “assistants”
je lis que les profs, du collège au supérieur, ont de plus en plus de mal à discerner des travaux d’élèves écrits par IA, mais les élèves sont rusés et modifient les contenus, y ajoutent des touches persos, mixent des bribes de textes …
mais ça veut dire qu’il y a eu bien assez de contenus pédagogique digérés par le LLM pour ressortir des résumés pertinents sans erreur flagrante
du coup, pour la plupart des sujets largement déjà traités, probablement qu’une synthèse IA dira pas trop de merde
par contre, je suis bluffé par les générateurs d’image comme celui de Photoshop
je remarque de plus en plus de sites web qui illustrent leurs articles à base d’infographies d’IA, juste pour faire beau et habiller le propos : les pigistes & journalistes rédigent effectivement le contenu, mais pour l’accroche de haut de page et la vignette, ils fabriquent une illustration onirique / SF / surréaliste
mais le plus dangereux, ce sont les milliers de faux sites qui se créent comme des lemnings avec des articles rédigés par IA : ils sont truffés d’infox , quand ça n’est pas carrément des contresens
Mais ça tu ne peux en être certain que si tu as déjà un minimum de connaissances sur le sujet pour évaluer la pertinence du contenu.
Sachant qu’un llm a une grosse tendance à broder pour combler les " blancs" et que souvent si tu le contredit, il peut avec la même "assurance " te dire l’inverse de son premier message
C’est ce qui est problématique, ces sites devraient à minima être annoncé avec de gros warning, voir complètement interdit. Nous ne devrions pas être “trompé” par des contenus sortant d’AI, je souhaite échanger des idées avec des personnes “vraies” pas des ordinateurs/IA (car lui : il ne changera jamais d’avis, il se moque bien de mes petits sentiments…)
oui, et c’est là l’énorme danger de ces sites IA-Gen : si tu connais pas déjà le sujet, tu goberas directement l’intox sans la voir venir
déjà, avec des journalistes - cultivés / école de journalisme / expert du domaine - il faut toujours se méfier : c’est un poncif de dire que l’objectivité n’existe pas, et un même évènement traité par Le Figaro ne racontera pas la même réalité que celui dans l’Humanité ; et pourtant ils parlent des mêmes faits qu’ils ne déforment pas… mais l’angle de perspective est différent
alors pour une IA qui n’a absolument rien “d’intelligent” (de l’acte conscient de valoriser une connaissance par induction / déduction / création) mais fait de la salade probabiliste de mot , il y a un grand risque d’avoir carrément une déformation des faits
peut-être que pour un comité de rédaction, ça serait viable si ils pondent 90% du texte par IA, juste pour gagner du temps de saisie, puis relisent et corrigent le résultat avant de le mettre en ligne
comme ces outils qui permettent maintenant de générer une synthèse à partir de la masse de docs que tu leur donne : il suffit de relire pour vérifier que ça déconne pas, mais ça lui aura évité des centaines de mots à taper (et réduit ta capacité de synthèse intellectuelle et t’auras rien appris au passage - mais c’est un autre débat)
j’ai une fille qui bosse dans des cabinets d’avocats, elle a déjà sauvé les fesses d’un avocat qui avait pondu leur argumentaire avec des outils de legal-tec qui sont chargé de synthétiser la jurisprudence
l’erreur n’était pas dans l’argumentation, qui tient la route, mais les référence de jurisprudence n’existaient tout simplement pas du tout : l’IA leur a inventé des n° de référés et de procès fictifs !
et ma fille - qui était son assistante à l’époque - a cherché chacune des références dans la base : aucune n’existait !
et des avocats ont déjà été choppés en flagrant délit d’abus d’IA
donc, sur ce thème du fil “de les articles écrits par IA”, je pense que pour traiter du passé largement documenté (un peu un job à la Wikipédia sur des faits bien établis ) , il doit être possible d’avoir pas trop de conneries - mais faudra tout relire avec des vérifications des sources -
mais pour l’actualité de la veille tout chaude, ça sera truffé d’inventions
Je me demande si nos amis traducteurs ont essayé, par curiosité, de filer une règle à ChatGPT et de voir quels genres de blocages se font jour ? @sylvano@tiberias@harry-cover
je viens à l’instant même de vivre un truc ubuesque avec l’IA !
ma femme assure des prestations de direction de travaux intérieurs,
là on a un client qui demandait un meilleur devis pour changer ses clims (son climaticien actuel avait proposé un chantier à 20K€)
elle a soumis le chantier à 2 climaticiens, qui se sont déplacés et ont étudié la situation (dispositions / surface / hauteur / isolants…etc)
elle a envoyé le meilleur des deux devis hier soir (10K tout compris)
ce matin : le client envoie 2 docs words avec une analyse critiques du devis,
et le client nous conclue : “justifiez moi ces points de critiques”
on ouvre les 2 docs de “critique” : aucun en-tete ni pied de page ni logo
on se dit qu’il a copié/collé pour masquer les auteurs des critiques
mais… là je regarde de près et vois qu’ils sont quasiment superposable en forme et en fond
on vient de lui demander : et bien oui, il a fait “critiquer” le devis - d’un expert climaticien qui a optimisé sa réponse ! - par une putain d’IA (probablement ChatGPT)
et là, le pire , il exige que le climaticien s’aligne sur la reco de ChatGPT qui concluait : “Altec est assez peu connu, préférez Daikin/Panasonic/Mitsubishi pour une qualité professionnelle”
… qui se trompe complètement sur les tarifs des matériels Daikin qu’il préconise (d’un facteur 2 tout de même)
ça illustre ce que j’avais dit il y a quelques semaines sur les d’IA “d’aide à la décision” : dorénavant l’Homme doit se justifier contre l’IA - qui à “a priori” raison contre l’Humain faillible / subjectif / intéressé ./ surmené / distrait / mal informé … etc
Alors, non, jamais de la vie je ne ferai ça. D’abord, par principe, parce que j’abhorre au plus haut point l’IA et ce qu’elle véhicule (et sabote), pour tous un tas de raisons. Je n’ai jamais touché de ma vie à ChatGPT et je ne compte pas le faire. (Dire que des gens en font leur confident ou leur thérapeute : ça me dépasse complètement et ne m’incite pas à l’optimisme pour l’avenir de l’humanité). Ensuite, parce que j’imagine que le résultat sera au mieux sans intérêt et au pire probablement nocif, étant donné la technicité spécifique de la traduction de règle de jeu (maîtriser les codes du genre et le vocabulaire associé, comprendre en profondeur le jeu et son matériel, expliciter et éclaircir les ambiguïtés, etc.). Il faudrait, oui, a minima créer/paramétrer une IA dédiée à ce domaine-là. Et s’il y a bien un support intimement lié à l’humain (sa psychologie, sa perception du réel, etc.), c’est bien le jeu (comme les arts en général). Pour en avoir un peu discuté avec Antoine P., autant l’IA peut certainement être pertinente en tant qu’aide à la traduction (comme certains outils numériques actuels le sont pour la traduction technique), autant elle ne semble pas du tout compétitive pour remplacer le cerveau humain (le raisonnement, l’intuition, l’expérience) d’un traducteur biclassé joueur aguerri. Au-delà des mécaniques archétypiques et de la tradition, un jeu est un objet potentiellement tellement protéiforme, subtil et atypique (dans sa dimension “physique” autant que “mentale”) que je vois mal une machine sans imagination le transposer fidèlement dans une autre langue, et encore moins en créer un original et/ou digne d’intérêt. ChatGPT est fait pour créer une illusion réaliste, mais dans le cas d’une règle de jeu, ça ne marche pas et surtout ce n’est pas ce qu’on lui demande, à savoir être en mesure de jouer facilement et sans erreur au dit jeu. Pas d’à peu près possible. Il faut être exact et taper dans le mille.
Je ne fais pas de traduction, je participe à la localisation (relecture et/ou mise en page). Je n’ai pas d’avis sur le sujet ça ne m’interesse pas. Je n’ai jamais utilisé d’IA. Je sais que dans certains métiers c’est un énorme plus, en médecine je crois et pour tout ce qui gestion de flux complexes. Après vu la qualité de certains jeux, ça ne choquerait pas vu que je me pose la question de l’intérêt de les traduire tout court et puis une règle c’est pas de la littérature.
Cela fait des années que je traduis des règles via Google translate, et aujourd’hui avec notebooklm tu peux avoir un incroyable aide mémoire pour les règles.
On peut s’interroger sur des questions morales ou écologiques, mais d’un point de vue utilitaire il y a pas photo.
Juste pour donner un exemple, avec des jeux plein d’extensions tu peux toutes les mettre dans notebooklm, et lui poser des questions sans devoir feuilleter x manuels. Tu peux aussi ajouter les FAQs, règles maison que tu apprécies, etc.
Ceci étant dit la performance de ces outils est directement proportionnelle à la qualité tu texte des règles, l’humain ne sort pas de l’équation.
WARNING : Ce qui suit n’est pas un message pro IA mais une réflexion destinée à nourrir la réflexion (l’IA bashing c’est bien pour se rassurer mais à part dire : “ouf c’est de la merde, l’humain est bien meilleur”, ça n’amène pas beaucoup de réflexion)
Avez vous conscience que dans les domaines d’exemples que vous citez, il y a pléthore d’humains qui font beaucoup moins bien que les trucs de merde des IA que vous citez ? Et c’est ça qui fait que l’IA a beaucoup de succès : on ne compte plus les exemples de médiocrité intellectuelle des humains, je pense à des exemples administratifs ubuesques à marcher sur la tête par exemple… Du coup, à force d’avoir des idiots face à nous, la tentation de l’IA se renforce et ça appauvrit encore tout le monde, et c’est sans fin…
On va commencer par soi-même :
J’avais lu trop rapidement la règle à deux joueurs de citadelle, et j’ai joué pendant des années avec une de mes filles exactement comme chatGPT te l’a expliqué (oui, j’ai honte)
Et tu sais quoi? Certes c’est bien moins smart que la vraie règle, mais ça ne nous empêchait pas d’énormément nous amuser avec ma fille, alors âgée d’une douzaine d’années, et d’en faire son jeu favori…
Je ne me suis rendu compte de mon erreur qu’il y a quelques semaines en ressortant le jeu…
La véritable question à se poser est de savoir si les cabinets de conseils que Macron paye grassement font leurs réponses par IA.
Ca expliquerait le côté déshumanisé de la politique du bonhomme…
Je ne dis pas que l’humain n’est pas con (parfois/souvent). Mais une chose est sûre : c’est pas l’IA qui va le rendre meilleur ou plus intelligent. Et je préfère un humain qui se trompe (on sait qu’il est humain donc faillible, et qu’il peut progresser) qu’une machine qui invente n’importe quoi en donnant l’illusion que c’est la vérité (on se dit qu’une machine est sans doute infaillible). Et ce qui me m’emmerde le plus dans tout ça, c’est qu’on cherche à me remplacer professionnellement par une machine (pas meilleure que moi, pas moins chère que moi, pas plus écologique que moi, pas plus souple ni plus inventive que moi) et que la grande majorité des gens s’en foutent/ne voient pas le problème/trouvent ça génial.
Récemment, j’ai découvert que pour les futures échographies, l’IA sera utilisée. L’interprétation des échographies serait ciblée sur quelques points essentiels notamment ce qui concerne la “constitution viable du fœtus”…
Cela revient moins cher à la sécurité sociale : plus de sage-femme, maïeuticien ou gynécologue à payer très cher pour rechercher et détecter les anomalies.
En revanche, les erreurs, on va en avoir à la pelle… Et c’est effrayant.
“Votre enfant est atteint d’une trisomie.”
“Sérieux !? Mais qu’a fait l’IA ?”
“Elle n’a pas vu…”
pour clarifier, ce que je mettais en évidence ce n’est pas l’erreur de règle. Ca arrive forcément ( moi ça avait été sur 7 wonders Leader où on faisait mal. le draft ) et parfois ça ne se voit pas et le jeu marche différemment de l’intention initiale mais marche bien quand même . Et c’est le principal. Le souci que je pointais c’est plutôt:
le risque d’augmentation de règle. Et là le souci ne va pas être les cas comme ici ou finalement ça marche, ça va être plutôt l’erreur dont le joueur ne se rend pas compte qui lui pourrit la partie (déjà pas top) et qui va aller le pleurer sur les réseaux sociaux (encore moins top)
la hiérarchie qu’on met sur ce qui est “vrai”, ce qui fait fois pour une règle , c’est celle dans la boîte (+ éventuellement errata officiels ), pas une vidéo ou une réponse d’IA
Je ne suis pas contre IA , je l’utilise dans mon taf notamment, mais ça reste un outil et aujourd’hui , sans doute l’effet nouveauté, on en fait un peu de tout et n’importe quoi. Une IA:
ça ne donne toujours qu’une réponse qui a une probabilité d’être vrai (ou plus exactement d’être entièrement vrai). Et une IA ne dira pas qu’elle ne sait pas , qu’elle a un doute
les IA les plus efficaces sont celles les plus spécialisées. Plus une IA ratisse large (type chatGPT), plus elle fera ce qu’on appelle les hallucinations, c’est à dire des mauvais rapprochements/conclusion. Pour le coup dans le domaine du jeu il pourrait y avoir comme évoqué précédemment un intérêt sur des jeux complexes d’avoir une IA juste basée sur la règle et éléments de jeux pour avoir des réponses plus rapidement. Mais bon je vois pas beaucoup de jeu où ça vaudrait vraiment le coup (par rapport juste prendre un peu de temps pour fouiller la règle)