Bon ça veut dire qu’on doit installer des règles anti bots légaux. Comme ça ils arrêteront de siffonner le forum. Les bots c’est 70% du trafic sur Trictrac.
Les IA se nourrissent des sites internet sans hiérarchie entre les sites pro et/ou officiels et les sites amateurs.
Et aussi du contenu des réseaux sociaux.
Meme s’ily a un traitement de filtrage fait par des humains,cela relativise beaucoup la qualité des informations sur lesquels leur réponse sont ensuite construite.
Dire que les algorithmes ne sont pas intelligent, c’est discutable, beaucoup de décisions humaines et “intelligentes” sont faite à base d’algorithme, conscient ou pas instinctif même.
Le challenge des AI, c’est leur “modération” et la capacité de promouvoir et/ou de détecter des idées non correctes ou politiquement orienté.
De fait ce qui est mis en avant dans les algo des réseaux sociaux ce sont les idées chocs, sensationnelles, engageantes pour le lecteur (vérifié ou pas; volontairement orienté/biaisé ou pas; pour promouvoir des idées - fasciste ou écologiste, capitaliste ou féministe)
Est ce qu’une AI serait capable de faire un tri “juste” dans tout ce qu’il lit? c’est une des nombreuses question du sujet!
enfin je crois…
Ou encore,
des posts qui vont générer le max de clics
là tu touches à un nouveau véritable problème
dans les R.H., dans les hôpitaux qui font du pré diagnostic, ans les recherches en génétique & oncologie, aujourd’hui c’est l’IA qui “pré-trie” et oriente le diagnostique
=> l’humain - expert ou “intuitif” - qui voudraient la contredire doit maintenant motiver sa contradiction et en dérouler un contre-argumentaire !!
c’est effrayant, la machine a raison à priori, à charge de l’Homme de prouver le contraire
or, dans une logique de productivité (ou trop de dossier pour pas assez de compétences), on n’investit pas son temp à contredire la machine
donc, tous ces cabinets de conseils et labos de recherche IA-gen-mon-cul ne cessent d’amortir la violence de leur techno en ajoutant “l’homme a le dernier mot” ; oui mais le comptable (DAF/RH/directeur… ) ne voudront pas lu payer le temps pour l’argumenter,
“au suivant…” est la doctrine de ce rouleau compresseur
l’exemple mythique restera la colle sur la pizza
c’est plus de 50% du traffic mondial
et la plupart se foutent complètement de robots.txt
=> c’est toi qui paye ton hébergeur, c’est eux qui aspirent ton contenu et saturent ton débit
Pour les RH, c’est cretin.
Pour histopatologue, c’est une autre affaire. Une IA bien entraînée peut détecter un cancer voire un cancer à venir bien mieux qu’un être humain.
Autant les llm sont des générateurs de baratins, autant les IA entraînées sur de tâches très spécifique (échec, go, analyse de cellules, radiologie, etc.) sont potentiellement meilleures que les humains.
Tout comme de faux diagnostics. Faut arrêter de croire que l’IA est la solution à tout. Le problème c’est plutôt comment la gérer et de s’en servir comme un outil qui sert à résoudre plutôt qu’à aider Mais l’Humain est tellement con qu’il va se contentait des réponses/propositons plutôt que de s’en servir pour forger sa propre opinion
Il y aura toujours des mauvais diagnostics. Vous pensez vraiment que l’humain est infaillible ? Il y a au contraire énormément de biais dans la médecine.
Un modèle entrainé (on ne parle pas de LLM là sur la détection de cancer même si les LLM ont montré quelques résultats encourageants dans ce type d’usage) est une grande aide et il y a fort à parier que ces modèles font aujourd’hui moins d’erreurs que les humains.
Le sur-diagnostic n’est pas une qualité.
J’attends le jour où la seule réponse de ChatGPT à n’importe quelle question relative à un choix de jeu sera Star Wars Rebellion.
Tu y arriveras
+1 les IA servent sont utiles pour ça. Une IA, plus on veut qu’elle traite des données hétérogènes et nombreuses, plus elle fera des erreurs. La qualité et la cohérence des données sur lesquels se base l’IA c’est ce qui va définir la qualité de ses réponses. Le mythe de l’IA omnisciente est … un mythe.
Dans le côté biais, l’exemple précédent sur le draft à Terraforming mars est intéressant. On pourrait se dire béatement que l’ordinateur a “réfléchi” à la stratégie de Tfm et a conclu ces arguments alors que probablement il n’a fait qu’un condensé de ce qui s’est dit dessus. Si on voulait avoir la vrai réponse à la question, il faudrait la faire sur une base dédiés à des données chiffrées de Terraforming mars : les cartes, les parties, avec ou sans draft, etc… Le résultat pourrait être très différent de la première réponse .
Pour revenir à l’histoire de l’article, j’ai du mal à comprendre la démarche. Gus à ma connaissance est un blog, il doit avoir un peu de revenus de pubs mais le but premier a priori (je suis naïf sûrement ) c’est de partager des articles sur une passion , les coups de coeur, les coups de gueule. Du coup , ça sert quoi de peupler le blog avec du contenu généré par IA ? La visibilité ? pour aller voir d’autres contenus générés par IA
? Et c’est quoi la satisfaction même d’avoir de la visibilité sur quelque chose qu’on n’a pas fait
?
Petite fiction sur le sujet par Cyprien https://www.youtube.com/watch?v=KSQEnxZId9Y
De toute façon la réponse à tout est 42
Non, mais comme c’est lui qui a créé l’IA elle ne l’est pas non plus.
La performance des modèles IA, dans leur approche la plus classique prédictive (encore une fois avec les LLM c’est différent), est évaluée avec des indicateurs dépendant de leur usage.
On va regarder la précision en comptant les vrais positifs, les vrais négatifs, les faux positifs (c’est-à-dire les individus sur lequel l’IA détecte un cancer qui n’existe pas, ce qui permet d’éviter justement le surdiagnostic) et les faux négatifs (l’IA n’a pas détecté de cancer alors que le patient en a un).
Un diagnostic médical se limite par ailleurs rarement à un seul examen donc même si l’IA se trompe, l’erreur pourrait être détectée dans la suite du protocole.
Et les médecins vont devoir tenir compte de l’IA à un moment donné car malheureusement ceux-ci sont disponibles au grand public qui commence déjà à expérimenter avec (parfois avec des témoignages où cela a peut être sauvé une vie comme par exemple dans ce cas : AI Saves Life: ChatGPT Diagnoses Cancer After Doctors Dismiss Symptoms) et je pense que cela va devenir de plus en plus fréquent lorsque le système médical n’apporte pas de réponses à un mal-être.
Bref, c’est un outil intéressant selon moi même si je pense que c’est une mauvaise idée de l’utiliser pour tout et n’importe quoi sans esprit critique ni discernement.
(Je pense par exemple que les chatbots seront très toxiques pour nos démocraties, encore plus que les réseaux sociaux).
Peux tu préciser, développer?
Les réseaux sociaux par la mise en avant de propos haineux a déjà, malheureusement, montré sa nuisance sur les démocraties…
Un blog apporte de la notoriété s’il y a du trafic.
Pour avoir du trafic il faut des articles fréquents.
C’est plus facile à faire avec de l’IA qu’à la plume d’oie.
L’intérêt de la notoriété et du trafic ?
La thune : pub, publireportage.
Les avantages : jeux gratuit, invitation dans les salon, passe professionnel
La reconnaissance, la gloriole…
Tout ça est bien plus globale que le site de gus and co.
Mais qu’est-ce qu’ils fabriquent sur le forum, les bots ?