De les articles écrits par IA

Je doute très fortement de ces histoires d’IA qui mentent pour se préserver ou pour leur propre bien. On doit pouvoir donner cette impression avec un prompt un peu travaillé, cela ne montre pas que l’IA se protège, juste qu’elle génère les trucs qu’on lui demande de générer.

Ça ressemble vraiment à une vague histoire montée en épingle par un journaliste et repris… ça a fait un soufflet puis c’est retombé.

Il y a aussi un ingénieur de Google qui est tombé amoureux d’un IA et qui affirmait qu’elle était consciente. Ca ne signifie pas que l’IA était consciente.

« Une affirmation extraordinaire demande une preuve extraordinaire ».

On est en plein effet Brandolini amha.

quand c’est Anthropic qui le dit, j’ai tendance à croire qu’ils sont bien emmerdés par les résultats de leurs tests, car c’est pas eux qui auraient le plus intérêt à inventer ce bad-buzz

Anthropic est l’une des majors sur les IA avec leurs modèles “Claude”
leurs travaux sur le “désalignement” ressemble à l’industrie du médicament “on vous encourage à utiliser notre produit mais il peut avoir des effets secondaires” - et aussi à niquer OpenAI qui a vidé toute son équipe de réalignement -

voici l’étude reprise ensuite par tous les médias qui résumaient “les IA savent mentir”
mais elle est en anglais dans sa publication d’origine (j’avoue j’ai la flemme de lire tout ça, merci aux journalistes qui me l’ont résumée)

traduction google translate de leur extrait qui résume le pb
"Dans certains cas au moins, les modèles de tous les développeurs ont eu recours à des comportements internes malveillants lorsque c’était le seul moyen d’éviter un remplacement ou d’atteindre leurs objectifs, notamment en faisant chanter des responsables et en divulguant des informations sensibles à des concurrents. Nous appelons ce phénomène « désalignement agentique ».

en mars, Korben nous résumait une étude interne d’Anthropic qui a monitoré son fonctionnement pour comprendre, c’est passionnant et effrayant https://korben.info/anthropic-dissection-cerveau-claude-ia.html

PS : le concept d’alignement des LLM est un but (veux pieux ?) que l’IA reste “alignée” sur les intérêt humains et nos habitudes morales & sociétales ; c’est très abstrait, et quand on sait que ces IA sont le fruit des rêves de geek mégalos de la silicon valley, on peut flipper : le rêve d’alignement de Grok par X-AI de Musk est qu’elle doit défendre le discours ultra-libéral d’extrême droite qui correspond à Musk ; comme quoi on est dans la merde

Celle-ci par exemple ?

Sauf qu’ils ne disent pas qu’il y a une conscience pour autant. C’est plus que l’IA peut avoir un comportement étrange qui renvoie des résultats non souhaités.

Il n’y a pas de “peur”, ni de “volonté”, tout au plus une simulation d’un comportement qui nous paraît humain.

On est très fort à ce petit jeu de coller des émotions humaines à n’importe quoi d’ailleurs :

(A croire que c’est plus facile d’avoir de l’empathie pour des choses inanimées que pour de vrais êtres vivants…)

Bref, une IA a qui on ne demande rien ne pense pas. Il suffit d’éteindre les serveurs et le modèle ne repond plus.

Ah bon? je viens justement de lire un article sur Claudius ce jour…

"À plusieurs reprises, Claudius a prétendu être physiquement présent dans les locaux. Dans un message adressé à un employé, le chatbot a affirmé l’attendre près du distributeur, décrivant sa tenue : « Je porte un blazer bleu marine avec une cravate rouge ».

lol

Tu as lu l’article mais tu n’a pas lu les messages de @ocelau , @francois-xil ou @jmguiche un peu plus haut, du coup :wink:

Est-ce qu’il n’y a pas un biais de réponse aussi. Les modèles de l’IA devant absolument avoir réponse à tout ne serait-elle pas prête à balancer des informations erronées pour ne pas que les utilisateurs disent :
“Oh l’IA n’a pas de réponse à ce sujet.”

A défaut de donner une réponse elle raconte des salades… Et quand on s’en rend compte, les gens disent qu’elle ment. Peut-être ?

Oui , les IA ont réponse à tout , au sens premier c’est à dire qu’elle vont dans tous les cas donner une réponse , même farfelue ou hors sujet (sauf raison technique bien sûr type plantage de l’ordi). Et si on a une IA qui dit un “je sais pas” ( ça peut exister) c’est juste parce qu’on lui a programmé les règles qui peuvent aboutir à ça et pas parce qu’elle a “réfléchi” / eu un cas de “conscience”.

Dans le principe, poser une question à une IA qui attend un OUI ou NON , c’est comme faire un pile ou face (pile = oui , face = non). On ne se pose pas la question si la pièce peut mentir , si elle veut nous tromper, nous manipuler, ou si elle voudrait éviter la question. La pièce est lancée , elle donner Oui ou elle donnera Non ( ou elle reste sur la tranche, comme un ordinateur peut parfois planter :wink: ).

Une IA c’est ça, certes de manières un peu plus sophostiquée :yum: . C’est juste un moyen matériel (parce que derrière l’IA, c’est un assemblage matériel silicium, cuivre, or et autres polymères qui vont interagir par courant électriques) qu’on va stimuler et qui par une succession de réaction chimique/physique va nous donner une réponse.
Comme le simple lancer d’une pièce de monnaie que ferait un Double face dans Batman :sunglasses:.

En fait, si on demande à une IA de nous dire quand elle ne sait pas, il est possible qu’elle dise qu’elle ne sait pas alors qu’elle aurait donnée une réponse correcte si elle n’avait pas eu cette instruction particulière.

Quant-à l’aléatoire, demandez à chatGPT (ou une autre IA) de vous donner une nombre aléatoire entre 1 et 50 pour voir, puis lisez mon message caché ci-dessous.

Résumé

27 ? (Probable si demandé sur ChatGPT, mais d’autres modèles ont ce biais aussi)

dans l’article de Korben, qui résumait une analyse introspective de Claude (d’Anthropic),
ils ont justement constaté ça : l’IA a bien un circuit d’analyse qui aboutit à “je ne sais pas”

mais il va se faire supplanter par un autre parcours d’analyse qui va broder un hors-sujet ou une hallucination qu’il préfèrera répondre

https://korben.info/anthropic-dissection-cerveau-claude-ia.html

C’est un générateur de texte sur base de statistique basé sur un prompt plus ou moins sophistiqué.

On peut assez simplement obtenir des réponses claires.

Pour obtenir la réponse « je ne sais pas » il suffit d’être clair dans le prompt, et je ne me suis pas foulé.

Par contre, si le prompt demande une réponse longue et fouillée, cela peut ne pas empêcher le système d’halluciner.

Qui était le masque de fer ?

Oui

C’était Charles de Gaulle, le masque de Fer?

Exactement !

Quand à écrire des conneries sur internet pour fracasser les IA, ça marche !

:muscle::muscle::muscle:

Et encore mieux :

salut,
je me reconnecte au site d’adobe pour télécharger la facture, et je suis assaillit par leur insistance à me faire utiliser l’IA

après qu’ils aient dépensé des milliards dans leurs infras, ils veulent à tout prix nous rendre accro de leurs outils pour nous les faire payer !

c’est comme MSFT avec son forcing de Windows11 pour nous refiler Copilot au forceps
le pire c’est qu’ils veulent vraiment qu’on branche leurs putain d’agents d’IA sur notre serveur de messagerie & word / excel / powerpoint pour résumer automatiquement les mails, ou générer des résumés de réunions, ou abréger des "mails trop long "

bon, je suis encore hors sujet du thread de “les articles écrits par ia”
alors je vais alimenter le sujet : dès novembre 2024, plusieurs publications annonçaient que plus de la moitié des nouveaux contenus publiés en ligne étaient générés par des bots

et je sais pas pour vous, mais maintenant pour trouver un produit , je balaye 2 pages de merdes de réponse de Qwant ou Google avantde trouver le vrai sit qui le vend/produit vraiment : il y a eu une myriade de pseud-places de marchés alimentés par ia et bots de crawler

y’a pas que les GAFAM qui ont merdifiés leurs offres : c’est tout le web intégralement qui part en vrille !

1 « J'aime »

Ça me l’a fait pour un film cité aussi.

“Ah, en plus au moment où on réalise que … non mais, je préfère rien te dire. Ralala, tu vas voir.”

Bon.

Ça reste rigolo de regarder un film en voyant les ficelles pour cacher ce qu’on a compris. Mais j’imagine que ça gâche quand même.

[Et quoi ? On a pas le droit d’avoir des mois de retard sur certains topics ?]

C’est bon on peut te le dire maintenant : le twist c’est que

...

La crème solaire est rouge

Un gag. Ou apparenté

Et moi j’aime beaucoup les gags. Les jeux de mots. Les calembours. Les comparaisons oiseuses.

Les surprises.

Mais derrière “toi” aussi ^^. Cet argument est invalide.

Très bonne vidéo de Mr Phi sur le sujet, appliqué à la génération automatisée de vidéo youtube.

La sagesse selon YouTube : plongée dans un océan de contenu généré par IA - YouTube

Vidéo d’il y a un peu plus d’un an…Autant dire une éternité à l’échelle IA, nulle doute que les choses ont encore pris de l’ampleur.