salut,
sur ce thème, les devs de next.ink sont partis en guerre,
je ne vous recommande que trop leur extension anti site ai-gen
et suivre leurs actus sur le sujet
dont ces news qui montrent l’impact dingue que ça a déjà pris dans la tech :
a+
salut,
sur ce thème, les devs de next.ink sont partis en guerre,
je ne vous recommande que trop leur extension anti site ai-gen
et suivre leurs actus sur le sujet
dont ces news qui montrent l’impact dingue que ça a déjà pris dans la tech :
a+
Ah ben Asmodée aussi a sa video avec de l’IA dedans, et bé…
Dans l’etat actuel des choses, les IA n’ont pas la science infuse. C’est une erreur d’assumer qu’une IA va repondre correctement a une question par exemple.
Pour avoir une IA productive, il faut d’abord l’entrainer.
Par exemple, pour pouvoir jouer une partie d’un jeu quelconque avec une IA, lui faire lire la regle n’est pas suffisant, loin de la. Il faudra faire quelques parties, et au fur et a mesure, degrossir l’apprentissage. Mais une fois qu’elle est bien reglee, elle devient un adversaire redoutable.
Question concernant le principe de fonctionnement de l’IA, je n’y connais pas grand chose.
Est-ce que l’assertion suivante est vraie ?
L’informatique “traditionnelle” consistait à créer un algorithme/programme pour atteindre un résultat à partir de données en entrée ; alors que le principe de l’IA, via son entraînement, consisterait plutôt à fournir des résultats attendus et des données en entrée, et cette dernière va déterminer le meilleur algo.
L’İA ne crée pas d’algo. Elle utilise les algos avec laquelle elle a été conçue et ses réponses se basent sur un système de transformation de l’entrée en vecteurs pondérés confrontés au résultat de l’entraînement.
De façon très schématique. Que les experts me corrigent.
Les modèles sont des choses à l’heure actuelle plutôt figées, ils n’apprennent pas de nos prompts.
Je ne comprend pas vraiment ce que tu veux dire, mais j’en intuite ne me semble pas bien judicieux.
L’IA ne fournit pas de donnée entrée (en entrée de qui?).
L’IA prend beaucoup de forme.
Le truc à la mode aujourd’hui (oui, dans les années 90, les technologies pour faire de l’IA étaient différentes et on peut parier sans trop de risque qu’elles seront différentes en 2050) sont
— des systèmes par apprentissage, qui s’ajustent en fonction de données en entrée et de résultats attendus. On montre des tas de photos à un système pour qu’il apprenne à reconnaître les chiens… ça peut paraître anecdotique, mais quand on leur apprend à reconnaître les cellules potentiellement cancéreuses ça fonctionne très bien, parfois mieux que l’humain.
— des systèmes statistique massif, comme les llm, qui sont capable de générer des textes ou de la musique juste en calculant une suite probable à leur prompt puis à ce qu’elles génèrent.
— et des systèmes assez difficile à mon avis à comprendre que sont les systèmes qui arrivent à générer des images à partir de texte. Ça se construit un peu comme des llm (c’est un peu plus compliqué dans les principes et la demarche), mais je ne comprend pas comment ça peut converger vers une image cohérente.
Je ne suis pas un expert, juste un ingénieur qui a fait de l’informatique pendant 40 ans, mais pas de l’IA.
Encore une fois attention à ne pas mélanger “IA” et “LLM” (sur lesquels se reposent ChatGPT et consorts)
Un LLM est, pour vulgariser, UN genre d’IA. Mais il y en a plein d’autres, qui obéissent à des schémas très différents.
et parfois ce sont même des Intelligences Humanoïdes, la nouvelle forme d’IA généraliste, adaptable, polyvalente et répondant exactement au besoin en quelques mots
un truc de fou, on n’arête pas le progrès
Tu parles de LLM ?
Oui un modèle LLM est figé dans la mesure où il n’y a pas de re-entraînement à la volée , mais il me semble que ça peut « apprendre » de nos prompts dans une certaine mesure .
A minima ça peut intégrer des données d’anciens prompts du même user (préférences…) , qui se retrouvent peut être masquées dans le pré prompt.
Sans rentrer dans les détails, ce n’est pas de l’apprentissage. Le modèle ne bouge pas. Par contre ils peuvent être couplé à une autre technologie dont j’ai oublié le nom qui permet d’exploiter des ressources externes (le forum de TT par exemple, ou vos précédents prompts). Les informations que vous donnez dans vos prompts ne sont que pour vous. Ça n’entraîne pas le modèle. Encore heureux, pour des raisons évidentes de sécurité et d’intégrité du modèle.
Sinon au bout d’une semaine chat gpt serait négationniste et nazi.
On est d’accord
Non mais je comprends ce qu’essaie de dire @nicoz .
Dans l’informatique traditionnelle, on a un développeur qui va coder un algorithme précis pour effectuer une tâche précise.
Dans l’informatique type IA, c’est la machine elle-même qui va développer son propre algorithme à force d’apprentissage. En gros, les concepteurs de chatGPT eux-mêmes ne savent pas exactement comment la machine “raisonne” (et il y a d’ailleurs tout un tas d’études pour tenter de faire une cartographie mentale de comment un LLM résout un problème). L’algo de chatGPT est une boîte noire qui comprend des milliards de paramètres, impossibles à appréhender pour un humain.
Je trouve que la qualité de Gus&Co s’est progressivement dégradé bien avant l’arrivée de l’IA mais bon …
Je me demande surtout comment Google arrive à faire le filtre entre contenu humain et IA… s’il n’y arrive pas dans ce cas on lira tous un contenu généré d’ici quelques mois / année c’était déjà pas facile de trier le bon du mauvais contenu avant mais maintenant que l’on peut créer des milliers de pages de manière automatique ça s’annonce compliqué.
C’est ce que montrait Jacques Ellul il y a près de 70 and déjà : la technique est autonome. Elle s’autoalimente et change par l’apport d’autres techniques. Il y a un aspect cumulatif.
La technique a échappé à l’homme qui est devenu son serviteur.
Ça me gène de lire que la machine va developper son propre algorithme.
Ce n’est pas tout à fait vrai.
La machine exécute toujours le même code en changeant son parametrage.
L’apprentissage c’est changer son parametrage de façon autonome.
C’est déjà énorme.
Les LLM sont des systèmes par apprentissage.
A la source, un LLM se base sur le développement des réseaux neuronaux dont la recherche à commencer dès les années 60. Depuis, il y a eu plein d’innovations incrémentales, mais surtout une augmentation de la capacité à traiter d’énorme quantité de données, qui ont amenées aux modèles LLM récents.
Le résultat est impressionnant. Je ne sais pas combien d’experts du domaine dans les années 2000 auraient pu prédire qu’on en soit là 25 ans plus tard (mais 25 ans, ce n’est pas du jour au lendemain non plus).
Etant donné que les chercheurs récents eux-mêmes n’ont pas encore compris le phénomène du grokking de l’IA, je dirais personne😅
Exactement.
L’IA ne crée pas des algorithmes pour se définir elle-même. Elle enregistre des données sous forme de vecteurs à n dimensions.
J’ai fait exprès de ne pas parler de réseaux de neurones dans mon explication, pour plusieurs raisons :
— si tu ne sais pas ce que c’est, c’est un mot technique vide de sens pour toi, ça t’envoie le message « t’as pas les bases pour comprendre ».
— le terme en lui même est porteur de messages douteux. Non, les neurones des informaticiens n’ont rien à voir avec celle du cerveau. Les informaticiens se sont inspirés de ce que l’on pensait être le fonctionnement des neurones dans les années 50 ! Aujourd’hui c’est juste un outil permettant de faire des systèmes d’auto apprentissage basés sur des stats. Rien de biologique ou de potentiellement conscient.
Parler de réseaux de neurones, c’est parler de « comment c’est fait », et le mot n’aide même pas à le comprendre, il faut l’expliquer, alors que la question est très souvent un point de vue bien différent « qu’est ce que ça peu faire ? Que peut on en attendre ? ».
Pas besoin de parler de la tripaille pour ça.
Il en reste que distinguer systèmes par apprentissage et systèmes statistiques massif n’a pas de sens.
Je suppose que tu voulais opposer des modèles spécifiques (détecter des chiens, détecter des tumeurs) aux modèles LLM qui sont plus génériques (prédire le prochain token).
Mais un LLM reste un modèle qui a été appris et les modèles plus classiques utilisent des statistiques.