J’essaie juste de dire qu’il faut éviter de dire qu’on diabolise l’IA et que tout est de la faute de l’utilisation qu’on en ferait.
A partir du moment qu’une invention, quelle qu’elle soit, n’est pas contrôlable à 100%, elle est dangereuse.
Et l’IA ne fait que compléter une liste déjà bien longue…
Je suis d’accord avec toi là dessus.
Là où je voulais en venir est qu’il faut arrêter de s’innocenter en disant que l’IA tue.
Si l’IA tue, c’est que l’homme a créé les conditions pour que l’IA tue (ce qui en soit rend cette discussion légitime, car pour ne pas laisser faire, il faut avoir conscience du problème).
Je suis sidéré qu’on puisse confier la moindre décision à une IA aujourd’hui.
Et j’ajouterai que l’IA fera énormément de mal à notre société bien avant qu’elle doit capable de tuerie de masse.
Elle remet en cause de nombreux emplois de col blancs qui forment aujourd’hui la classe moyenne.
Je pense que notre économie n’est pas prête à ce genre de changement drastique et nous nous dirigeons peut-être vers la pire crise économique jamais connue.
(Tout ça c’est au conditionnel bien sûr mais je pense qu’il y a de quoi être inquiet)
Vu comme ça, j’entends. Mais je continue, même en prenant en compte ta formulation, à penser que les points 1 et 2 n’éclairent en aucune façon le point 3. Malgré que ça parle d’IA, je n’y vois toujours aucun lien.
C’est un peu comme si je disais :
- La Science c’est dangeureux, comme on le voit dans Chéri j’ai Rétréci les gosses
- D’ailleurs, grâce aux avancées scientifiques, on a fait les bombe atomique et créé des virus mutants. On le voit bien dans le jeu Pandémie
- Du coup, le CERN refuse, lui, de faire du militaire. C’est dire à quel point la science c’est dangereux.
Cette comparaison par l’absurde a ses limites, mais c’est un peu ça l’axe que je tente de démontrer.
Pour simplifier, j’avais écarté le point 3 à la lumière de l’inutilité et des biais monstrueux exprimés lors des points 1 et 2.
Si je fais l’inverse, que je prends le point 3 en compte, alors c’est le 1 et 2 qui j’écarterai. Et du coup… Qu’est ce que ça viens faire sur Gus&Co ? Site dont le thème n’est ni l’IA, ni la tech, ni le militaire, ni la géopo.
En plus comme @kenjin , je soupçonne fortement cet article d’avoir été écrit par une IA, puisqu’il m’est impossible de retrouver en dehors de Gus&Co l’auteur, et qu’il est apparu en 2023/2024, comme par hasard…
On retombe sur le sujet De les articles écrits par IA cité par @prosper_manganate
Oui ok “il suffit de”, sauf que le monde étant ce qu’il est tu sais aussi bien que moi que le “il suffit” ne fonctionne pas…
Pour le coup il aurait suffit de lire ce que j’avais écrit plus haut plutôt que de me redire ce que j’ai déjà dit
:
Ok oui le problème vient clairement de l’homme, c’est lui (enfin certaines classes d’ultra riche pour être précis) qui fait des génocides, qui fait des manipulations de masse, qui créé et envoie des bombes atomiques, qui veut toujours plus, qui adore jouer à l’apprenti sorcier et qui a créé entre autre l’IA… Sauf que je n’ai jamais dit que l’IA en soit était un problème, j’ai juste dit que l’article de Gus&co faisait écho à l’interview de Yoshua Bengio et que tout cela faisait froid dans le dos non pas parce que l’IA est foncièrement mauvaise mais parce que dans de mauvaises mains c’est un outil assez flippant, que l’autonomie, l’imprévisibilité et l’“instinct de survie” qu’elles développent est inquiétant et qu’il semble ne pas y avoir de gardes fous suffisamment viables mis en place…
On y est déjà. Après, oui, ça peut lui donner un bon coup de boost… ![]()
On y est déjà ? Sans vouloir partir dans un débat sans fin, je crois que l’humanité est malheureusment capable de faire bien pire en termes de crise et elle l’a déjà prouvé par le passé. ![]()
Oui mais c’était pas rigolo de faire une blague dessus ![]()
C’était à prendre sur un ton léger, pour montrer l’ironie et l’absurdité du point de départ sur l’IA incarnant le mal… Comme si cela venait de nul part.
En vrai, j’ai vu ce message mais quand j’ai fait ma réponse j’avais déjà oublié ![]()
L’article de Gus&Co n’a pas beaucoup d’intérêt. La réflexion de Yoshia Bengio est déjà plus mesurée et intéressante.
Oui on est d’accord.
C’est le moment de lire, ou relire, les travaux de Jacques Ellul sur la technique.
Il y dit des choses assez pertinentes, en particulier que la technique apporte systématiquement des aspects positifs et négatifs et que l’homme est devenu dépendant de la technique, qui devient indépendante et autonome. Cela recrée aussi les conditions d’une sacralisation de la technique, qui remplace la religion.
C’est notre monde.
La technique n’est autonome et indépendante que si on considère que le modèle capitaliste/libéral qui dirige actuellement le monde est lui même autonome, indépendant et surtout irréductible.
Dans un système où la loi ne permet pas de faire n’importe quoi au nom du profit, la technique, ou plutôt ce qu’on en fait, n’est ni autonome ni indépendante.
Bonjour,
L’IA, ChatGPT et compagnie sont de la m…de, un point c’est tout !
Paul Valéry et Bernanos avaient déjà tout vu, tout dit…
Un réac’ assumé…en réaction ! ![]()
On peut tenir ces réflexions à toute avancée technologique ou presque. Chaque avancée a ses avantages et inconvénients. Et oui cela dépend uniquement de ce qu’on en fait. Et oui le problème c’est qu’on ne contrôle pas ce que les autres en font. Et forcément cela ira toujours dans la direction d’une utilisation égoïste, au moins d’une minorité.
Il est impossible d’arrêter le développement de l’ia.
Dans l’idéal, il ne faudrait que des avancées qu’on puisse contrôler. Sauf que ça n’existe pas.
Dans le même genre de débats :
Pour ou contre internet ?
Pour ou contre le nucléaire ?
Pour ou contre la démocratisation de la télévision dans les chaumières ?
Pour ou contre les avancées en matière de génétique ?
Pour ou contre l’informatique ? La robotisation ?
Je précise que je suis totalement contre l’ia pour énormément de raisons mais on ne pourra rien y faire.
Gus&Co est un habitué du mélange jeu de société/question de société, je ne dis pas qu’ils sont au top, que leurs comparaisons sont toujours heureuses (même si personnellement je trouve toujours intéressant de ne pas oublier le monde dans lequel on vit quand on joue à un jds) ni que leur utilisation (à priori) de l’IA me vend du rêve mais je te trouve un peu dur sur cet article : le questionnement entre comportement de ces IA en wargame et comportement de ces IA au département de la guerre de l’administration Trump (avec le contexte d’Anthropic qui refuse pour des questions éthiques) a son intérêt je trouve, mais bref on ne tombera pas d’accord.
Je peux te concéder que j’ai en effet été un peu dur ![]()
Mais j’y vois quand même de très sérieux biais qui me font invalider l’ensemble.
On peut malgré tout dire que c’est pas parfait et prendre ce qu’il y a à prendre, c’est une façon de faire tout à fait recevable.
Personnellement j’ai tendance à appliquer une hygiène informationnelle assez stricte et, je le concède, dure : lorsqu’un média (je généralise là, je ne parle pas spécifiquement de Gus&Co), ou source d’info (j’y inclus donc vulgarisateurs, chaînes YT, etc.) commet des erreurs ou fautes que j’estime “trop graves”, alors je considère que ce média n’est pas un média qui fait correctement le travail nécessaire à garantir la fiabilité, donc je l’écarte.
J’écarte aussi plein de choses très bien de ce média, mais quand je le prends la main dans le sac pour un sujet que je connais, maîtrise ou pour lequel j’ai fait un effort de documentation, je me dis que je ne serai pas capable de distinguer les mêmes biais, erreurs ou fautes pour les sujets que je ne connais pas. Donc je préfère choisir une autre source.
Je rappelle qu’il y a un curseur, je n’écarte pas chaque source à chaque erreur ou faute, mais il y a parfois des red flags qui me font trancher définitivement.
Ici j’ai un peu appliqué cette méthodologie pour cet article uniquement ![]()
Si ce dernier a effectivement été écrit via LLM, c’est quand même une mise en abîme… Abyssale ![]()
Je fonctionne de la même façon que toi et ça me paraît on ne peut plus sain (je vais pas dire le contraire
)
Donc aucun changement dans leur façon de faire ?
Pour préciser, une technique ne dépend pas de ce qu’on en fait. Elle vient avec son ambivalence, ses aspects positifs et négatifs. Tous les exemples que tu cites l’illustrent. Et la technique est issue d’une autre technique, et engendre de nouvelles techniques. En cela, c’est un système dont l’homme est de plus en plus exclu.
Donc, oui, il est impossible d’arrêter le développement de l’IA sauf à changer de système.
C’est le propre de la nature humaine de vouloir se dépasser, dans ce qu’on appelle généralement le progrès. Aujourd’hui se pose surtout la question de savoir si le progrès est globalement positif ou globalement négatif pour le bien-être matériel et mental de l’humanité.
A l’époque des Grecs anciens, les mythes étaient là pour rappeler (de manière fictionnelle) qu’il y avait des limites à ne pas dépasser. Mais l’hubris est plus fort.
Et du coup, je considère qu’elle dépend bien de ce qu’on en fait même si finalement, on sait pertinemment que du bien et du mal en sera tiré. Qu’on le veuille ou non.
La seule chose qui peut freiner (en aucun cas arrêter) cela, c’est la morale (on met ce qu’on veut derrière, à savoir la morale humaine, la religion, les réflexions des penseurs grecs de l’époque pour reprendre un peu ton thème etc). Et cette morale, elle ne peut que ralentir légèrement le mouvement car un certain nombre n’en n’ont pas ; et en plus, chacun a plus ou moins une vision différente de la morale et ce sur chaque aspect de celle-ci.
En définitive, je pense qu’on dit des choses proches, sous réserve que je t’ai bien compris. Une technologie est neutre. C’est son utilisation qui en fait quelque chose d’à la fois bon et mauvais.
D’ailleurs, cette question intéressante mais c’est clairement pas le lieu pour en débattre, mériterait d’être posée dans un cadre temporel.
Si tu parles du progrès depuis l’antiquité, je répondrais que c’est globalement positif, assez nettement et sans véritable hésitation (sans pour autant occulter le négatif).
Si on parle sur une période plus courte, par exemple à l’échelle d’une dizaine d’années, je serais sans doute beaucoup plus mitigé.
