Accueil Sciences Intelligence Artificielle : ChatGPT est “dangereusement stupide”, déclare un expert en IA...

Intelligence Artificielle : ChatGPT est “dangereusement stupide”, déclare un expert en IA .

1367
0

L’un des modèles d’intelligence artificielle les plus populaires aujourd’hui est le ChatGPT. Développé par la société OpenAI, il s’agit d’un système de chat avec plus de 175 millions de paramètres, utilisant des algorithmes allant de la traduction à la génération de texte.

Son degré d’évolution génère toutes sortes d’opinions, en raison de sa capacité à donner des réponses très complètes. Mais des chercheurs comme Gary Marcus Les sonneries d’alarme se déclenchent : ChatGPT est “dangereusement stupide”.

L’expression a été utilisée dans une interview avec le site espagnol El Confidencial.

Mais qui est Gary Marcus et pourquoi considère-t-il que le chat IA d’OpenAI est stupide ?

Gary Marcus, chercheur

Né à Baltimore, aux États-Unis, en 1970, Marcus effectue des recherches dans le cadre de la psychologie, en se concentrant sur le langage, la biologie et l’esprit. Il a écrit des livres tels que L’esprit algébrique : Intégrer le connexionnisme et les sciences cognitives (2001) y Kluge : The Haphazard Construction of the Human Mind (2008), parmi d’autres.

Gary Marcus, psychologue et spécialiste de l'intelligence artificielle.

Actuellement, en plus de travailler sur la recherche en intelligence artificielle, il est professeur au département de psychologie de l’université de New York et directeur du NYU Center for Child Language.

Marcus a vu plusieurs de ces discussions sur l’intelligence artificielle se dérouler, comme par exemple Galactica (Meta) et Tay (Microsoft). Avec l’essor de ChatGPT, il estime que “ça marche mieux, ça va avoir un impact sur la société, mais on a le même problème : C’est un système dangereusement stupide”.

“Pour l’utilisateur moyen, il n’est pas facile de distinguer l’intelligence d’un de ces systèmes (d’intelligence artificielle générale), mais… ChatGPT ne résout aucun des problèmes de base”.

Les problèmes de l’intelligence artificielle de ChatGPT.

Le chercheur met en avant trois situations :

  • Pas très fiable, comme “pour la même question, il donne parfois des informations correctes, parfois non”.
  • Ses hallucinations, inventer des informations, ” et il n’y a aucun signe qu’il invente quoi que ce soit. Il invente même des références bibliographiques”.
  • L’absence de limites : “Quand on parle d’intelligence artificielle générale, on parle d’un système qui est limité par la réalité, et ChatGPT ne l’est pas.”

Pour Marcus, “le danger d’un tel système peut venir de son degré d’intelligence, mais aussi du pouvoir qui lui est donné. Si ChatGPT amène une personne naïve à croire qu’elle est intelligente alors qu’elle ne l’est pas, c’est en soi le danger.”

La création d’OpenAI prend des morceaux de texte d’un côté et de l’autre, les collent ensemble et les reproduisent, mais ne comprend pas la relation entre ces morceaux.

“Je ne pense pas que nous soyons près d’obtenir de véritables systèmes intelligents, peut-être que dans dix ans nous en serons assez proches”, souligne M. Marcus. Et en attendant, les outils qui peuvent être utilisés pour la désinformation continuent de gagner du terrain.

 

4.3/5 - (11 votes)

En tant que jeune média indépendant, Patrouilleurs Médias Québec a besoin de votre aide. Soutenez-nous en nous suivant et en nous ajoutant à vos favoris sur Google News. Merci !

Suivez-nous sur Google News