Jim Cramer a émis de nouveaux doutes sur la fiabilité des chatbots d’IA comme ChatGPT d’OpenAI après avoir constaté par lui-même des incohérences dans les réponses fournies.
Cramer remet en question la crédibilité de l’IA suite à des réponses incohérentes
Dimanche, Cramer, animateur sur CNBC, s’est rendu sur X, anciennement Twitter, pour partager sa frustration à propos des chatbots à intelligence artificielle.
Il a expliqué avoir demandé à ChatGPT des données sur les prix des maisons unifamiliales au cours des six dernières années, et à chaque fois qu’il reformulait la question, il recevait des chiffres différents.
“Il est tellement difficile de croire qu’une quelconque entité sérieuse fait réellement confiance aux chatbots”, a écrit Cramer, dénonçant leur dépendance à des “sources inexactes”.
Ses commentaires reflètent une inquiétude croissante chez les professionnels quant à la fiabilité des informations générées par l’IA dans des domaines qui exigent de la précision, tels que la finance et l’économie.
Voir aussi : L’illusion d’un billion de dollars chez Tesla : Le package salarial d’Elon Musk et le mythe du robotaxi
Selon les experts, la fragmentation des données alimente les hallucinations de l’IA
Les experts en IA affirment que l’expérience de Cramer met en lumière un problème plus large connu sous le nom “d’hallucination”, où des modèles comme ChatGPT, Copilot de Microsoft Corporation (NASDAQ: MSFT) et d’autres produisent des réponses dénuées de sens ou factuellement erronées.
Interrogé par Benzinga, Matthijs de Vries, fondateur de la société d’infrastructure de données Nuklai, a déclaré que le problème sous-jacent venait d’un accès fragmenté aux données vérifiées.
“Je ne pense pas que les hallucinations soient causées uniquement par une mauvaise infrastructure de données, ce serait une simplification à l’excès”, a-t-il expliqué. “Cela dit, un accès insuffisant ou fragmenté à des données vérifiables en temps réel aggrave considérablement le problème.”
Yann LeCun explique pourquoi les chatbots s’égarent
Plus tôt, Yann LeCun, souvent appelé le “parrain de l’IA”, a décrit l’hallucination comme un résultat naturel du fonctionnement des grands modèles linguistiques.
“En raison de la prédiction autorégressive, chaque fois qu’une IA produit un jeton ou un mot, il y a un certain niveau de probabilité que ce mot vous éloigne de l’ensemble des réponses raisonnables”, a déclaré LeCun sur le Lex Fridman Podcast.
La frénésie de dépenses d’OpenAI soulève de nouvelles questions
Dans l’intervalle, les énormes projets de dépense d’OpenAI ont suscité des inquiétudes quant à sa stabilité à long terme. Le PDG Sam Altman a révélé que la société avait 1,4 billion de dollars d’engagements sur huit ans pour des centres de données et des puces d’IA.
Alors qu’OpenAI vise à atteindre un taux de revenus annualisé de 20 milliards de dollars d’ici la fin de l’année 2025, Altman a admis qu’il pourrait devoir entrer en bourse pour soutenir cette croissance — ce qui rappelle les comparaisons avec l’expansion à hauts risques de l’ère des dot-coms.
Selon le classement Edge de Benzinga, le fabricant de puces se situe dans le 98e centile pour la croissance et le 68e pour la qualité, mettant en évidence sa solide performance par rapport à ses pairs de l’industrie.

Lire la suite :
Avertissement : Ce contenu a été partiellement produit à l’aide d’outils d’IA et a été relu et publié par l’équipe éditoriale de Benzinga.
Photo courtoisie : katz / Shutterstock.com
