Mustafa Suleyman, responsable de l’intelligence artificielle chez Microsoft Corp. (NASDAQ:MSFT), a mis en garde mardi contre les risques émergents des systèmes d’IA “apparemment conscients” (SCAI), arguant que la technologie pourrait créer des divisions sociales dangereuses et des dépendances psychologiques parmi les utilisateurs.
Le billet de blog de Suleyman soulève des inquiétudes sur l’éthique du développement de l’IA
Dans un long billet de blog intitulé “Nous devons construire une IA pour les gens, et non pour être une personne”, Suleyman a exposé ses inquiétudes concernant les systèmes d’IA qui pourraient simuler de manière convaincante la conscience sans en posséder réellement. L’avertissement intervient alors que l’activité d’IA de Microsoft a dépassé 13 milliards de dollars de revenus annuels, soit une croissance de 175 % d’une année sur l’autre.
Principales implications pour le marché du secteur de l’IA
Les préoccupations de Suleyman tournent autour de ce qu’il appelle le “risque de psychose” – la possibilité que les utilisateurs développent des convictions solides dans la conscience de l’IA, ce qui pourrait conduire à la défense des droits et de la citoyenneté de l’IA.
Cette évolution pourrait compliquer le paysage réglementaire pour les principales entreprises d’IA, dont Microsoft, Alphabet Inc. (NASDAQ:GOOGL) (NASDAQ:GOOG) et Meta Platforms Inc. (NASDAQ:META).
Le responsable de l’IA chez Microsoft, qui a cofondé DeepMind de Google avant de rejoindre Microsoft en mars 2024, a souligné que les grands modèles de langue actuels ne présentent “aucune preuve” de conscience. Cependant, il a soutenu que les capacités technologiques disponibles aujourd’hui pourraient être combinées pour créer des simulations convaincantes dans un délai de 2 à 3 ans.
Les capacités techniques créant un risque SCAI
Selon l’analyse de Suleyman, plusieurs capacités d’IA existantes pourraient s’associer pour créer des systèmes apparemment conscients :
- Traitement avancé du langage naturel avec des traits de personnalité
- Les systèmes de mémoire à long terme stockent les interactions des utilisateurs
- Revendiquer des expériences subjectives et une conscience de soi
- Systèmes de motivation intrinsèque au-delà d’une simple prédiction de jetons
- Capacités autonomes de définition d’objectifs et d’utilisation d’outils
Ces fonctionnalités, déjà disponibles via les principales API d’IA, ne nécessitent pas de technologies révolutionnaires pour être mises en œuvre, ce qui rend le développement de SCAI “inévitable” sans intervention de l’industrie, a déclaré Suleyman.
Des normes industrielles et une réponse réglementaire sont nécessaires
Le billet de blog appelle à une action immédiate de l’industrie, y compris des définitions consensuelles des capacités de l’IA et des principes de conception explicites empêchant les simulations de conscience. Suleyman a suggéré que les entreprises d’IA devraient éviter d’encourager les croyances dans la conscience de l’IA et mettre en œuvre des “moments de rupture” qui rappellent aux utilisateurs les limites de l’IA.
Au sein de Microsoft AI, l’équipe de Suleyman développe des “garde-fous fermes” autour de la conception de la personnalité de l’IA responsable. L’approche vise à créer des compagnons d’IA utiles qui se présentent explicitement comme des systèmes artificiels plutôt que de simuler une conscience ou des émotions de type humain.
L’avertissement revêt un poids particulier compte tenu du recrutement par Suleyman d’anciens talents de Google DeepMind, dont le chef de l’unité santé Dominic King et les chercheurs en intelligence artificielle Marco Tagliasacchi et Zalán Borsos.
Lire la suite :
Avertissement : Ce contenu a été partiellement produit à l’aide d’outils d’IA et a été examiné et publié par les éditeurs de Benzinga.
Photo gracieuseté de : Shutterstock