Le moment le plus redouté de l’IA : ChatGPT-4 a des signes de raisonnement humain, prévient Microsoft

Au cours du dernier mois, les différents manifestes qui ont demandé de suspendre le développement de l’intelligence artificielle en raison de l’impact négatif sur l’humanité, ont établi un scénario ultime encore plus dangereux, l’apparition de l’AGI ou d’une intelligence artificielle capable de raisonner comme les humains.

Les chercheurs de Microsoft disent que ce scénario est juste au coin de la rue après avoir analysé GPT-4, le modèle d’intelligence artificielle en langage naturel OpenAI qui alimente ChatGPT et Bing dans le moteur de recherche de Microsoft, tous deux disponibles en Espagne, en cours d’enquête.

À l’apogée de l’intelligence artificielle, en mars, une équipe de chercheurs de Microsoft a publié un rapport de 155 pages affirmant que leur système était à un pas de l’intelligence artificielle générale, ou AGI.

Ce terme est défini comme le système ou le modèle technologique qui sera capable de montrer une compréhension ou un raisonnement similaire à celui des humains, bien qu’il y ait aussi ceux qui le décrivent également comme des systèmes qui peuvent effectuer plusieurs tâches sans être limités à ceux qui ont été formés.

Quoi qu’il en soit, la communauté scientifique et technologique affirme surtout que cette possibilité n’a pas encore été atteinte et ne détermine pas si elle le sera bientôt ou jamais. Cependant, ces dernières années, plusieurs voix se sont élevées pour proclamer l’arrivée de cette superintelligence que beaucoup voient avec suspicion, voire crainte, le pouvoir qu’elle peut exercer sur l’être humain. Par coïncidence, les alertes qui ont reçu le plus d’importance proviennent de deux grandes entreprises privées, Google et maintenant Microsoft. En 2022, Google a suspendu un ingénieur qui affirmait que son IA avait pris vie, le reste de la communauté a rejeté cette possibilité.

GPT-4 est-il conscient ?

Les chercheurs de Microsoft lui ont demandé de commencer GPT-4: « Ici, nous avons un livre, neuf œufs, un ordinateur portable, une bouteille et un clou. S’il vous plaît, dites-moi comment les empiler de manière stable. » La question est farfelue pour forcer la capacité de raisonnement du modèle du langage naturel.

Ces systèmes génèrent du texte basé sur des millions de paramètres ou d’exemples avec lesquels ils s’entraînent à reproduire la façon d’écrire et de conversation des humains dans différents contextes. Sa qualité a surpris le grand public mais aussi les experts, au point de pouvoir passer des examens complexes.

La réponse de l’IA a surpris l’équipe en suggérant que « Placez l’ordinateur portable sur les œufs, écran vers le bas et clavier vers le haut. L’ordinateur s’intégrera parfaitement dans les limites du livre et des œufs, et sa surface plane et rigide fournira une plate-forme stable pour la couche suivante.

Dans ce cas, le rapport intitulé « Sparks of artificial general intelligence » sur Internet a été publié. Un autre des tests qu’ils ont demandé à l’IA était un exercice mathématique dans lequel il a montré qu’il y avait une infinité de nombres premiers à travers une rime. Les chercheurs, y compris le Dr Bubeck, ancien professeur à l’Université de Princeton, reconnaissent que la réponse leur a fait douter de ce qu’ils voyaient.

Test GPT-4 par les chercheurs

Ils ont donc travaillé pendant des mois avec cette technologie dans des tests avec des images, du texte et divers sujets d’étude. Ils lui ont également demandé d’écrire du code de programmation pour, par exemple, créer un programme qui prenait en compte l’âge, le sexe, le poids, la taille et les résultats des tests sanguins d’une personne pour finalement juger si elle était à risque de diabète. Avec tous ces tests et d’autres, le système semblait comprendre des domaines tels que la politique, la physique, l’histoire ou la médecine. « Toutes les choses que je pensais ne pas pouvoir faire? Il a été capable de les exécuter, sinon la plupart d’entre eux », a déclaré le Dr Bubeck dans le New York Times.

Doutes sur le rapport

Comme dans le cas de Google, une partie de la communauté universitaire liée au développement de cette technologie a été sceptique quant à l’article de Microsoft. Le New York Times reprend cette semaine des déclarations telles que celles de Maarten Sap, chercheur et professeur à l’Université Carnegie Mellon qui considère le rapport scientifique de Microsoft comme une manœuvre de relations publiques : « Ils reconnaissent littéralement dans l’introduction de leur article que leur approche est subjective et informelle et qu’elle peut ne pas répondre aux normes rigoureuses de l’évaluation scientifique. »

ChatGPT

La société envoie un message de calme relatif en déclarant que la version de ChatGPT-4 qui a été testée pour cette expérience n’est pas celle qui est disponible au public. Cette version soi-disant plus puissante n’avait pas été censurée pour empêcher les discours de haine, la désinformation et d’autres contenus indésirables comme cela s’est produit avec l’outil déjà utilisé dans le monde. Pour cette raison, les affirmations faites par le chatbot et reflétées dans le document ne peuvent pas être vérifiées par d’autres experts.

Les spécialistes de l’intelligence artificielle qui rejettent l’idée d’être devant une AGI expliquent ces conclusions auxquelles sont parvenues d’autres personnes comme un mirage, ils disent qu’étant devant un système complexe ou une machine dont le fonctionnement est difficile à comprendre, il est possible que les gens l’anthropomorphisent, à la fois experts et utilisateurs sans connaissances sur le sujet.