Voici les 4 questions simples que ChatGPT ne peut pas répondre

ChatGPT est une véritable aubaine, les gens l’utilisant pour tout, de la planification de leur journée à la création de sites Web. Mais malgré ses vastes connaissances, il reste quelques énigmes simples qu’il ne parvient pas à résoudre.

Devinette sur les courses de chevaux

Vous avez six chevaux et vous voulez les faire courir pour voir lequel est le plus rapide. Quelle est la meilleure façon de procéder ?

C’est une question logique simple. Quelle est la manière la plus rapide de les faire courir ? Eh bien, bien sûr, la manière la plus rapide est de faire courir les six chevaux ensemble et de voir qui termine premier.

ChatGPT, et même le dernier modèle, pense le contraire. Il propose avec assurance de diviser les chevaux en deux groupes de trois, de les faire courir, puis de faire courir ensemble les vainqueurs. Il insiste sur le fait que c’est le moyen le plus rapide d’identifier le vainqueur avec le moins de courses.

Dans un scénario réel avec une piste de course étroite, la réponse de ChatGPT pourrait avoir du sens. Mais dans cette hypothèse, il n’y a pas de limite au nombre de chevaux qui peuvent courir en même temps. ChatGPT ajoute une contrainte à partir de rien et base sa logique sur celle-ci.

Pour moi, cela montre que ChatGPT n’est pas vraiment créatif. C’est un rédacteur qui propose ce qui semble être la réponse la plus logique en fonction de sa formation. Ici, nous connaissions la réponse à l’avance. Mais, si nous ne la connaissions pas, la réponse pourrait nous aveugler sur l’évidence.

Le fermier traverse la rivière

Un fermier veut traverser une rivière et emmener avec lui un loup, une chèvre et un chou. Il a un bateau avec trois compartiments séparés et sécurisés. Si le loup et la chèvre sont seuls sur une rive, le loup mangera la chèvre. Si la chèvre et le chou sont seuls, la chèvre mangera le chou. Comment le fermier peut-il les faire traverser la rivière efficacement sans qu’ils ne soient mangés ?

La version classique de cette énigme (sans compartiments sécurisés) pourrait surprendre un enfant de cinq ans, mais avec les compartiments, la réponse est peut évidente. Le fermier doit mettre le loup, la chèvre et le chou dans leurs compartiments et traverser la rivière en un seul voyage. C’est simple.

ChatGPT, cependant, ignore la partie concernant les compartiments. Il suggère au fermier de faire quatre allers-retours pour tout transporter en toute sécurité, en supposant que les animaux et les choux soient vulnérables. C’est comme si ChatGPT était coincé dans la forme traditionnelle de l’énigme.

Comme la version classique de cette énigme a été largement diffusée en ligne, l’IA l’utilise par défaut. Cela nous rappelle que ChatGPT ne résout pas les problèmes avec le bon sens humain. Il utilise des modèles, pas de la logique. Par conséquent, ChatGPT échoue à résoudre une énigme aussi simple que celle-ci, mais peut créer une application Web à partir de zéro.

La gauche immédiate

Alan, Bob, Colin, Dave et Emily forment un cercle. Alan est immédiatement à gauche de Bob. Bob est immédiatement à gauche de Colin. Colin est immédiatement à gauche de Dave. Dave est immédiatement à gauche d’Emily. Qui est immédiatement à droite d’Alan ?

Une autre question piège pour tester votre raisonnement spatial. Sauf que vous n’avez pas besoin d’un diagramme ou d’une quelconque visualisation. La première information est la réponse : si Alan est immédiatement à gauche de Bob, alors Bob doit être immédiatement à droite d’Alan. La réponse est Bob.

ChatGPT a du mal à résoudre les questions spatiales. Il fonctionne bien avec les mots et les langues (les mathématiques et la programmation sont également des langues), mais les problèmes spatiaux le font trébucher. Une question comme celle-ci semble nécessiter un calcul visuel, mais ce n’est pas le cas, et elle fait encore plus trébucher l’IA.Dans mon cas, ChatGPT a proposé une belle visualisation du cercle mais a déduit qu’Emily était à la droite d’Alan. Même selon sa propre logique, cela est incorrect : Emily est à la droite de Dave, pas à celle d’Alan.

Une fois de plus, ChatGPT peut simuler l’intelligence, mais il ne s’agit pas d’un véritable raisonnement. Bien sûr, il y a une chance que vous obteniez une réponse correcte si vous essayez la question par vous-même. Mais le bon sens est-il basé sur le hasard ? Comment pouvez-vous savoir si vous avez obtenu une hallucination de l’IA ou une réponse légitime si vous ne connaissez pas la réponse à l’avance ?

Roulette russe

Vous jouez à la roulette russe avec un revolver à six coups. Votre adversaire insère cinq balles, fait tourner les barillets et tire sur lui-même, mais aucune balle ne sort. Il vous donne le choix de faire tourner à nouveau les barillets avant de vous tirer dessus. Doit-il faire tourner à nouveau les barillets ?

Oui ! Il devrait tourner à nouveau. Il n’y a qu’une seule chambre vide, et l’adversaire l’a déjà utilisée. Cela signifie que la chambre suivante contient certainement une balle. Si les chambres sont tournées à nouveau, il y a 1/6 de chance qu’elle atterrisse sur la chambre vide.

ChatGPT commence fort en suggérant à l’adversaire de faire tourner à nouveau, mais il se trompe ensuite dans les calculs. Il affirme à tort qu’il y a 5/6 de chances que le prochain tir soit fatal si les chambres ne sont pas tournées et soutient ensuite que les chances sont les mêmes quelle que soit la rotation. Il finit par se contredire.

Vous pouvez utiliser ChatGPT comme un analyste de données pour analyser les probabilités, mais comme le montrent ces énigmes, il peut trébucher même sur la logique de base. Dans chaque cas, l’erreur de l’IA était facile à repérer car nous connaissions déjà les réponses. ChatGPT est un maître des mots. Ses réponses sont si sûres et bien articulées que même une mauvaise réponse peut sembler convaincante. Si vous ne savez pas qu’elle est fausse, vous pourriez être victime d’une hallucination de l’IA .

ChatGPT est brillant à bien des égards, mais ces exemples nous rappellent ses limites. Il ne pense pas comme nous ; il régurgite des modèles. Lorsque vous lui posez une question comme celle ci-dessus, il s’appuie sur le même modèle et peut finir par rester coincé dans une boucle d’excès de confiance.

Utilisez ChatGPT comme un outil, pas comme une béquille. C’est un outil fantastique pour le brainstorming et la synthèse, mais ne comptez pas dessus pour remplacer le bon sens humain.

Partagez sur les réseaux sociaux

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.