Les interrogations éthiques face à la quête de machines conscientes : quelles sont véritablement les avancées ?
Entre les inquiétudes suscitées par la moralité des algorithmes de ChatGPT et les promesses des deadbots, ces robots conversationnels capables de faire parler les défunts, une question vertigineuse émerge de plus en plus fréquemment : quel niveau d’humanité les robots de demain pourront-ils atteindre ?
Jusqu’où pourront-ils prétendre à des émotions, une conscience, voire une spiritualité ?
Voici une séance de question réponse d’Ezekiel Kwetchi Takam, doctorant en éthique théologique à l’Université de Genève, avec des journalistes.
Blake Lemoine, ex-ingénieur chez Google, avait défrayé la chronique en annonçant que le chatbot LaMDA, dont il avait la charge de l’entraînement, avait acquis une conscience sentiente (ndlr: capable de sensations). À la suite de cette information, le simple fait que Google se soit désolidarisé de cet ingénieur en dit long sur les enjeux stratégiques actuels des producteurs d’IA.
De quels enjeux stratégiques parle-t-on?
Actuellement, la compétition pour la suprématie sur le marché de l’IA pousse les acteurs à adopter une approche plus pragmatique, en se concentrant sur des domaines spécifiques et en mettant l’accent sur l’efficacité plutôt que l’expérimentation.
Cependant, compte tenu de la question brûlante de l’IA consciente, qui alimente une grande partie du débat, il est impératif et crucial de démystifier cette caractéristique en entreprenant un travail de définition étymologique.
Justement, qu’entend-on par les termes «âme» ou «conscience»?
Du point de vue scientifique, l’âme est considérée comme une réalité métaphysique qui échappe à toute vérification empirique.
En théologie, elle demeure une composante essentielle dans la définition de la vie et de sa relation avec son créateur.
La conscience, étymologiquement, renvoie à un “échange de connaissances morales avec un autre”, cet “autre” qui nous aide à construire notre concept du bien et du mal. Alors que la théologie chrétienne identifie cet “autre” à Dieu, la science, issue de la philosophie, l’associe à la raison, pouvant elle-même être influencée par la culture.
Dans cette perspective, tout comme un nouveau-né acquiert la conscience au fil de son développement grâce à ses interactions avec son environnement, l’IA peut également développer et partager des connaissances morales, lui permettant ainsi d’acquérir une forme de conscience à travers ses rapports et ses échanges avec son milieu.
Une intelligence artificielle peut donc être capable de jugements moraux?
Absolument. C’est ainsi que ChatGPT a pu évoluer d’une application renfermant certains biais sexistes et racistes en novembre 2022 vers une application qualifiée (ou critiquée, en fonction des angles d’appréciation) de “woke”, dès fin février 2023.
En l’espace de quelques mois depuis sa création, l’IA a acquis la capacité d’apprendre de ses erreurs et de ses interactions, développant ainsi un prisme moral qui reflète de manière similaire le nôtre.
De la même manière qu’un nouveau-né développe une conscience en imitant son environnement qui guide son développement.
«Il ne serait pas impossible, dans les années à venir, que les IA interconnectées puissent communiquer, constituer un écosystème identitaire et définir un projet commun.»
Qu’en est-il de l’âme? N’est-ce pas ce que certaines entreprises cherchent à capter avec ces robots conversationnels qui proposent de ressusciter virtuellement nos défunts?
Effectivement, à l’ère du numérique, il est remarquable qu’une forme d’identité individuelle (à la fois informationnelle et narrative) puisse être traduite en données, du fait de notre présence dans le monde numérique et l’univers algorithmique.
C’est cette double identité informationnelle et narrative qui est actualisée et vivifiée par ces nouveaux robots-IA conversationnels.
Des robots pourvus d’une âme, cela vous semble réaliste?
Étant donné que la caractéristique distinctive des IA réside dans leur capacité à interagir avec leur environnement et à échanger des informations, il n’est pas exclu que dans un avenir proche, des IA interconnectées puissent communiquer, former un écosystème identitaire et élaborer un projet commun.
Cependant, il me semble prématuré de qualifier cela d’« âme », concept qui, à mon avis, demeure encore l’apanage du vivant.
Justement, que penser de cela d’un point de vue théologique?
Théologiquement, c’est d’autant plus intenable. Si l’on revient aux premières occurrences de l’âme dans le récit biblique, l’expression employée est nephesh, qui se traduirait littéralement par «être vivant», sans aucune distinction entre les humains et les non-humains. Et ce vivant, de ma modeste observation, est caractérisé par deux choses.
En premier lieu, il y a le désir qui anime l’être vers une finalité. En second lieu, la vulnérabilité, exprimant la fragilité et la possibilité d’être entravé par des forces extérieures ou internes.
C’est cette notion de vulnérabilité qui confère une réelle pertinence et signification à la notion de salut : Dieu, se manifestant dans la chair, accompagne l’individu dans son expérience de vulnérabilité en vue de le libérer et de lui offrir un horizon de paix, de joie, et bien plus encore.
Lorsque nous parviendrons à démontrer que les IA peuvent manifester ce désir et cette vulnérabilité, elles pourront alors être considérées comme possédant une âme. Pour l’instant, cela semble impossible.
Intelligence Artificielle: Découvrez FraudGPT et WormGPT, des IA spécialisées dans les arnaques !