Il existe de nombreux modèles d’intelligence artificielle qui sont utilisés aujourd’hui, du célèbre ChatGPT, à certains qui sont capables de créer des images avec l’IA via Photoshop.
Le paysage technologique actuel semble nous emmener sur la voie de l’intelligence artificielle, bien que parfois nous n’aurions pas deviné certaines de ses voies, comme celle qui nous amène à connaître une IA capable de lire dans nos pensées et de capturer des pensées en images.
Générer des images par la pensée, le nouveau défi de l’intelligence artificielle
Récemment, nous avons connu une étude publiée dans la revue scientifique Biorxiv, dans laquelle le modèle d’apprentissage automatique développé par Stability AI, appelé Stable Diffusion, a été utilisé pour une enquête très particulière, mais qui contient des questions beaucoup plus profondes que vous ne le pensez.
Des chercheurs de l’Université d’Osaka, en décembre dernier, nous ont montré une nouvelle compétence que nous ne connaissions pas sur la fameuse IA et cela implique la traduction des impulsions cérébrales en images.
Pour leur expérimentation, les chercheurs ont utilisé la célèbre imagerie par résonance magnétique fonctionnelle, également appelée IRMf, pour reconstruire ce que les sujets de recherche essayaient de montrer dans leur esprit.
Dans ce cas, il semble que le groupe de scientifiques n’ait pas eu besoin d’une formation conventionnelle en IA, mais ait dû former des modèles capables de cartographier les signaux obtenus à partir des résonances dans les régions du cerveau dédiées aux impulsions visuelles et de les convertir en composants du modèle de diffusion stable.
L’explication du modèle et de l’expérience est beaucoup plus complexe que nous ne pouvons le refléter dans ces lignes, mais vous devez rester avec ses aspects les plus fondamentaux. Dans ce cas, il semble que les sujets de l’expérience aient été présentés avec des milliers d’images, comme celles que vous voyez dans le tweet ci-dessous.
Les chercheurs, pour essayer de lire dans les pensées des participants, ont utilisé la diffusion stable. Après avoir reconstruit sémantiquement les stimuli cérébraux, ce modèle d’IA a été utilisé pour former des images aussi similaires que possible à ce que les personnes impliquées dans l’étude avaient vu. Nous sommes encore loin de pouvoir nous rapprocher de ce que notre cerveau cache, mais ces petits pas sont vraiment fascinants en tout cas.
Awesome/Scary! AI can now read your mind!?
They reconstructed high-resolution and highly accurate images from brain activity by using the Stable Diffusion image generation #AI model.
This will change everything!
You can read more about it here: https://t.co/NlfZK2F4uG pic.twitter.com/z6oGxIFDV6
— Steve Nouri (@SteveNouri) March 4, 2023