Quel sera l’impact de ChatGPT, DALL-E et d’autres outils d’IA sur l’avenir du travail ? Les avis de 5 experts

De la vapeur à l’électricité en passant par les ordinateurs et Internet, les progrès technologiques ont toujours perturbé les marchés du travail, repoussant certaines carrières tout en en créant d’autres.

L’intelligence artificielle reste quelque chose d’impropre – les systèmes informatiques les plus intelligents ne savent toujours rien – mais la technologie a atteint un point d’inflexion où elle est sur le point d’affecter de nouvelles catégories d’emplois: les artistes et les travailleurs du savoir.

Plus précisément, l’émergence de grands modèles linguistiques – des systèmes d’IA formés sur de grandes quantités de texte – signifie que les ordinateurs peuvent désormais produire un langage écrit à consonance humaine et convertir des phrases descriptives en images réalistes.

The Conversation a demandé à cinq chercheurs en intelligence artificielle de discuter de la façon dont les grands modèles linguistiques sont susceptibles d’affecter les artistes et les travailleurs du savoir. Et, comme nos experts l’ont noté, la technologie est loin d’être parfaite, ce qui soulève une foule de problèmes – de la désinformation au plagiat – qui affectent les travailleurs humains.

Pour passer à chaque réponse, voici une liste de chacune:

La créativité pour tous – mais la perte de compétences ?

Lynne Parker, vice-chancelière associée, Université du Tennessee

Les grands modèles linguistiques rendent la créativité et le travail de la connaissance accessibles à tous. Toute personne disposant d’une connexion Internet peut désormais utiliser des outils tels que ChatGPT ou DALL-E 2 pour s’exprimer et donner un sens à d’énormes réserves d’informations, par exemple en produisant des résumés de texte.

La profondeur de l’expertise humaine dont font preuve les grands modèles de langage est particulièrement remarquable. En quelques minutes, les novices peuvent créer des illustrations pour leurs présentations commerciales, générer des argumentaires marketing, trouver des idées pour surmonter le blocage de l’écrivain ou générer un nouveau code informatique pour exécuter des fonctions spécifiées, le tout à un niveau de qualité généralement attribué aux experts humains.

Ces nouveaux outils d’IA ne peuvent pas lire dans les pensées, bien sûr. Un nouveau type de créativité humaine, mais plus simple, est nécessaire sous la forme d’invites textuelles pour obtenir les résultats recherchés par l’utilisateur humain.

Grâce à l’invite itérative – un exemple de collaboration homme-IA – le système d’IA génère des séries successives de sorties jusqu’à ce que l’humain qui écrit les invites soit satisfait des résultats.

Par exemple, le gagnant (humain) du récent concours Colorado State Fair dans la catégorie des artistes numériques, qui a utilisé un outil alimenté par l’IA, a fait preuve de créativité, mais pas du genre qui nécessite des pinceaux et un œil pour la couleur et la texture.

Bien qu’il y ait des avantages significatifs à ouvrir le monde de la créativité et du travail de la connaissance à tous, ces nouveaux outils d’IA ont également des inconvénients.

Premièrement, ils pourraient accélérer la perte de compétences humaines importantes qui resteront importantes dans les années à venir, en particulier les compétences en écriture.

Les établissements d’enseignement doivent élaborer et appliquer des politiques sur les utilisations autorisées de grands modèles linguistiques afin de garantir le fair-play et les résultats d’apprentissage souhaitables.

Deuxièmement, ces outils d’IA soulèvent des questions autour de la protection de la propriété intellectuelle. Alors que les créateurs humains sont régulièrement inspirés par des artefacts existants dans le monde, y compris l’architecture et les écrits, la musique et les peintures d’autres personnes, il y a des questions sans réponse sur l’utilisation appropriée et équitable par les grands modèles linguistiques d’exemples de formation protégés par le droit d’auteur ou open source.

Des poursuites en cours débattent actuellement de cette question, ce qui pourrait avoir des implications pour la conception et l’utilisation futures de grands modèles linguistiques.

Alors que la société navigue dans les implications de ces nouveaux outils d’IA, le public semble prêt à les adopter. Le chatbot ChatGPT est rapidement devenu viral, tout comme le générateur d’images Dall-E mini et d’autres. Cela suggère un énorme potentiel inexploité pour la créativité et l’importance de rendre le travail créatif et le savoir accessibles à tous.

Inexactitudes, biais et plagiat potentiels

Daniel Acuña, professeur agrégé d’informatique, Université du Colorado à Boulder

Je suis un utilisateur régulier de GitHub Copilot, un outil pour aider les gens à écrire du code informatique, et j’ai passé d’innombrables heures à jouer avec ChatGPT et des outils similaires pour le texte généré par l’IA. D’après mon expérience, ces outils sont bons pour explorer des idées auxquelles je n’avais jamais pensé auparavant.

J’ai été impressionné par la capacité des modèles à traduire mes instructions en texte ou code cohérent. Ils sont utiles pour découvrir de nouvelles façons d’améliorer le flux de mes idées ou créer des solutions avec des progiciels dont j’ignorais l’existence. Une fois que je vois ce que ces outils génèrent, je peux évaluer leur qualité et les éditer lourdement. Dans l’ensemble, je pense qu’ils élèvent la barre sur ce qui est considéré comme créatif.

Mais j’ai plusieurs réserves.

Un ensemble de problèmes est leur inexactitude – petites et grandes. Avec Copilot et ChatGPT, je cherche constamment à savoir si les idées sont trop superficielles – par exemple, du texte sans beaucoup de substance ou un code inefficace, ou une sortie qui est tout simplement fausse, comme des analogies ou des conclusions erronées, ou du code qui ne fonctionne pas. Si les utilisateurs ne critiquent pas ce que ces outils produisent, ils sont potentiellement dangereux.

Récemment, Meta a fermé son modèle de langage large Galactica pour le texte scientifique parce qu’il inventait des « faits » mais semblait très confiant. La préoccupation était que cela pourrait polluer Internet avec des mensonges à consonance confiante.

Un autre problème est celui des biais. Les modèles linguistiques peuvent apprendre des biais des données et les reproduire. Ces biais sont difficiles à voir dans la génération de texte, mais très clairs dans les modèles de génération d’images. Les chercheurs d’OpenAI, créateurs de ChatGPT, ont été relativement prudents quant à la réponse du modèle, mais les utilisateurs trouvent régulièrement des moyens de contourner ces garde-fous.

Un autre problème est le plagiat. Des recherches récentes ont montré que les outils de génération d’images plagient souvent le travail des autres. Est-ce que la même chose se produit avec ChatGPT? Je crois que nous ne savons pas. L’outil pourrait paraphraser ses données de formation – une forme avancée de plagiat. Les travaux de mon laboratoire montrent que les outils de détection de plagiat de texte sont loin derrière lorsqu’il s’agit de détecter la paraphrase.

Ces outils en sont à leurs balbutiements, compte tenu de leur potentiel. Pour l’instant, je crois qu’il existe des solutions à leurs limites actuelles. Par exemple, les outils pourraient vérifier les faits du texte généré par rapport aux bases de connaissances, utiliser des méthodes mises à jour pour détecter et supprimer les biais des grands modèles linguistiques et exécuter les résultats grâce à des outils de détection du plagiat plus sophistiqués.

Avec les humains dépassés, les emplois de niche et « faits à la main » resteront

Kentaro Toyama, professeur d’information communautaire, Université du Michigan

Nous, les êtres humains, aimons croire en notre spécificité, mais la science et la technologie ont prouvé à maintes reprises que cette conviction était fausse. Les gens pensaient autrefois que les humains étaient les seuls animaux à utiliser des outils, à former des équipes ou à propager la culture, mais la science a montré que d’autres animaux font chacune de ces choses.

Pendant ce temps, la technologie a écrasé, une par une, les affirmations selon lesquelles les tâches cognitives nécessitent un cerveau humain. La première machine à ajouter a été inventée en 1623. L’année dernière, une œuvre générée par ordinateur a remporté un concours d’art. Je crois que la singularité – le moment où les ordinateurs rencontrent et dépassent l’intelligence humaine – est à l’horizon.

Comment l’intelligence et la créativité humaines seront-elles valorisées lorsque les machines deviendront plus intelligentes et plus créatives que les personnes les plus brillantes ? Il y aura probablement un continuum. Dans certains domaines, les gens apprécient encore que les humains fassent les choses, même si un ordinateur peut le faire mieux. Cela fait un quart de siècle que Deep Blue d’IBM a battu le champion du monde Garry Kasparov, mais les échecs humains – avec tout leur drame – n’ont pas disparu.

Dans d’autres domaines, les compétences humaines sembleront coûteuses et superflues. Prenez l’illustration, par exemple. Pour la plupart, les lecteurs ne se soucient pas de savoir si le graphique accompagnant un article de magazine a été dessiné par une personne ou un ordinateur – ils veulent juste qu’il soit pertinent, nouveau et peut-être divertissant. Si un ordinateur peut bien dessiner, les lecteurs se soucient-ils de savoir si la ligne de crédit indique Mary Chen ou System X? Les illustrateurs le feraient, mais les lecteurs pourraient même ne pas le remarquer.

Et, bien sûr, cette question n’est pas noire ou blanche. De nombreux domaines seront hybrides, où certains Homo sapiens trouveront un créneau chanceux, mais la plupart du travail est effectué par des ordinateurs. Pensez à la fabrication – une grande partie est aujourd’hui accomplie par des robots, mais certaines personnes supervisent les machines, et il reste un marché pour les produits faits à la main.

Si l’histoire est un guide, il est presque certain que les progrès de l’IA entraîneront la disparition de plus d’emplois, que les personnes de classe créative avec des compétences exclusivement humaines deviendront plus riches mais moins nombreuses, et que ceux qui possèdent une technologie créative deviendront les nouveaux méga-riches. S’il y a un côté positif, c’est peut-être que lorsque encore plus de gens sont sans moyens de subsistance décents, les gens pourraient rassembler la volonté politique de contenir les inégalités galopantes.

Les anciens emplois disparaîtront, de nouveaux emplois apparaîtront

Mark Finlayson, professeur agrégé d’informatique, Florida International University

Les grands modèles de langage sont des machines sophistiquées de complétion de séquences: Donnez-en une séquence de mots (« Je voudrais manger un… ») et elle renverra des complétions probables (« … pomme. »). Les grands modèles de langage comme ChatGPT qui ont été formés sur un nombre record de mots (trillions) en ont surpris beaucoup, y compris de nombreux chercheurs en IA, par leur réalisme, leur étendue, leur flexibilité et leur sensibilité au contexte.

Comme toute nouvelle technologie puissante qui automatise une compétence — dans ce cas, la génération de texte cohérent, quoique quelque peu générique —, elle affectera ceux qui offrent cette compétence sur le marché. Pour concevoir ce qui pourrait arriver, il est utile de rappeler l’impact de l’introduction des programmes de traitement de texte au début des années 1980.

Certains métiers comme dactylographe ont presque complètement disparu. Mais, d’un autre côté, toute personne disposant d’un ordinateur personnel était capable de générer facilement des documents bien typographiés, ce qui augmentait considérablement la productivité.

De plus, de nouveaux emplois et compétences sont apparus qui étaient auparavant inimaginables, comme l’élément de CV souvent inclus MS Office. Et le marché de la production de documents haut de gamme est resté, devenant beaucoup plus capable, sophistiqué et spécialisé.

Je pense que ce même schéma s’appliquera presque certainement aux grands modèles linguistiques : vous n’aurez plus besoin de demander à d’autres personnes de rédiger un texte cohérent et générique. D’autre part, les grands modèles linguistiques permettront de nouvelles méthodes de travail et conduiront également à de nouveaux emplois encore inimaginables.

Pour voir cela, considérons seulement trois aspects où les grands modèles de langage ne sont pas à la hauteur. Tout d’abord, il peut falloir un peu d’intelligence (humaine) pour créer une invite qui obtient le résultat souhaité. Des modifications mineures de l’invite peuvent entraîner une modification majeure de la sortie.

Deuxièmement, les grands modèles de langage peuvent générer des résultats inappropriés ou absurdes sans avertissement.

Troisièmement, pour autant que les chercheurs en IA puissent le dire, les grands modèles linguistiques n’ont aucune compréhension abstraite et générale de ce qui est vrai ou faux, si quelque chose est bien ou mal, et ce qui relève simplement du bon sens. Notamment, ils ne peuvent pas faire des calculs relativement simples. Cela signifie que leur sortie peut être inattendue trompeuse, biaisée, logiquement erronée ou tout simplement fausse.

Ces échecs sont des opportunités pour les travailleurs créatifs et du savoir. Pour une grande partie de la création de contenu, même pour le grand public, les gens auront toujours besoin du jugement des créatifs humains et des travailleurs du savoir pour inciter, guider, rassembler, organiser, éditer et surtout augmenter la production des machines.

De nombreux types de langage spécialisé et hautement technique resteront hors de portée des machines dans un avenir prévisible. Et il y aura de nouveaux types de travail – par exemple, ceux qui feront une entreprise en affinant les grands modèles linguistiques internes pour générer certains types de texte spécialisés pour desservir des marchés particuliers.

En résumé, bien que les grands modèles linguistiques laissent présager certainement des perturbations pour les travailleurs créatifs et du savoir, il existe encore de nombreuses opportunités précieuses pour ceux qui souhaitent s’adapter et intégrer ces nouveaux outils puissants.

Les progrès technologiques mènent à de nouvelles compétences

Casey Greene, professeur d’informatique biomédicale, campus médical Anschutz de l’Université du Colorado

La technologie change la nature du travail, et le travail du savoir n’est pas différent. Au cours des deux dernières décennies, la biologie et la médecine ont subi une transformation en faisant progresser rapidement la caractérisation moléculaire, comme le séquençage rapide et peu coûteux de l’ADN et la numérisation de la médecine sous forme d’applications, de télémédecine et d’analyse de données.

Certaines étapes de la technologie semblent plus importantes que d’autres. Yahoo a déployé des curateurs humains pour indexer le contenu émergent à l’aube du World Wide Web.

L’avènement d’algorithmes qui utilisaient des informations intégrées dans les modèles de liaison du Web pour hiérarchiser les résultats a radicalement modifié le paysage de la recherche, transformant la façon dont les gens recueillent des informations aujourd’hui.

La sortie de ChatGPT d’OpenAI indique un autre saut. ChatGPT encapsule un grand modèle de langage de pointe adapté au chat dans une interface hautement utilisable. Il met une décennie de progrès rapides en intelligence artificielle à portée de main. Cet outil peut écrire des lettres de motivation passables et instruire les utilisateurs sur la résolution de problèmes courants dans les styles de langue sélectionnés par l’utilisateur.

Tout comme les compétences pour trouver des informations sur Internet ont changé avec l’avènement de Google, les compétences nécessaires pour tirer le meilleur parti des modèles de langage seront centrées sur la création d’invites et de modèles d’invites qui produisent les résultats souhaités.

Pour l’exemple de la lettre de motivation, plusieurs invites sont possibles. « Rédiger une lettre de présentation pour un emploi » produirait un résultat plus générique que « Rédiger une lettre de présentation pour un poste de spécialiste de la saisie de données ».

L’utilisateur peut créer des invites encore plus spécifiques en collant des parties de la description de poste, du CV et des instructions spécifiques – par exemple, « mettre en évidence l’attention aux détails ».

Comme pour de nombreuses avancées technologiques, la façon dont les gens interagissent avec le monde changera à l’ère des modèles d’IA largement accessibles. La question est de savoir si la société utilisera ce moment pour faire progresser l’équité ou exacerber les disparités.

Source : thenextweb