Articles de fond de la revue Rebuilding Success - Automne/Hiver 2023 > L’inéluctabilité de l’intelligence artificielle
L’inéluctabilité de l’intelligence artificielle
Par Andrew Flynn
Lorsque le robot conversationnel ChatGPT, fondé sur l’intelligence artificielle, est devenu accessible au public en 2022, Adam Zeldin, CPA, CA, PAIR, SAI, se souvient d’avoir « vécu un genre de crise existentielle au sujet de son [mon] avenir à titre de professionnel de l’insolvabilité. »
Comme bien d’autres, le vice-président de Richter a pu constater le vaste potentiel d’un outil d’IA qui répond aux questions d’une manière si humaine qu’il est difficile de ne pas l’imaginer en train de faire une grande partie du travail d’un être humain.
M. Zeldin a trouvé le robot conversationnel axé sur l’IA très utile pour faire la correction d’épreuves de textes, même lorsqu’ils étaient longs. Poussant la technologie un peu plus loin, il a tenté de faire participer l’outil à la rédaction de parties d’un rapport qui l’obligerait à s’appuyer sur des décisions antérieures de tribunaux et à déterminer celles qui étaient pertinentes.
« L’outil a été utile pour résumer certaines choses, mais j’ai réalisé que je ne pouvais pas avoir la certitude qu’il disposait de la totalité de la base de données et qu’il était en mesure de résumer l’ensemble de l’information. Il s’agissait essentiellement d’un problème d’exhaustivité et d’exactitude, et je n’arrivais tout simplement pas à gagner confiance en l’outil. »
M. Zeldin s’est heurté à une expérience très répandue parmi les avocats, les comptables et les autres professionnels qui ont essayé de tirer parti des robots conversationnels : ces robots sont assez efficaces pour certaines choses, et laissent clairement à désirer pour d’autres. Toutefois, M. Zeldin a également trouvé cette expérience assez inquiétante : il a pu constater l’énorme potentiel de la technologie, même pour cet outil d’IA relativement limité.
« Ma première réaction en a été une d’inquiétude et de peur : est-il possible qu’on n’ait plus besoin de moi pour rédiger des rapports? Se peut-il que je n’aie plus besoin du tout d’expertise en modélisation financière ou en préparation de rapports pour les tribunaux? se questionne M. Zeldin.
Où les choses en seront-elles dans un an, dans deux ans, dans cinq ans? Est-ce que je peux simplement écrire quelques mots dans l’outil pour qu’il recrache un document final? C’est quand je pense à tout ça que la peur me revient en tête. »
L’IA n’est pas une menace pour les emplois – pour l’instant
Bill Syrros, chef, Laboratoires exponentiels de BDO, ne voit pas l’IA devenir une menace de sitôt pour les emplois du domaine de l’insolvabilité. Expert en systèmes d’intelligence artificielle, M. Syrros s’est joint à BDO lorsque la société a fait l’acquisition de son entreprise en démarrage, Lixar IT, en 2020. Quand il pense à l’utilisation de l’IA, il n’y perçoit que des possibilités pour tous les professionnels, y compris ceux de l’insolvabilité.
« Je vois l’émergence de cet outil comme une sorte de nouvelle "course aux armements" dans laquelle les gens doivent décider à quel point ils souhaitent être efficaces, affirme-t-il. Veulent-ils devenir une super puissance, ou préfèrent-ils le statu quo? »
Il compare l’explosion actuelle de l’IA générative à l’essor de Google il y a 20 ans. « Les gens qui souhaitaient continuer à trouver un numéro de téléphone dans l’annuaire téléphonique avaient encore la possibilité de le faire. Mais pour ceux qui utilisaient Google, c’était dix fois plus rapide, et il n’était pas nécessaire d’avoir ce gros bottin de papier sur le coin du bureau. »
L’IA générative est la technologie vers laquelle les professionnels de l’insolvabilité devraient se tourner s’ils veulent comprendre la récente progression des technologies d’IA. Bon nombre de plateformes logicielles et infonuagiques, ainsi que presque tous les services de cybersécurité, utilisent des composantes d’IA intégrées depuis des années. Google, la plateforme Microsoft Azure et d’innombrables autres entreprises tirent déjà parti de la puissance de l’IA dans les produits qu’elles offrent sur le marché, et d’autres acteurs s’ajoutent chaque jour à la liste.
Toutefois, l’IA générative se distingue par le fait qu’elle est accessible au grand public et semble se comporter de façon étrangement humaine. Posez une question à ChatGPT ou à Google Bard et ils vous répondront dans un français parfait. L’outil peut faire preuve de créativité : il peut rédiger une histoire de fiction, un poème ou même une blague inédite. Il peut écrire une lettre à votre grand-mère ou correspondre avec votre client dans le langage des affaires en présentant les renseignements que vous lui fournissez.
Les grands modèles de langage et l’apprentissage profond sont les fondements de l’IA aujourd’hui
Une grande partie de ce que le secteur des technologies appelle l’« IA » consiste, en réalité, en un ensemble de programmes et d’applications qui font appel aux grands modèles de langage (GML). Ces modèles sont conçus pour émuler l’intelligence humaine au moyen de l’apprentissage automatique, un volet de l’IA qui utilise des algorithmes pour évaluer les données et non seulement apprendre comment fonctionne un langage, mais aussi en améliorer sa compréhension.
De nouvelles technologies, comme le robot ChatGPT d’OpenAI, utilisent ces stratégies pour créer des programmes capables de réagir de manière très humaine à des questions posées par des êtres humains – elles répondent à des requêtes et entretiennent même des conversations qui peuvent sembler presque trop réelles.
L’outil ne réfléchit pas du tout comme un être humain. Il utilise plutôt l’apprentissage profond, un sous-ensemble de l’apprentissage automatique, pour créer du contenu en prédisant le texte. Autrement dit, il génère une réponse en examinant les données auxquelles il a accès et en prédisant le prochain mot, puis la prochaine phrase, puis le prochain paragraphe qu’il doit rédiger.
Par exemple, lorsqu’on lui demande de définir le rôle d’un syndic autorisé en insolvabilité (SAI), ChatGPT donne l’impression de savoir de quoi il parle :
Un syndic autorisé en insolvabilité (SAI), anciennement appelé syndic de faillite au Canada, est un professionnel certifié et autorisé par le Bureau du surintendant des faillites (BSF) à administrer diverses procédures d’insolvabilité, notamment les faillites et les propositions de consommateur. Ce rôle est essentiel pour aider les particuliers, les entreprises et les sociétés à gérer leurs difficultés financières et à régler les situations d’insolvabilité.
L’outil donne également des conseils assez judicieux à la personne qui lui pose la question :
Si vous êtes aux prises avec des difficultés financières et envisagez des options comme la faillite ou une proposition de consommateur, en consultant un syndic autorisé en insolvabilité, vous pourrez recevoir des conseils d’expert sur la solution qui conviendra le mieux à votre situation.
De plus (ce qui ne manquera pas d’entraîner des soupirs de soulagement chez de nombreux professionnels de l’insolvabilité), ChatGPT indique en toute candeur qu’il n’est pas en mesure de remplacer un SAI : « Même si je peux fournir des renseignements de base et aider les utilisateurs à comprendre les concepts associés à l’insolvabilité, le rôle d’un syndic autorisé en insolvabilité comprend un niveau d’expertise et une capacité juridique qu’une IA comme moi ne peut pas reproduire. »
Les robots conversationnels comme ChatGPT, l’IA de Bing (Microsoft) et Google Bard peuvent répondre de façon très humaine et offrir des conseils très convaincants et utiles. Des entreprises de partout au monde les utilisent pour produire des documents de marketing, faire un tri parmi des études de recherche, colliger des tonnes de données – une tâche qui nécessiterait des heures de travail de la part d’un être humain – et bien plus encore.
Une IA pourrait-elle, à terme, faire ce que fait un SAI?
Bien des gens voient l’utilité d’un outil aussi puissant, mais d’autres estiment qu’il pourrait mettre leur gagne-pain en jeu. Un robot conversationnel, s’il est doté des détails d’un dossier d’insolvabilité, pourrait-il remplacer un SAI?
Probablement pas avant des décennies, voire jamais, estime Matissa Hollister, experte de l’utilisation de l’IA en entreprise et professeure adjointe en comportement organisationnel à la Faculté de gestion Desautels de l’Université McGill. Mais sa valeur pourrait résider dans sa capacité à automatiser les tâches les plus banales dans tous les domaines où il y a une abondance de données, comme le secteur financier dans son ensemble.
« Un système d’IA générative peut seulement aider à accomplir une partie du travail, explique Mme Hollister. Il faut donc se poser des questions comme : "Comment vais-je redéfinir cet emploi? Quelles sont les conséquences de ce changement? Que signifie le fait de se voir retirer une partie de son travail? Quelles sont les répercussions en ce qui concerne la qualité du travail?"
Même pour les systèmes d’IA sur mesure qui sont davantage orientés vers les tâches et ne font qu’utiliser des données, un être humain doit surveiller l’outil pour s’assurer que les détails du travail sont adéquats, affirme-t-elle.
Il s’agit là d’un problème plus important pour l’IA générative que pour les systèmes conçus sur mesure. Il est nécessaire d’être vraiment franc et d’expliquer à la personne qui l’utilise ce que fait le système, les limites qui le caractérisent et à quel point la contribution humaine est toujours valorisée.
Les gens sont plus enclins à utiliser l’IA s’ils n’en ont pas peur. Ils sont plus susceptibles de l’utiliser correctement s’ils comprennent que le système n’est pas parfait et s’ils connaissent ses limites. »
Il est extrêmement important qu’un être humain participe au processus d’utilisation de l’IA générative afin de peaufiner ce que produit le grand modèle de langage. Et cet être humain doit comprendre d’où l’IA tire ses données et comment perfectionner le processus de ses réponses, un travail que l’on appelle l’« ingénierie de requête ».
M. Syrros cite le cas récent d’une collègue qui s’inquiétait du fait que ChatGPT ait pu utiliser des documents protégés par droit d’auteur dans ses réponses. « J’ai répondu : "Avez-vous demandé à ChatGPT de fournir les sources de l’information qu’il vous a présentée?" Elle a été surprise que l’outil puisse le faire. Il recrache des références à certaines choses; il faut lui poser la question tout comme si vous parliez à une autre personne. S’il ne répond pas, ou que le livre ou la source n’existe pas, c’est un bon indice, n’est-ce pas? »
Une mise en garde pour les professionnels de la finance et du droit
Il ne fait aucun doute que l’IA générative a le potentiel d’améliorer la productivité, de réduire le temps consacré à faire le tri de données complexes, de créer des profils financiers plus exacts et de simplifier des milliers de tâches compliquées, que ce soit dans le domaine du marketing, du service à la clientèle ou de la sécurité, pour ne nommer que ceux-là.
Mais aussi révolutionnaire que soit cette nouvelle technologie, il est essentiel de noter qu’elle est toujours en développement et qu’elle présente encore des inconvénients considérables. L’histoire récente de deux avocats new-yorkais spécialisés dans les dommages corporels devrait servir de mise en garde à tout professionnel travaillant dans le domaine de l’insolvabilité. Steven A. Schwartz et Peter LoDuca ont été condamnés à une amende de 5 000 $ après avoir utilisé ChatGPT pour compléter des recherches juridiques dans le cadre d’une affaire. Malheureusement, le robot conversationnel (qui, soit dit en passant, n’a accès à aucune donnée postérieure à 2021) a créé de toutes pièces un certain nombre des décisions citées comme précédents devant le tribunal. De telles déviations, appelées « hallucinations », ne sont pas rares; elles sont l’un des dangers de l’outil et renforcent la nécessité de la supervision humaine.
« Les données utilisées pour former l’IA sont essentiellement tout ce que les êtres humains ont rédigé et rendu public, mais à la base, l’IA reste un système qui prédit le prochain mot de façon quelque peu aléatoire, explique Mme Hollister.
L’une des raisons pour lesquelles l’outil "hallucine", c’est en quelque sorte qu’il prédit au hasard le prochain mot, mais quand il choisit ce mot, il s’enlise dans un genre d’impasse. Une fois qu’il s’est engagé dans une direction, l’outil est forcé à se conformer à ce choix et à rester cohérent. C’est pourquoi il commence à présenter des arguments solides et très étranges, par exemple. »
L’utilité de l’IA
Malgré tout, il ne faut pas croire que l’IA ne sera pas extrêmement utile. Il est possible qu’elle change la donne pour le secteur au cours des prochaines décennies.
« Nous en sommes, en quelque sorte, à la première ronde, affirme M. Syrros. Dans cinq ans, les gens créeront leurs propres personas, qui leur ressembleront, et chacun aura son propre grand modèle de langage : vous, moi, tous ceux qui veulent en avoir un… et l’outil parlera comme nous le faisons. Il réagira comme nous le faisons. Il aura même notre voix, si nous le lui demandons, car j’imagine que la vidéo et la voix finiront par faire partie de la technologie.
Ces personas virtuelles pourraient même nous représenter dans le monde virtuel, où elles interagiront avec des clients à l’aide de données qui nous sont propres, avec nos personnalités et nos qualifications. Nous pourrons les alimenter avec les données dont nous sommes nous-mêmes responsables et que nous décidons de saisir dans le modèle.
En réalité, nous utiliserons ces personas dans le cadre de notre profil d’emploi, précise M. Syrros. Mon profil LinkedIn ne sera peut-être pas moi en tant qu’être humain; ce sera mon robot qui le gérera. Il saura comment je parle, connaîtra mon intonation et mes champs d’intérêt. Il pourrait être connecté à mon courriel et à d’autres composantes.
En somme, quelles répercussions l’IA a-t-elle sur un professionnel de l’insolvabilité? À cette question, je répondrais ceci : "Comment l’IA touchera-t-elle tous les professionnels en général?" »
Que doivent faire les professionnels dès maintenant pour tirer parti de l’IA?
« J’ai eu de nombreuses discussions avec des personnes de toutes les générations, plus ou moins âgées, au sujet de l’IA, mentionne M. Zeldin. L’ancienne génération en parle en mettant en lumière le fait que nous avons déjà vécu ce genre de situation où une nouvelle technologie est lancée et tout le monde exagère à ce sujet. Ensuite, cette technologie trace sa voie et nous adoptons une attitude qui nous fait voir le verre à moitié plein; puis, nous nous adaptons et continuons à innover. »
« J’espère que c’est ainsi que les choses se dérouleront », affirme M. Zeldin. « Mais je ne sais pas… Il semble y avoir a quelque chose de différent. »
Les experts s’accordent à dire que comme pour toute nouvelle technologie, les professionnels devront apprendre comment utiliser l’IA générative adéquatement et efficacement. Ce n’est que de cette façon qu’ils pourront évaluer la mesure dans laquelle l’IA soutient leurs activités professionnelles ou leur nuit.
« Lorsqu’une personne me demande comment utiliser correctement l’IA générative, je lui réponds de se former. D’accepter de faire de nouveaux apprentissages. D’acquérir des compétences complémentaires. D’apprendre à faire de l’ingénierie de requête. Savez-vous ce qui est fou, quand on parle d’ingénierie de requête? C’est comme de mettre la table avant le souper.
Il est extrêmement important de perfectionner ces compétences pour comprendre et utiliser les technologies comme l’IA générative. Vous devez agrandir votre réseau pour y inclure des gens qui savent comment utiliser l’IA et comment lui parler. Enfin, il s’agit d’acquérir une expérience pratique : utilisez l’IA, commencez à vous y familiariser.
La réalité, c’est que les applications pratiques qui vous seront enseignées pourront être utilisées dans tous les secteurs d’activité. Tous professionnels confondus. »
Pour lire la réponse de ChatGPT à une question sur l'impact de l'IA sur le secteur de l'insolvabilité au Canada, veuillez cliquer ici.