Martin Duchaîne: Alors bonjour, toujours pour la journée Défi numérique, on parle des bons points, des éléments, des bonnes pratiques. Qu'est-ce qui crée de la valeur, on le vit avec Geneviève à l'instant. Et ensuite, un des éléments les plus importants, c'est des équipes, communs de travail, on appelle ça des processus d'affaires. Un gros mot, mais vous ne le savez pas, mais vous avez tous des processus d'affaires, et c'est une bonne nouvelle. Sauf que d'habitude, ils sont informels, créés, améliorés, votre performance, mais souvent, il faut les documenter, il faut le voir. Il y a des avantages. Tu sais, les processus, c'est comme le mot productivité, ça fait peur, mais c'est puissant quand on sait l'utiliser correctement. Alors Marc-Antoine, toi, tu es un Jedi des processus. En tout cas, tu es quelqu'un qui réfléchit beaucoup sur la question et qui nous dit, OK, comment, avec la numérique, prendre le virage sans déraper? J'aime beaucoup le nom. Donc, encore une fois, si on va dans le 20-25% qui en profitent, il y a quelques éléments que tu vas nous partager aujourd'hui. C'est bon. Merci Marc-Antoine. Marc-Antoine: Merci beaucoup, Martin. Alors, Marc-Antoine Parent, je ne sais pas si je suis un Jedi des processus, mais je suis, bon, je suis programmeur depuis plus de 40 ans. Je suis fasciné par l'intelligence sous toutes ses formes, sciences cognitives, neurobiologie, épistémologie. Je me suis beaucoup intéressé à ça et j'ai travaillé dans des boîtes qui utilisaient l'intelligence artificielle très tôt, sous le biais souvent du langage, du traitement du langage naturel. Entre autres, un des premiers correcteurs grammaticaux, correcteur 101, l'ancêtre d'Antida, pour ceux qui s'en souviennent. Mais avant ça, je lisais sur l'intelligence artificielle, j'étais très fasciné par le sujet comment on pense. Et j'ai, depuis le temps que je pense à ça, j'ai des nouvelles conclusions là-dessus, c'est ce que je veux partager avec vous. Et oui, quand on se demande comment on pense, la question des, comment on apprend à le faire mieux et comment on arrive à prendre des décisions ensemble. Les décisions, bien ça devient des processus. Alors, si on parle de virages technologiques, d'abord, de quels virages on parle là? Il me semble que je suis passé par le microinformatique, le web, le web 2, le social, le web 3, le sémantique, l'autre web 3, les cryptos, il y a beaucoup de virages, ça fait une espèce de spirale. Et on veut tous prendre le virage parce que, évidemment, il faut être concurrentiel, on veut être productif, on en a parlé, réactif, adaptable. Oui, c'est important. Il y a un côté FOMO, mais il y a un côté FOMO basé dans le réel. On peut se faire dépasser par des nouvelles technologies. Mais en même temps, quand on parle d'utiliser des technologies, surtout pour automatiser un processus qu'on vend à nos clients, une pratique qu'on a, une expertise qu'on a, bien, d'abord, l'automatisation, il y a un aspect coût-bénéfice. Il y a un coût de mise en place, il y a un coût de formation, il y a un coût d'entretien, il y a un coût de mise à jour. Ça va bien quand c'est des processus uniformes. Quand on a une usine, une manufacture, comme l'expliquait Geneviève, c'est fantastique. On fait des ampoules en série, tout va bien. Quand les technologies changent sans arrêt, là, tu ne fais plus des ampoules, tu fais des LED. Moi, l'exemple que je donne, ce n'est pas dans les processus uniformes, c'est surtout les services conseils. Là, tous tes clients sont différents. L'exemple qui vient à l'esprit par sursis, qui m'est le plus familier, c'est une boîte qui vend du service en transformation numérique. Là, chaque client a son processus à lui, il faut automatiser. Ce n'est pas des ampoules, ce n'est pas très uniforme. Et en plus, la technologie qu'on doit utiliser change sans arrêt. Alors, on sent que automatiser peut devenir, il y a un coût, un bénéfice net, réel, mais aussi des coûts et des risques. Si on n'automatise pas la bonne affaire, c'est l'exemple que Geneviève donnait, ou Patrice plutôt, a donné un exemple magnifique, en dehors de son exposé: quelqu'un qui voulait faire un chatbot pour une compagnie, il commençait donc par faire une F.A.Q. On a-tu besoin d'automatiser ça? Qu'est-ce qu'on veut automatiser? Pourquoi? Ça vaut-il la peine de l'automatiser? Et pour savoir ça, quand on est dans cette espèce d'entre-deux entre le répétable et le pas répétable et l'unique de chaque client, il faut savoir qu'est-ce qu'on... L'automatisation, c'est à partir d'une généralisation. On a pris des cas concrets, il y en a beaucoup, je vous souhaite que vous en ayez beaucoup, et on essaie de dire qu'est-ce qui est, quelle est l'abstraction que je peux faire pour effacer certains détails, pour dire là, il y a une généralité qui vaut la peine d'automatiser. Et donc, c'est un processus intellectuel d'abstraction. Puis, on peut en faire trop. On peut manquer les besoins spécifiques de la fameuse longue traîne. On peut aussi, si on automatise, on peut manquer les signaux du changement. On est dans un monde qui change sans arrêt. Si on ne surveille pas, bien là, finalement, les besoins des clients changent, l'environnement change, et si on n'est pas à l'écoute, on ne s'en rend pas compte parce qu'on a trop automatisé encore une fois. Et finalement, il y a une perte de contact humain. On en a tous eu assez marre de parler à des chatbots, des robots vocaux, etc., etc., des formulaires. Bon, vous perdez des clients comme ça aussi. Alors, il faut généraliser assez pour atterrir le vrai bénéfice, pas trop. C'est une question d'équilibre. Il y a une question de jugement là-dedans. Et quand on parle de généraliser et d'être sensible au changement, et d'être sensible à chaque nouveau client et à chaque nouveau besoin, il faut un processus de généralisation agile. Généraliser, c'est toujours à remettre en cause. Et donc, l'automatisation doit aussi être d'une certaine façon agile. Et une généralisation, c'est une hypothèse. Une hypothèse peut se révéler vraie ou fausse. Encore une fois, on a besoin de jugement. Et c'est de plus en plus difficile parce qu'on vit tous une surcharge d'informations. On en a déjà parlé. Plus d'informations, plus vite, et souvent, pas fiable. Même sans parler des informations, on a parlé de la qualité de l'information. Automatiser la généralisation elle-même, c'est un peu ça le but de l'intelligence artificielle. Dans les premiers efforts, dans les années 50, on a eu, par exemple, des systèmes experts qui ne cherchaient pas à faire des généralisations, mais à capturer les généralisations faites par les experts sous forme de règles. Et je pense que le principe des règles est très important. Qu'ensuite, un ordinateur pouvait exécuter et donc on pouvait avoir le résultat du jugement de l'expert sans l'expert. L'IA symbolique, il y a eu des efforts, mais extrêmement anciens, pour travailler sur comment une IA peut manipuler des symboles pour essayer de trouver des nouvelles règles. On pense à Eurisko et Cyc de Lenat entre autres. Yassine avait parlé de Minsky, il a travaillé beaucoup là-dessus. Pendant ce temps-là, il y avait tout le travail parallèle sur les réseaux de neurones. Les premiers réseaux de neurones étaient très primitifs, d'ailleurs Minsky a beaucoup critiqué le Perceptron. Mais ensuite, il y a eu d'abord le fameux "deep learning", l'apprentissage profond, avec la rétropropagation, où on demande aux réseaux de neurones de s'accorder à une généralisation existante. On s'est servi de niveaux d'abstraction successive finalement. Les couches de neurones correspondent à... chaque couche regarde les détails de la couche précédente, et donc à chaque couche, on monte en abstraction. C'est ça, aussi, de la généralisation. Mais en général, avec la rétropropagation, on a l'idée du résultat, on demande aux réseaux de classifier. Et c'est après, avec l'AI générative, qu'on s'est mis à rajouter pas juste la couche précédente, l'espace, mais aussi l'attention et, d'une certaine façon, le temps. Je dis d'une certaine façon, c'est pas comme ça que ça fonctionne, mais il y a quelque chose qui est de l'ordre du temps. Mais là, on est dans le beaucoup plus stochastique, c'est pas explicable, on ne comprend pas vraiment ce qui se passe dans le réseau de neurones. On le comprend mathématiquement, mais on ne sait pas pourquoi il arrive à une réponse donnée. Même chose avec les algorithmes génétiques. Il y a eu des choses un peu intermédiaires avec l'apprentissage automatique, où l'apprentissage automatique peut identifier, dans un nuage de cas, les agrégats et les caractéristiques qui expliquent le mieux les agrégats. Là, on est vraiment dans la recherche d'indicateurs. Bref, tout ça, ça fait depuis les années début 50. La théorie des réseaux de neurones remonte à McCulloch en 48, 49. Pourquoi on parle maintenant tellement d'intelligence artificielle? Il y a eu une montée en puissance des ordinateurs, évidemment. Mais l'IA générative nous parle. Elle a plus ou moins passé le test de Turing et on est capable de supposer qu'elle est intelligente, ce qu'on n'a jamais vraiment supposé avec les technologies précédentes. Et ça, c'est aussi la façon dont on attribue de l'intelligence à des objets qui ne peuvent pas en avoir. À une époque, on a créé le dieu du tonnerre parce qu'on ne connaissait pas la cause des éclairs. On est en train de faire un peu la même chose. Bon, mais l'IA reste quand même capable de faire un certain nombre de choses. Et là, comment on l'utilise? Là, je parle de quel rôle on est en train de donner à l'IA. On est en train de remplir notre bureau avec, évidemment, on peut s'en servir comme mémoire généraliste. L'IA accumule la connaissance, résume la connaissance de tout ce qui s'est écrit sur le web. C'est énorme, c'est considérable, c'est utile. On peut lui poser des questions et il peut vous conseiller en dehors de votre domaine d'expertise. C'est merveilleux. On peut s'en servir, on peut lui donner des tâches comme un membre junior et on peut donc lui faire faire du codage, du graphisme, du secrétariat. Ces images-là ont évidemment été générées par AI, c'est ce que j'ai fait. C'est merveilleux. On peut s'en servir comme conseiller. On peut lui demander de discuter les réponses. Quelqu'un en a parlé plus tôt en disant, surtout ne demandez-vous pas quoi faire, demandez-lui, est-ce que ça, c'est une bonne idée? Mais dans tous ces cas-là, si vous n'avez pas une base, si vous ne connaissez pas le domaine et qu'il vous donne des mauvais conseils, vous ne le saurez jamais. Si le membre junior fait du mauvais travail, vous ne vous en rendrez pas compte. Alors, il y a des vrais avantages et des vrais risques. Bon, c'est des risques calculés, je pense qu'on peut, mais il faut être conscient du risque, simplement. Et là, pour moi, le vrai dérapage, c'est quand on donne à l'AI la tâche de prendre les décisions. Je pense que ça, c'est très dangereux. Pourquoi? D'abord parce que l'AI dérape sans arrêt. On le sait, on a beaucoup parlé des hallucinations, je ne reviendrai pas là-dessus. Les bases des décisions sont inconnues. On peut demander à une IA, pourquoi tu as pris cette décision-là, pourquoi tu me proposes ça? Elle va te sortir, elle va prendre ça comme un nouveau problème et te sortir. Voici ce que quelqu'un dirait en réponse à cette question. Est-ce que ça correspond au processus interne de l'IA? Probablement pas, l'IA n'est pas particulièrement capable de faire de l'introspection. Non plus, on fait du raisonnement motivé. Quand on nous demande pourquoi tu veux ça, les gens vont inventer des raisons de pièces souvent. Mais avec une personne, on peut creuser et voir c'est quoi tes vraies motivations. L'IA, la raison pour laquelle elle a pris la décision, c'est parce que ça venait de son entraînement, qui venait de quelqu'un auquel l'IA n'a pas accès, alors ce n'est pas possible d'aller retracer les raisons cachées. Et les biais cachés, il y en a plein. On connaît tous les histoires, j'espère, d'IA à qui on demande de prendre des jugements juridiques aux policiers et qui vont reproduire les biais des forces de police antérieures. C'est des données d'entraînement. Il y a aussi un autre problème, c'est qu'il y a des gens qui introduisent des biais sciemment dans l'IA. On a parlé de l'IA chinoise, posez-lui pas de questions sur Tien an Men. Maintenant, on a découvert que presque toutes les IA ont été dans leur ensemble d'entraînement... Il y avait des blogs que la Russie avait mis en place pour établir la propagande et que ça fasse partie du corpus d'entraînement. Alors, toutes les IA contiennent de la propagande russe. Ça, c'est une réalité. Quand on parle de risque, on se dit souvent, c'est pas grave, il y a des biais, mais on va mettre un humain qui va décider, qui va prendre la décision à la place, qui va surveiller ce que fait l'IA. Ça, c'est ce qu'on appelle l'humain dans la boucle. Je m'excuse, (moi aussi j'ai pris Chaplin pour le visuel), l'humain dans la boucle, je pense que c'est le plus grand canular de l'histoire de l'informatique. Parce que quand on reçoit un raisonnement, il faut retracer le raisonnement. C'est au moins difficile de retracer un raisonnement et de le vérifier et de trouver les failles que de le penser soi-même. C'est pas moins d'effort. Et quelqu'un à qui on demande de recevoir un flux ininterrompu de raisonnement auquel il doit donner son tampon encore valide, invalide, à un moment donné, il voit plus rien. Ça, c'est empirique. Les gens qui sont dans cette situation de vérifier le travail d'une IA de façon continue, ils voient plus rien, c'est très rapide. C'est ce qu'on appelle l'anti-centaure. Le centaure, c'est la pensée humaine liée à la puissance du cheval. L'anti-centaure, c'est l'inverse quand l'humain est au service de la machine qui est au plein vers. Et finalement, pourquoi les gens le font quand même, même si on sait très bien que ça ne fonctionne pas, c'est que finalement, on demande à la personne d'être un bouc émissaire moral. Quand il y a une erreur, c'est parce que l'humain n'a pas bien vérifié. Alors qu'en fait, la personne qui est responsable, c'est la personne qui a mis l'IA en place. Mais il ne faut surtout pas le dire. Ça devient un gouffre d'imputabilité. Il y a beaucoup d'automatisation qui servent exactement à dire « ah, mais c'est pas ma décision ». Et je pense que j'espère que c'est pas là que vous voulez aller. Alors ça, c'est les dérapages de l'IA, une tentative de les résoudre par l'humain dans la boucle, qui fonctionne mal. Mais l'IA aussi a ses dérapages intellectuels. On s'entend que... pardon: L'humain face à l'IA a ses dérapages intellectuels. J'ai dit, on ne peut pas faire en continu cette vérification, qui à un moment donné, ça devient de la paresse intellectuelle. On a de plus en plus de gens qui font faire du code par des IA, mais on observe aussi une augmentation du nombre de failles de sécurité dans du code en déploiement parce que, ben, les gens ont fait faire du code par l'IA, ils ne l'ont pas vérifié ou ils n'avaient pas nécessairement la compétence pour le vérifier. Et quand ils mettent ça en déploiement... Je suis très pour le low-code pour le prototypage. C'est génial. Mais à un moment donné, si on passe en production, je pense que le métier a encore sa place. J'ai un autre exemple d'un professeur à qui je parlais, auquel un de ses élèves ou une de ses élèves avait sorti une énormité. Et le professeur disait, voyons, d'où tu sors ça? Et l'élève avait dit, ben, regarde, c'est ce que ChatGPT me dit. C'est la preuve. Ça, ça demande de l'esprit critique, mais l'esprit critique, on peut l'avoir quand on a, à la base, assez d'acquis pour voir qu'il y a une dissonance. Mais si tu as construit ton éducation sur du génératif, ça va mal. Évidemment, quand les robots construisent leur connaissance sur du génératif, parce que maintenant l'IA se mord la queue de plus en plus, parce qu'il y a de plus en plus de contenu généré sur le web, l'IA est de plus en plus incohérente dans ces cas-là. Et c'est la vraie raison pour laquelle on veut avoir l'origine humaine sur YouTube. C'est parce qu'on sait très bien qu'il y aura une dégradation de qualité de l'IA à la mesure où le contenu est entraîné sur du générique. Il y a du dérapage émotionnel aussi. Tout n'est pas intellectuel. C'est bien joli d'avoir... Bon, d'abord, quand vous mettez une IA en position de décider, vous êtes en train de dévaloriser l'expertise de votre équipe. Ça se peut qu'il y ait des départs. Puis aussi, il y a plein de gens qui n'ont pas nécessairement la confiance en eux pour questionner une IA, qui affirment péremptoirement que voici la réponse. Ça, c'est purement émotif. Mais le plus dangereux pour moi, c'est que l'IA a vraiment été programmée pour ne pas... pour vous donner raison. On appelle ça de l'alignement. Alors, si quand quelqu'un te contredit, tu peux toujours retraiter vers une IA qui te dit que t'es beau, t'es fin, t'as raison, est-ce que les gens vont se donner la peine de gérer la friction qui peut être productive? Alors, l'IA peut amplifier le biais de confirmation. C'est pas absolument nécessaire. On peut demander à une IA de nous contredire. Il y a des IA qui sont spécialisées là-dedans, entre autres, Curiouser.ai, qui se spécialisent dans le fait de confronter les gens. J'ai hâte de voir quel va être le taux d'adoption par rapport aux IA beaucoup plus sycophantes. Et puis, disons-le, sur le plan émotif, est-ce que vos clients ont envie d'avoir une IA dans la gueule? Il y a de plus en plus de gens qui sentent bien que c'est l'arnaque du moment. Et d'ailleurs, plus les gens comprennent l'IA, plus en général, ils réagissent mal à se faire donner un produit IA. Alors là, ça fait cinq minutes que je parle des dérapages, je dois donner l'impression d'être un luddite, "mort à l'IA". Non, non, c'est plus. J'essaie d'être un peu plus nuancé que ça. Ah non, attends, j'ai pas fini! J'ai même pas fini! Dérapages sociaux, je vais quand même continuer. Intellectuel, émotionnel, social. Alors, j'ai parlé de la crise de l'imputabilité. Qui est responsable des décisions prises par une IA? Et on le voit de plus en plus. Il y a des décisions gouvernementales, il y a des lois qui sont écrites par des IA. Il y a des lois où des gens, il y a des gens qui rédigent des propositions de loi avec la d'IA pour introduire un loophole, une faille, dans laquelle, qu'ils comptent utiliser par la suite. On a, j'ai parlé beaucoup de l'utilisation de l'IA comme junior dans une équipe. Pour une compagnie, c'est très utile. Pour une société, ben c'est que t'engages jamais de junior, c'est une espèce d'effritement des occasions. Comment on va avoir des seniors un jour s'il n'y a plus d'emploi pour des juniors? C'est une vraie question. Et disons-le, le projet de l'IA, c'est d'une certaine façon un projet d'appropriation de l'expertise humaine qui est un bien commun. Il y a des compagnies maintenant qu'on paye au lieu de payer les spécialistes et les spécialistes n'ont jamais accepté ça. Il y a eu toutes les disputes de copyright. C'est vraiment, et pire que ça, parce que ça peut aller plus loin, pour certains des grands acteurs de l'IA, ça vient avec un projet très très clair, délibéré et même déclaré de remplacer les humains par l'IA, de remplacer la démocratie par une autocratie, avec des IA gestionnaires, (en parlant du visuel: on ne voit pas bien, ils sont masqués, mais les robots ont des fouets), pour remplacer tout le monde. Alors, je ne dis pas que c'est tout le monde en IA, mais certains gros joueurs, évidemment Musk, mais pas que. Alors, bon, je pense qu'on ne veut pas cette IA-là ici, j'espère. Il n'y a pas besoin d'aller là. Tous ces problèmes-là, il y en a, bon pas tous, mais beaucoup de ces problèmes-là, je pense qu'ils ont à voir avec une certaine conception d'intelligence. J'ai parlé plus tôt du biais de confirmation. C'est un biais cognitif. On a tous des biais cognitifs. Les gens à ce niveau-là, les gens qui sont, il faut remplacer des démocraties parce que les gens sont cons, ils le disent explicitement, ben, ils n'ont pas tort sur un point, un seul, c'est qu'effectivement, les gens ont des biais cognitifs. Les psychologues ont répertorié un certain nombre de biais cognitifs, c'est une image connue, et ces biais cognitifs-là, il y a des chercheurs qui se sont demandé pourquoi le cerveau fonctionne si mal. L'évolution normalement fait un meilleur travail que ça et l'optimisme mieux que ça. Il faut voir ça dans la perspective de l'évolution qui essaie pas seulement d'optimiser notre intelligence comme individu, mais l'intelligence d'une tribu qui se demande, ben là, quelle décision je dois prendre? Si tout le monde teste chaque décision, c'est pas efficace. C'est une bonne heuristique de dire chacun va tester son hypothèse préférée et ensuite, tu reviens ensemble, tu en discutes, tu y t'aides et tu trouves quelque chose de mieux, généralement, que ce que chaque personne avait trouvé. Et ça, c'est encore une fois empiriquement vérifiable en psychologie. Les gens trouvent des meilleures réponses à certaines conditions. Il faut qu'il y ait suffisamment de variétés de points de vue dans le groupe. Il faut qu'ils aient un but commun, parce que sinon, t'as de la polarisation. Il faut pas que le groupe soit trop grand. Quand le groupe est trop grand, ben là, t'as un coût de communication qui est proportionnel au nombre de paires de personnes, donc quadratiques, qui grandit plus vite que le groupe. Alors, l'intelligence collective fonctionne déjà très bien à petite échelle. Alors, la question, c'est est-ce qu'on peut le faire à plus grande échelle? On peut, c'est un peu mon projet, compenser par de l'abstraction pour réduire le nombre d'options. Pour dire, il y a 5000 personnes, mais il y a peut-être 30 options dans les 5000 personnes. Ça, c'est un travail d'abstraction. Mais par contre, ça demande, il y a un coût à ça aussi, qui est un coût de formalisation. Comment, et aussi de pas rester uniquement dans l'abstraction. Je m'excuse, j'ai tendance à être très dans l'abstraction, mais il faut que l'abstraction reste connectée à l'histoire de cas vécus pour être sûr que c'est la bonne abstraction. Donc, on a une espèce de mémoire collective qu'on doit avoir parce qu'on peut pas garder tous les cas en tête avec 5000 personnes, mais avec la mémoire des cas, la mémoire des abstractions et des règles qu'on essaie de se donner pour les traiter. Et cette double mémoire-là, si on peut en discuter ensemble, il est peut-être réaliste de profiter de l'intelligence collective avec laquelle nous avons évolué. Le raisonnement, c'est pas quelque chose qui se passe juste dans nos têtes, il se passe entre nous. D'ailleurs, les meilleurs résultats en ce moment d'IA qui raisonne, c'est les agents, quand on fait que les IA dialoguent ensemble. Mais c'est un peu dommage que les IA, elles bénéficient du dialogue et de l'apprentissage et qu'on soit pas dans la game. Alors, moi, ce que je pense, c'est qu'on doit utiliser l'IA vraiment comme aide au processus collectif. On peut rendre le processus collectif plus efficace parce que le processus collectif, combien ici sont écœurés de la réunionniste, mais je pense qu'on peut la rendre plus efficace, plus intéressante. Et c'est vraiment ça que je propose, c'est de dire, les gens ont des vrais cas, on garde des fiches de cas, l'IA aide à faire les connexions, l'IA peut aider à faire les connexions et à dire, oui, on peut, ça, ça ressemble peut-être à ce cas abstrait-là. Et là, les gens peuvent en discuter, c'est ça qui est important. Alors, l'IA peut être un participant, dire, regardez ce cas-là, qui était pertinent, il peut participer à la discussion. Il peut être un traducteur pour les formalisations. Les cas formels, les gens n'ont pas l'habitude de décrire des règles ou de formaliser des règles. Ça, c'est correct. L'IA peut accompagner, l'IA est un excellent traducteur, il peut accompagner les gens pour formaliser leurs idées. Et si on se rend compte que ça ne fait pas, bien là, on peut dire, ah oui, mais peut-être qu'on pourrait modifier l'abstraction de cette façon-là, modifier la règle et voir, oui, est-ce que ça a du sens avec ce qu'on avait fait avant. Et aussi, l'IA peut dire, oui, mais attends un peu, ce cas-là, il pourrait rentrer dans telle ou telle règle laquelle on prend? Parce que souvent, la personne qui va trouver une règle va s'arrêter là, va pas nécessairement penser à regarder les autres possibilités. Et l'IA peut aussi, ça, c'est un rôle beaucoup plus loin, il peut vérifier, est-ce que les règles sont incohérentes entre elles. Alors, il y a tout un ensemble d'IA, d'usages de l'IA qui ne remplacent pas l'humain, mais qui l'aide, qui aide le processus, qui l'aide à participer au processus de l'experience collective. Et le but, c'est de ne pas remplacer les gens par une boîte noire, mais d'utiliser la boîte noire pour construire une boîte blanche, une espèce de gestion transparente, collective des règles qu'on se donne pour répondre aux cas de nos clients. Donc, d'une part, tout le monde peut en discuter, tout le monde peut dire, il me semble que la règle que l'IA a trouvée ou que quelqu'un a proposée, elle ne tient pas compte de ce cas-là. OK, on en discute. Et là, tu impliques ton équipe, éventuellement tu impliques tes clients en innovation ouverte. Et tu peux, si tu as besoin de faire des réponses très, très rapides, les règles, ensuite, tu peux décider de les automatiser (sans IA, parce que l'IA, c'est un processus probabiliste) avec de l'informatique classique, il n'y a pas d'aléatoire, mais avec des garde-fous pour que l'IA puisse dire, ah bien, ce cas-là dépasse un petit peu, il faudrait peut-être penser. Pas avoir une personne tampon encreur, mais une personne qui dit, repensons à la règle. Et ça, ce qui est bien, c'est quand tu as ton cahier de règles qui a été écrit, bien, tu peux t'en servir pour justifier ta pratique auprès de tes clients, auprès de tes investisseurs, auprès même d'auditeurs. Les auditeurs, en ce moment, quand tu leur dis, oui, ma pratique, c'est que je demande à l'IA comment faire, ça ne passe pas trop bien. Et moi, ce que je pense, c'est que si on prend cette habitude-là d'être dans une espèce de transparence radicale dans la gestion de nos entreprises, c'est quelque chose qu'on devrait éventuellement étendre à la société. Oui, dans ce sens-là, la démocratie est peut-être dépassée, comme dit Musk. Ça ne veut pas dire qu'il faut la remplacer par une autocratie. Au contraire, on peut la remplacer par une démocratie délibérative radicale. C'est un autre projet politique. Pour faire ça, techniquement, ça demande une IA hybride. Ce n'est pas que de la générative qui va faire ça. Il faut que l'IA interagisse avec des graphes de connaissances et des règles. Donc, on est entre l'IA classique des années 50 et l'IA générative moderne. Marcus, entre autres, parle beaucoup de ça. Moi, où j'arrive là-dedans, ça fait un bout que je travaille sur des outils d'intelligence collective avant des outils d'intelligence artificielle, parce que je crois que l'intelligence, c'est d'abord un phénomène collectif. Vraiment, mon but, c'est comment faire de l'intelligence collective augmentée par des outils techniques à très grande échelle. Qu'est-ce que ça demande dans la pratique? Ça demande que les gens négocient leurs modèles mentaux, négocient l'ambiguïté et la multiplication d'interprétations. Souvent, quand on fait des ontologies, c'est comme si le concept existait hors de tout temps, hors de toute humanité et qu'il était stable et qu'il était bien compris par tous. En réalité, il y a des concepts émergents, contestés, en évolution, et il faut être capable de travailler avec cette réalité-là. Mais une fois qu'on arrive à les formaliser, ils deviennent comparables, combinables, et ça permet de passer à l'échelle. Alors, j'ai travaillé sur un certain nombre d'outils très, très, très tôt dans cette évolution-là. IdeaLoom est un outil qui permet à des gens d'extraire des idées à partir d'un forum. Sensecraft est un jeu coopétitif pour construire une discussion structurée. ClaimMiner, c'est un RAG assez classique, mais auquel j'adjoins la définition de schéma en ce moment. Puis HyperKnowledge, c'est un peu le chapeau, le projet chapeau de tout ça pour cette comparaison de modèles. Mais pour vos besoins immédiats, on n'a pas besoin d'aller chercher dans l'avenir éloigné. Vous avez, je l'espère, déjà, des postmortems de cas. Il y a un effort de documentation de processus que vous faites peut-être déjà. Et là, je pense qu'il y a moyen d'utiliser l'IA de façon assez minimale, avec un minimum de tech pour vous aider, et même sans IA, pour vous aider à formaliser ça, à en faire un cahier formel et à connecter la myriade de cas impensables à un ensemble de règles pensables, en gros. Et ce que j'espère, donc je travaille sur un outil de généralisation agile et j'espère pouvoir faire ça à l'épreuve. Alors, merci beaucoup. Merci beaucoup. Martin Duchaîne: questions, commentaires? ça fait beaucoup d'informations, mais je pense que c'est génial de voir. Oui? Oui, allez-y. Marc-Antoine: Tu voulais boucler la boucle. Martin Duchaîne: Non, je vais boucler la boucle et les questions. On va répondre aux questions. Geneviève Béland: Écoute, il y avait vraiment beaucoup de choses intéressantes et il y a des trucs que j'ai oubliés au fur et à mesure. C'est moi qui… - Moi aussi, je parle vite. - Non, non, en fait, vite, mais c'était aussi très intense, c'était vraiment super intéressant. Puis, c'est vraiment intéressant. Pour moi, ça m'intéresse. Donc, toute la partie au préalable qui était finalement à l'IA, c'était plus que des warnings, mais après ça, vraiment la bascule vers la façon que tu proposes de l'exploiter et que tu l'exploites déjà, c'est vraiment génial, d'autant plus que cette espèce de… tu parlais d'organisation de 5 000 personnes, puis pour les dirigeants, l'abstraction des dirigeants, c'est… bien, on ne demandera pas aux 5 000 de participer à ça. C'est comme… mais là, c'est même trop compliqué. On va acheter la technologie, puis ils s'arrangeront. Essentiellement, c'est donc… Tu prives de l'expertise de ton équipe et tu prives de l'enthousiasme de ton équipe. En fait, tu prives carrément tout simplement de revenus puis de rentabilité. Mais c'est ça, donc tu… en tout cas, à mon avis, tu vas permettre quelque chose que d'ores et déjà même qu'au corps défendant de tous ceux qui interviennent pour aider les entreprises arrivent très rarement à faire approuver qui est la partie de consultation. Donc, c'est… tu peux… il y a vraiment un bet à faire sur combien de 70 % d'échecs, là, combien tu vas contribuer à augmenter finalement le pourcentage… De vraies utilisations. De vraies utilisations pertinentes et de transformation. D'accord. Maintenant, il y a quelque chose qui m'a fait vraiment un peu réfléchir dans les deux dernières semaines puis ça arrive même avant les considérations que tu as nommées. On parle souvent que l'intelligence artificielle dans le domaine de la santé, c'est vraiment un avantage pour toute la partie diagnostique. Puis sincèrement, moi, dans les deux dernières semaines, j'ai comme plus peur que d'autre chose parce que j'avais un résultat de test qui est rentré chez mon médecin pour moi. Puis c'est juste, je suis avec mon médecin, il n'y a rien de grave, rien, c'est pas ça. C'est juste qu'à l'ouvre, tu sais, il a dit « je ne comprends pas ce qui est écrit ». Là, il a dit « c'est parce qu'ils écrivent, ils parlent puis ça écrit tout seul puis ça ne fait pas de sens ce qui est écrit là ». Ça, ça veut dire qu'il est parti de papier. Il y avait l'écriture de médecin qu'on ne comprenait pas. Là, le barangouinage, reconnaissance artificielle de médecin, on ne comprend pas. Elle dit « je vois le truc, il n'y a pas de problème, mais c'est parce que ce qui est écrit là, je ne comprends pas ». Après ça, plus que ça, quelqu'un dans ma famille qui a été opérée récemment, puis sur son, sur le, en tout cas, même chose, une photo, ça disait qu'il passait en chirurgie. Ça disait que c'était le colon descendant, mettons, tu sais. Bien, c'est parce que ça disait, tu sais, en bas, ça disait colon descendant. Bien, c'est parce que sur la photo, bien c'était le colon ascendant. Regla, c'est comme on est intervenu au plus. On ne peut pas prendre les décisions par l'IA parce que là, on ne va pas décisionner sur les habitations des errages. Ça m'a fait un petit peu peur là. Ce n'est pas au point parfaitement. Oui, mais sauf que c'est utilisé là. Marc-Antoine: Oui, oui. Je vais essayer de répondre précisément. Les gens qui critiquent le fait que le copyright a été oublié dans l'appropriation des données, il y a un rapport. Ce qu'ils disent, c'est qu'au fond, ce qu'ils voudraient, ce n'est pas que l'IA n'existe pas, ce n'est pas que l'IA n'utilise pas leurs données, mais que l'IA le fasse, il faut que l'on fasse d'une façon qui maintienne le lien de provenance. Que quand l'IA te recrache quelque chose qu'elle a tiré de quelqu'un d'autre, qu'on sache d'où ça vient. Et je pense que c'est la même chose avec, si tu vois colon ascendant, colon descendant, coudonc ça a pas d'allure, que tu puisses écouter l'enregistrement. Comment on fait qu'on ne perde pas l'enregistrement, que ça reste, voici un effort de transcription automatique. Si tu n'es pas sûr, tu peux l'écouter. La question de la provenance de l'information, pour moi, est absolument capitale. On ne peut pas faire du traitement d'information sans perdre la trace de la filiation de la connaissance. C'est toute une autre histoire. Martin Duchaîne: Je retiens une chose importante de ta présentation. Merci. On voit que tu as une passion. On voit que tu es un érudit de l'intelligence artificielle depuis longtemps. Je pense qu'on l'a mesuré ce soir. Tu as une vision très large, très complète des enjeux. Merci parce que ça nous guide. On veut comprendre les défis et on veut comprendre les opportunités en même temps. Aujourd'hui, on a besoin d'évaluer ça. Je pense que tu as une excellente vision. Tu nous avais parlé du développement des processus. Ce qui me fait faire le wow aujourd'hui, c'est à quel point l'IA peut aider à faire de l'intelligence collective humaine. Aussi. Parce que c'est dur de... Geneviève Béland: Augmentée. Moi, j'adore ça. L'intelligence augmentée. Martin Duchaîne: Parce que pourquoi on ne le fait pas? Parce qu'il y a beaucoup d'intelligence humaine, et puis démêlér tout ce que le monde pense, puis c'est-tu pertinent, une machine peut nous aider. On peut mieux valoriser l'intelligence humaine en s'inspirant aussi de pertinence, d'intelligence sur le web. Mais ce n'est pas juste... Au contraire de remplacer l'humain par l'IA, tu fais de l'humain augmenté, tu fais même de l'humain augmenté au cube. C'est la communauté augmentée. L'intelligence collective est la clé de valeur énorme. Puis d'un coup, on a des outils qui vont nous aider à le faire comme beaucoup mieux. C'est le but de l'opération. J'ai hâte de voir ton projet. On va voir. On va voir ça. Il y a des moments où je pense que l'intelligence humaine augmentée, c'est une chose, mais l'intelligence collective augmentée, la puissance est là. Parce que souvent, ce qu'on se dit, c'est « Ah, bien là, on va se parler pendant une heure, puis là, ça va être compliqué, puis on n'y arrivera pas, puis tout le monde va parler ensemble. Puis il y en a qui devraient parler, tu ne parles pas. Puis non, non, là, moi, c'est la dimension que ça va augmenter. Oui. Ça va être génial. Ça va être intéressant. Merci. C'est une perspective qu'on voit, nous, l'intelligence collective, on y croit. C'est pas juste qu'on y croit, c'est nécessaire. C'est nécessaire. Marc-Antoine: C'est vital. C'est vital. On a besoin du meilleur de tout le monde, et tout, puis de la sagesse qui va avec. Et là, est-ce qu'on a des outils pour y arriver? Encore une fois, merci. Bravo. Merci beaucoup. Est-ce qu'il y a une dernière question? Non? Je sens qu'il va y en avoir une dernière, une dernière, rapide, après. Oui, c'est vrai. Oui, c'est vrai, c'est pour nous autres. Mais oui, parce qu'on a une super conférence en cours, pour l'instant. Oui. Et je sais que vous êtes pas de soirée, donc c'est bon. Yassine Triki: Bon, Jean-Marc, merci. C'est un condensé de bonheur. Vraiment, c'est pas... Ensuite, j'ai une ou deux petites questions. Admettons qu'on va faire de l'intelligence collective, ce qui est super magnifique. Vu que la quantité d'informations, il faudrait bien une machine pour aider, si on simplifie un peu l'histoire. On revient toujours à un même point, il y a un jugement. Marc-Antoine: Exact. Exact, exact, exact. C'est évident que perdre l'agrégation de l'information, ça fait des années qu'on le fait, ça te permet pas d'agréger le jugement. Là, on rentre un peu dans les détails, je vais te dire comment je vois ça. Quand on prend une décision, il y a deux étapes. On dit voici l'éventail d'actions possibles, voici les conséquences attendues de chaque action, et on peut faire une espèce de matrice, cette action devrait donner tel résultat, et faire une évaluation sur la base d'un, connaissance, autre, de quelle est la probabilité d'obtenir le résultat. Et tu l'étaires un peu pour avoir, mais il y aurait tel effet de bord, et ça fait partie des résultats, et on peut dire que finalement, telle action va avoir tel impact multiple, avec tel niveau de probabilité. Ça, c'est l'aspect actuel, où je pense que l'intelligence des experts est extrêmement importante, avec une, même, je dirais, une archive de ce que cet expert-là a tendance à faire des bonnes predictions. Je dirais même une... "track record", une expertise. C'est le travail de Tetlock là-dessus. Et ensuite, il y a une deuxième phase, il y a telle conséquence, est-ce qu'elle est souhaitable ou non souhaitable, et en fonction de quels critères. Et ça, c'est un problème de choix démocratique, de dire qu'est-ce qu'on veut finalement, ça c'est de la gouvernance. Martin Duchaîne: Ça c'est pas l'IA qui doit gouverner. Marc-Antoine: C'est pas l'IA qui doit gouverner, mais de détacher la matrice cause-conséquence de la matrice préférence. Je crois que c'est absolument fondamental pour avoir une gouvernance à la fois basée sur des faits et de l'expertise d'une part, mais basée sur les vraies préférences des gens d'autre part. Alors, voici, ça c'est la réponse courte, que je pourrais élaborer, mais à peu près. Martin Duchaîne: Je pense que c'est, je pense que ça nous touche comme en fait à la, comme intelligence, peut-être des gens même de nos vies, tu sais, de, qu'est-ce qu'il y en a, l'intelligence artificielle et les données numériques peuvent être un outil d'assistance à la décision. Ils peuvent nous donner de l'information, nous amener des trucs pour nous aider. Mais la décision, la maturité, puis les choix, puis la responsabilité qu'il faut avoir avec, qu'on assume, je pense qu'il faut qu'ils soient humains, puis on doit devenir des meilleurs humains pour mieux profiter. On doit apprendre à maîtriser ces outils-là, mais ça change pas le point. Ça, c'est super important. Marc-Antoine: Parenthèse, je parlais de Sensecraft qui était un jeu coopétitif. Il faut que les gens deviennent plus habitués à travailler avec de l'information formelle. Alors oui, il y a peut-être l'idée, mais je pense qu'il y a un côté pédagogique qui est absolument important dans ce projet-là. Martin Duchaîne: C'est pas, "t'sais, j'y crois, puis je veux que ça existe, donc c'est vrai, t'sais". Il faut faire attention aux gens qui... Marc-Antoine: La pensée magique. Martin Duchaîne: La pensée magique, c'est dangereux. Marc-Antoine: Et c'est pour ça qu'il faut détacher l'analyse des impacts de l'analyse des préférences. Martin Duchaîne: Juste en conclusion, quand on regarde, il faut pas le retenir toujours, c'est l'idée. Dans la crise du Mexique, il y a eu du vote. C'était pas de l'intelligence artificielle, c'était beaucoup d'intelligence humaine, militaire qui ont dit "attaque, attaque les Russes, attaque les Russes". Puis là, il a dit, est-ce que tu es le seul qui dis que ça a pas de bon sens de déclencher une guerre nucléaire avec les Russes? Il me semble qu'il doit avoir une autre solution. Non, non, non, ça a pas de bon sens, ça a pas de bon sens, attaquez, attaquez. Les militaires, tout son État-major était là-dessus. Attendez, ils ont dit \"enfermez les plus brillants dans une salle pendant trois jours et puis sortez pas de là car vous trouvez pas une vraie solution\". Je sais pas, mais il faut une solution. Faire une guerre nucléaire, ça n'a pas de sens. Ce qu'il a dit, il a dit \"ne jamais abdiquer votre jugement\". Ça appartient, c'est clair, il y a des valeurs, le jugement personnel, c'est vrai dans l'éducation, c'est tout ça. En plus, bref, ça, c'est l'intelligence artificielle. Votre jugement est important, travaillez votre jugement, allez chercher une intelligence, voyez une solution, même un année, c'est ça, ça a pas d'allure, ça a pas d'allure. Marc-Antoine: Je disais, pour qu'une équipe trouve une meilleure solution que les individus qui la composent, il y a deux grandes conditions. Il faut un but commun, sinon t'as de la polarisation, et suffisamment de variété et de diversité dans l'équipe pour que t'aies une vraie confrontation de point de vue. Là, c'est ça qui manquait.