Réformes technologiques et théorie du changement
novembre 11, 2024 2024-11-11 19:20Réformes technologiques et théorie du changement
Présentation de Pierre Noreau lors du colloque « La fintech à la croisée de la finance, du droit, de la technologie et du marketing« , organisé pas Credi-NF dans le cadre du 91e Congrès annuel de l’Acfas à UOttawa, le 16 mai 2024.
Pierre Noreau est professeur titulaire (Droit, Université de Montréal), chercheur du Centre de recherche en droit public (CRDP) et président de l’Institut québécois de réforme du droit et de la justice (IQRDJ).
1. D’entrée de jeu, Pierre Noreau soulève la question de l’opacité, qui se rattache désormais aux plateformes de produits et services financiers en ligne. Il souligne que cela exige une attention particulière face à l’émergence croissante des nouvelles technologies présentes dans le secteur de la finance personnelle. En effet, l’opacité menace l’industrie de l’investissement au sein de l’écosystème financier. Elle augmente le risque pour les
consommateurs. Or, si même s’informer sur un placement financier en ligne devient un risque, il devient compliqué d’investir pour le consommateur lambda qui est de plus en plus exposé aux offres existantes sur ce nouveau canal numérique, et notamment via les médias sociaux.
2. L’opacité dans le rapport à l’information, dans la relation avec le conseiller, est une menace pour la démocratie, non pas seulement au niveau des manipulations électorales. La démocratie est construite sur la confiance. Lorsqu’on n’est pas certain que l’on converse avec un individu, alors que peut-être il s’agit d’une machine, il devient difficile de croire qu’on est dans un monde où la transparence est la règle.
3. Dans l’industrie de la finance personnelle, le trésor informationnel réside dans l’authenticité de celui qui donne le conseil ! C’est ce qui permet de dépasser l’opacité. L’authenticité est centrale à la survie même de la profession, car c’est d’elle que peut découler la confiance. On devra redéfinir les exigences déontologiques de la pratique en fonction de l’exigence d’authenticité, et créer un autre axe sur la responsabilité des conseillers. C’est un nouveau référentiel, le seul respect des règles sur le plan formel ne sera pas suffisant.
4. On est dans un contexte fluide dans une période de flou qui pose problèmes en matière de responsabilité professionnelle liée à l’usage ou non de l’IA. L’autre grand risque, c’est aussi celui de la paresse. L’agentivité humaine risque de disparaître de l’équation. Cependant, dans le recours à l’IA, on doit se reposer la question encore et encore : Est-ce que l’IA doit aider à penser ou à empêcher de penser l’humain? C’est là, que
l’authenticité est importante et fait la différence dans la confiance des consommateurs face à une industrie en (r)évolution.
5. La majorité des professionnels ne connaissent pas suffisamment la mécanique des algorithmes. Les organismes de réglementation et de contrôle, ont donc la responsabilité de non seulement identifier des outils et des plateformes sécuritaires, mais aussi de conseiller le bon usage de ces nouveaux outils numériques.