L’encadrement déontologique des représentants qui utilisent la technologie
novembre 1, 2024 2024-11-04 19:57L’encadrement déontologique des représentants qui utilisent la technologie
L’encadrement déontologique des représentants qui utilisent la technologie
Plonger dans l’univers de L’encadrement déontologique des représentants qui utilisent la technologie à travers la communication de Marc Beaudoin [taguer] (PDG de la Chambre de l’Assurance de dommages).
1. Le Québec est un des précurseurs en matière d’intelligence artificielle (IA), autant du point de vue éthique qu’au regard du financement de la recherche. Un grand changement s’est opéré en 2023 avec l’arrivée de l’IA générative, avec Chat GPT en tête de peloton. De « grands penseurs » à l’instar de Joshua Bengio [taguer] réclament une « grande pause » sur le développement des recherches et une réflexion sur l’encadrement de l’IA, et ses multiples risques, à l’instar des hallucinations (i.e., contenus générés erronés).
2. Le seuil de risque pour le consommateur dépend du type d’IA concerné. L‘intelligence artificielle faible, conçue pour exécuter une tâche spécifique implique un risque de préjudice relativement limité, alors que l’intelligence artificielle forte visant à créer des machines intelligentes qui ne se distinguent pas de l’esprit humain, à l’instar de l’IA générative, peut générer des risques plus importants.
3. L’étendue du risque détermine l’échelle de l’encadrement déontologique. Plus le risque est faible, moins il y a besoin d’encadrement et plus que le risque est élevé, plus l’encadrement est nécessaire. Ce faisant, l’encadrement de l’IA forte est logiquement plus important.
4.La responsabilité des intervenants est tributaire du développement à l’interne ou pas de l’IA. L’Intelligence artificielle développée en interne au sein d’une organisation, par et pour celle-ci, confère plus de pouvoirs, implique plus d’intervenants, et donc plus de responsabilité. Or, l’IA non développée au sein d’une organisation implique moins d’intervenants, et donc moins de responsabilités.
5. Plus il y a d’intervenants, plus il y a de biais. La vigilance quant aux biais au niveau de la conception des systèmes algorithmiques en amont de l’utilisation de l’IA est donc indispensable. Le danger rattaché aux biais, relève du fait qu’ils sont susceptibles de générer des externalités positives ou négatives pour une organisation, bien que certainement inexactes dans l’absolu, sur le plan de la réalité sociale.
6. Enfin, il y a 3 éléments clés à mettre en place pendant l’intervention des représentants et des experts en sinistre : 1) le défi de la connaissance de la fameuse technologie utilisée, 2) le respect des obligations déontologiques, et 3) l’exigence de transparence des représentants.