Nouvel outil dans le but d’aider les organisations à évaluer leur système d’IA afin de s’assurer qu’elles respectent les droits de la personne

Résumé

La Commission ontarienne des droits de la personne (CODP) et la Commission du droit de l’Ontario (CDO) ont lancé l’outil d’évaluation de l’impact de l’IA sur les droits de la personne (l’ « EIDP » ou « l’outil »). d’applications.

TORONTO – Aujourd’hui, la Commission ontarienne des droits de la personne (CODP) et la Commission du droit de l’Ontario (CDO) ont lancé l’outil d’évaluation de l’impact de l’IA sur les droits de la personne (l’ « EIDP » ou « l’outil »). Il s’agit d’un outil qui permet d’évaluer et d’atténuer les répercussions des systèmes d’IA sur les droits de la personne dans un large éventail d’applications.

« L’IA présente de nombreux avantages, mais aussi des risques bien documentés. L’outil d’évaluation de l’impact de l’IA lancé aujourd’hui est un outil pratique, qui aidera les organisations à cerner et à gérer étape par étape les risques que l’IA fait peser sur les droits de la personne.  La CODP et la CDO ont collaboré à l’élaboration du premier outil d’évaluation de l’impact sur les droits de la personne fondée sur la législation canadienne en matière de droits de la personne », a déclaré Raj Anand, président du conseil d’administration de la Commission du droit de l’Ontario. 

« Alors que nous sommes impatients d’exploiter les possibilités et les avantages présentés par le potentiel de l’IA, son utilisation par des entités du secteur public dans le monde entier a entraîné de graves préjudices pour les individus et les communautés. Il est donc impératif que les mesures de protection des droits de la personne soient intégrées dans les fondements de tout cadre ou réglementation », a déclaré Patricia DeGuire, commissaire en chef de la Commission ontarienne des droits de la personne. « Nous sommes fiers d’avoir travaillé avec la Commission du droit de l’Ontario pour créer cet outil qui aidera les organisations à s’assurer que leur utilisation de l’IA est conforme à leurs obligations en matière de droits de la personne ».

L’outil d’évaluation est un guide étape par étape comprenant des exemples et des explications, créé pour les concepteurs, les concepteurs, les opérateurs et les propriétaires d’IA afin de cerner, d’évaluer, de minimiser ou de prévenir la discrimination ainsi que de respecter les obligations en matière de droits de la personne tout au long du cycle de vie d’un système d’IA.

L’outil d’évaluation vise à :

  • renforcer la connaissance et la compréhension de l’impact de ces technologies sur les droits de la personne;
  • fournir des conseils pratiques sur les répercussions en matière de droits de la personne, notamment en ce qui concerne la non-discrimination et l’égalité de traitement;
  • déterminer des stratégies d’atténuation des répercussions et des solutions pratiques pour lutter contre les préjugés et la discrimination causés par les systèmes d’IA.

La CODP et la CDO demandent au gouvernement de l’Ontario, aux employeurs et à tous les autres détenteurs d’obligations d’utiliser l’outil d’évaluation afin de s’assurer que les possibilités, les avantages et les protections associés à l’utilisation de l’IA sont accessibles à tous les Ontariens sans discrimination.

Faits marquants

  • L’outil d’évaluation se fonde sur les limites internationales en matière d’IA, qui reconnaissent l’importance d’une diligence raisonnable en matière de droits de la personne dans l’utilisation de ces technologies.
  • La Commission canadienne des droits de la personne (CCDP) a également contribué à l’élaboration de l’outil d’évaluation.

  • L’outil d’évaluation se compose de deux parties : La partie A est une évaluation du système d’IA du point de vue des droits de la personne. Dans cette partie, les organisations sont interrogées sur l’objectif que poursuit l’IA, sur l’importance du système d’IA et sur le traitement des Canadiens et des communautés. La partie B concerne l’atténuation des répercussions. Une fois que le système d’IA a été catégorisé, la partie B propose une série de questions pour aider les organisations à minimiser l’atteinte de la technologie sur les droits de la personne repérée dans le système d’IA en question. 
  • L’outil d’évaluation ne constitue pas un avis juridique et ne fournit pas de réponse juridique définitive concernant d’éventuelles répercussions négatives sur les droits de la personne, y compris des violations de lois fédérales ou provinciales en matière de droits de la personne ou d’autres lois pertinentes.

Ressources connexes