Protéger les individus à l’ère de l’IA
Les 24 et 25 juin derniers, le Centre d'excellence Jean Monnet pour la justice et l'IA : protection juridictionnelle effective en cas de responsabilité du fait de l’IA (JUST-AI) de l’Université de Liège tenait son colloque d’été. Deux jours durant, les chercheurs de plusieurs universités de renommée internationale ont débattu de la meilleure façon de protéger les individus des dommages que peuvent causer les intelligences artificielles. Une discussion nécessaire alors que ces systèmes ont déjà envahi nos vies.
L
orsqu’on parle d’intelligence artificielle (IA), on pense immédiatement à ChatGPT ou à Midjourney. Et pourtant, il y a toutes les autres, moins visibles, que l’on retrouve dans tous les domaines : traduction automatique, analyse de CV, algorithmes de recommandation, caméras à reconnaissance faciale, voitures autonomes… Tous ces systèmes incorporent un traitement automatisé de l’information, et prennent, parfois, des décisions de façon autonome.
L’omniprésence de l’IA a poussé le législateur de l’Union européenne à adopter, en mars 2024, le règlement établissant de règles harmonisées concernant l’intelligence artificielle (AI Act). Ce texte consacre l’encadrement des IA susceptibles de porter atteinte aux droits fondamentaux et à la sécurité des personnes au sein de l’Union européenne. S’il s’agit indéniablement d’un succès, c’est aussi là que les choses se corsent. « Nous sommes arrivés à un consensus global sur la nécessité de développer des IA qui soient éthiques, et cela doit être souligné. Mais il y a une différence entre une justice théorique, et sa mise en place en pratique », a estimé Ljupcho Grozdanovski, chercheur qualifié FNRS à l’ULiège et responsable du Centre d’Excellence Jean Monnet.
En d’autres termes, après s’être accordé sur le « quoi », vient la question du « comment ». Comment faire en sorte qu’une IA prenne une décision qui soit juste et équitable ? Dans un monde avec tant de diversité de genres, de religions, de sensibilités sociales et culturelles, est-ce seulement possible ? Et sur qui doit reposer cette tâche délicate ?
Dans de nombreux cas, les IA sont responsables de discrimination en raison de la façon dont elles ont été conçues, ou à cause des données qui ont servi à leur programmation. L’un des intervenant a ainsi rappelé que pour l’outil de traduction Google, « docteur » est forcément un homme, et « infirmier » une femme. De même, alors que les réseaux sociaux sont omniprésents sur la planète, les algorithmes de modération sont conçus à partir de valeurs occidentales, et même américaines. Or, la notion de « liberté de parole » n’a pas, partout, la même signification.
Pour autant, certains chercheurs pensent qu’il est possible de développer des outils capables de mieux prendre en compte la diversité. De « coder » en quelque sorte la justice, ou de réaliser des audits afin de corriger leur comportement au fil du temps. Cela pourrait passer, entre autres, par plus de précision dans les données, afin qu’elles soient plus représentatives du monde réel. Mais d’autres s’interrogent. « Qui sera chargé d’en définir les standards ?, a ainsi demandé Julien Bois, chercheur postdoctorant en droit et en science politique à l’ULiège. Jusqu’où est-il acceptable que quelques ingénieurs définissent ce qu’une machine considère comme juste, alors que ses décisions sont susceptible d’impliquer des milliers de personnes ? »
Supervision humaine
L’AI Act prévoit que les décisions prises par les IA dites à haut risque, c’est-à-dire actives dans des domaines comme la santé, l'éducation, le recrutement, ou le maintien de l'ordre et de la justice soient supervisées par un humain. Et ceci, afin d’éviter qu’un autre être humain soit, par exemple, discriminé par une machine.
En ce sens, certains chercheurs ont donc proposé des systèmes où la machine explique elle-même, via un chatbot, sa décision à l’être humain responsable de la valider ou non. Pour autant, cette supervision soulève, en pratique, d’autres questions : « La personne chargée de cette supervision doit connaître les limites de l’IA, ainsi que sa propre tendance à faire confiance aux décisions proposées par un système automatique », ont ainsi mis en garde les intervenants.
Enfin, les chercheurs ont évoqué « l’après ». Que faire si, malgré tous les gardes fous, une IA est responsable de dommages sur des humains ? « Ces dommages sont inévitables, et il convient de s’interroger aussi sur la façon dont les citoyens peuvent obtenir réparation », a plaidé Ljupcho Grozdanovski. A cette fin, plusieurs chercheurs ont estimé qu’il était possible pour des organismes indépendants de réaliser des audits d’IA, afin de récolter des preuves et d’en exposer les biais, alors qu’il s’agit encore trop souvent de systèmes opaques.
En définitive, toutes les problématiques développées par le Centre d’Excellence Jean Monnet sont cruciales pour l’avenir. « D’ici 2026, les entreprises vont devoir se mettre en conformité avec les grands principes de l’AI Act, explique Ljupcho Grozdanovski. Et d’ores et déjà, plusieurs consultants chargés de ces questions ont annoncé vouloir travailler avec nous afin d’œuvrer en ce sens. »
