“Le juriste Gianclaudio Malgieri salue, dans une tribune au « Monde », l’initiative de la Commission européenne de vouloir mieux réglementer les usages de l’IA, mais il craint la mise en place d’un système contenant de nombreuses rigidités, lacunes et questions ouvertes“.
Les systèmes d’IA présentent aujourd’hui de nombreux risques pour les individus : ils peuvent porter atteinte à la vie privée, ou s’avérer discriminatoires, manipulateurs ou même produire des préjudices physiques, psychologiques ou économiques. Par exemple, les systèmes d’IA peuvent perpétuer des préjugés sociaux et discriminer les personnes LGBT ou les femmes sur le lieu de travail ; ou les minorités sociales dans des contextes de prévention de la criminalité. Ils peuvent aussi manipuler les comportements en ligne des enfants, des personnes âgées ou même d’autres consommateurs, en exploitant leurs vulnérabilités grâce à des analyses de données avancées, et en les forçant à prendre des décisions commerciales (ou même électorales, comme dans le scandale de Cambridge Analytica) non souhaitées ou déraisonnables. En même temps, ces systèmes peuvent être obscurs et donc difficiles à remettre en question.
Pour aborder ces questions, la Commission européenne a récemment publié une nouvelle proposition de réglementation de l’intelligence artificielle, qui doit maintenant être discutée et approuvée par le Conseil et le Parlement européen. La proposition introduit une approche fondée sur le risque pour les produits et services basés sur l’IA, avec des règles de conception ambitieuses et des charges administratives, mais il n’ajoute aucun nouveau droit individuel pour les consommateurs/citoyens. Alors que, par le passé, l’accent était mis sur le modèle “notification et droits individuels”, le nouveau modèle s’appuie de plus en plus sur la responsabilisation des entreprises, sur la base de mesures techniques et organisationnelles visant à atténuer les risques de l’IA pour les humains, une autorité de surveillance contrôlant la conformité.
Dans le cadre proposé, certains systèmes d’IA sont interdits : les «dark patterns » (les publicités en ligne manipulatrices) qui causent des préjudices non économiques aux consommateurs ou qui exploitent leur vulnérabilité en raison de leur âge ou de leur handicap ; les systèmes de crédit social produisant des effets préjudiciables disproportionnés ou hors contexte ; et les systèmes d’identification biométrique utilisés par les forces de l’ordre dans les espaces publics (lorsque leur utilisation n’est pas strictement nécessaire ou lorsque le risque d’effets préjudiciables est trop élevé).
D’autres systèmes d’IA sont considérés à haut risque (notamment la reconnaissance des visages et des émotions, l’IA utilisée dans les infrastructures critiques, dans les contextes de l’éducation, de l’emploi, de l’urgence, d’asile et de frontières, dans l’aide sociale, pour l’évaluation du crédit, par les forces de l’ordre ou les juges). Les fournisseurs et les utilisateurs de ces systèmes d’IA devraient faire de la gestion des risques, notifier à une autorité de surveillance, obtenir une certification de conformité ou mettre en œuvre des actions correctives en cas de non-conformité. En outre, ils doivent préparer un plan de gouvernance des données adéquat pour l’entraînement et la validation de l’IA, en comblant les éventuelles “lacunes”, en prévenant tout biais et en contextualisant le système d’IA dans le contexte social spécifique.
La Commission européenne peut mettre à jour la liste des systèmes à haut risque sur la base de la gravité et de la probabilité de l’impact des systèmes d’IA sur les droits fondamentaux.
L’ensemble de ce modèle présente des avantages : il s’agit d’un texte juridique très avancé qui vise à proposer des mesures concrètes en faveur de systèmes d’IA équitables, sûrs et fiables, en abordant de manière réaliste certaines des questions les plus insolubles de l’IA (explicabilité, biais, exactitude).
Cependant, le texte comporte encore de nombreuses questions ouvertes qui devraient être discutées avant l’approbation finale. En particulier, l’absence de droits individuels dans la proposition n’est pas compensée, par exemple, en mettant davantage l’accent sur la conception participative des systèmes d’IA. En outre, le modèle à trois niveaux (IA interdits, IA à haut risque et autres systèmes d’IA) semble basé sur un paradigme « noir et blanc » peu flexible. La liste des pratiques d’IA interdites et la liste des systèmes d’IA à haut risque pourraient s’avérer difficile à étendre. Par exemple, les dark patterns qui ne produisent pas de “dommages physiques ou psychologiques” tangibles (mais qui pourraient néanmoins manipuler les comportements et produire des effets économiques néfastes), l’application de l’IA en neurotechnologie (amélioration de la cognition), ou dans les recherches scientifiques sensibles (sur la santé, génétique, ou expériences sociales ou psychologiques) ne sont ni sur la liste noire ni considérés comme à haut risque. De même, si l’exploitation des vulnérabilités liées à l’âge ou à l’invalidité est inscrite sur la liste noire, il n’est pas fait mention d’autres formes de vulnérabilité en ligne (vulnérabilités sociales, psychologiques, transitoires et contextuelles), pas même dans les scénarios à haut risque.
Alors que dans le règlement sur la protection des données (RGPD) l’évaluation du niveau de “risque” est graduelle et basée sur plusieurs indices d’auto-évaluation, dans cette proposition de règlement sur l’IA, il n’y a pas de “nuances de gris” : soit un système d’IA figure dans la liste par catégorie mise à jour par la Commission, soit il est exempté de toute nouvelle obligation de conformité. Cette proposition semble donc trop rigide pour remporter un défi si complexe : entre le noir et le blanc, il existe de nombreuses nuances que seuls les interprètes (les juges et les autorités de surveillance) pourraient peut-être découvrir.
En résumé, la proposition de règlement comporte des innovations intéressantes, mais elle contient encore de nombreuses rigidités, lacunes et questions ouvertes qui ne pourraient être résolues que par une plus grande flexibilité dans les principes et dans les procédures pour mettre en œuvre ces principes sur le marché de l’IA.
Recent Comments