Droit
et machine intelligentes

juin 23, 2021

L’intelligence artificielle est aujourd’hui au cœur de notre vie quotidienne et de plus en plus utilisée dans le secteur industriel. Elle pose de nombreuses questions éthiques et juridiques en plus des questions techniques que sa conception suppose. Le cabinet Chabert et associés nous apporte son éclairage afin de faire le point sur les évolutions de la réglementation.

Quels sont les risques liés à l’utilisation de machines intelligentes ?

Le Règlement européen proposé en avril 2021 catégorise les systèmes d’IA selon les risques présentés desquels découleront les régimes de responsabilités et de sanction :

  • Le risque inacceptable : Les produits comportant un tel risque sont interdits à la production et à la vente dans l’UE.
  • Le risque élevé (ou haut risque) : Les produits entrant dans cette catégorie sont soumis à un régime de compliance détaillé.
  • Le risque spécifique ou limité : Ils doivent respecter une obligation de transparence minimum.
  • Le risque minimal : Le projet de Règlement ne prévoit pas d’intervention dans ce domaine compte tenu de leur faible risque.

Comment limiter ces risques ? 

Les risques des systèmes d’IA peuvent être limités par la procédure de compliance et les autres obligations détaillées dans le projet de Règlement, et de manière globale, par plus de transparence afin d’augmenter la confiance des citoyens envers les technologies numériques. Le contrôle humain est également essentiel. Dans le projet de Règlement, la Commission introduit la notion de « supervision humaine » et prévoit que les systèmes à risques élevés doivent être conçus et développés de manière à pouvoir être surveillés par l’humain pendant leur période d’utilisation.

Quelles sont les responsabilités ?

Le projet de Règlement sur l’IA du 21 avril 2021 clarifie la définition des acteurs en cause :

  • Le fournisseur : C’est sur lui que pèse l’obligation de mise en conformité.
  • L’importateur
  • Le distributeur
  • L’utilisateur du système d’IA dans le cadre d’une activité professionnelle.

L’utilisation d’un système d’IA à risque élevé est autorisée sous réserve d’une évaluation de conformité faite ex ante et du respect de critères particuliers de la part du fournisseur. Celui-ci doit également mener des actions correctives en cas de risque de non-conformité, d’incident grave, de dysfonctionnement ou sur notification et demande de coopération avec les autorités compétentes. Si un acteur autre que le fournisseur modifie la destination de la machine, lui apporte une modification substantielle, ou met sur le marché un système d’IA sous sa marque, les obligations pesant sur le fournisseur pèseront sur celui ayant modifié la machine. Les utilisateurs professionnels doivent également s’assurer de la pertinence des données d’entrée dans les systèmes d’IA à risque élevé et conserver les journaux automatiquement générés par ces systèmes.

Outre le projet de Règlement sur l’IA du 21 avril 2021, il convient de se référer à la résolution du Parlement européen du 20 octobre 2020 en cas de dommage causé par une intelligence artificielle sur le territoire de l’UE. En cas d’incident causé par le système d’IA, le responsable est la personne physique ou morale ayant la qualité d’opérateur. Le Parlement européen dans sa résolution distingue l’opérateur frontal (défini comme la personne qui exerce un contrôle sur la machine et tire profit de son exploitation) de l’opérateur d’amont (à savoir la personne qui définit les caractéristiques techniques et fournit les données ainsi qu’un service de soutien ayant donc un certain contrôle sur le risque lié à l’exploitation et au fonctionnement du système d’IA). Là encore, la responsabilité s’articule autour de la distinction entre les « systèmes d’IA à haut risque » et les « autres systèmes d’IA ». Dans le cas d’une IA à haut risque, c’est l’opérateur (frontal ou d’amont) qui est objectivement responsable de tout préjudice ou de tout dommage causé par une activité, un dispositif ou un procédé physique ou virtuel, piloté par un système d’IA (sauf cas de force majeure). Il ne peut pas s’exonérer lui-même de sa responsabilité. Pour les autres systèmes d’IA, l’opérateur est soumis au régime de la responsabilité pour faute présumée en cas de préjudice ou dommage causé par une activité, un dispositif ou un procédé physique ou virtuel piloté par le système d’IA. Il peut donc s’exonérer de sa responsabilité par la preuve de son absence de faute.

Vous souhaitez en savoir plus sur le sujet ?

Retrouvez un article détaillé dans le Jitec n°228

consultable début juillet ici

Participez à l’atelier adhérents du 9 juillet 2021 proposé par Thésame et animé par Catherine Chabert, avocat associé et fondatrice du cabinet CHABERT & et Associés dédié au droit des nouvelles technologies.

informations et inscription ici 

Partagez l’info sur vos réseaux !

Ces actualités pourraient également vous intéresser :

Touche Entrée pour lancer la recherche et Esc. pour fermer