juin 23, 2021
L’intelligence artificielle est aujourd’hui au cœur de notre vie quotidienne et de plus en plus utilisée dans le secteur industriel. Elle pose de nombreuses questions éthiques et juridiques en plus des questions techniques que sa conception suppose. Le cabinet Chabert et associés nous apporte son éclairage afin de faire le point sur les évolutions de la réglementation.
Le Règlement européen proposé en avril 2021 catégorise les systèmes d’IA selon les risques présentés desquels découleront les régimes de responsabilités et de sanction :
Les risques des systèmes d’IA peuvent être limités par la procédure de compliance et les autres obligations détaillées dans le projet de Règlement, et de manière globale, par plus de transparence afin d’augmenter la confiance des citoyens envers les technologies numériques. Le contrôle humain est également essentiel. Dans le projet de Règlement, la Commission introduit la notion de « supervision humaine » et prévoit que les systèmes à risques élevés doivent être conçus et développés de manière à pouvoir être surveillés par l’humain pendant leur période d’utilisation.
Le projet de Règlement sur l’IA du 21 avril 2021 clarifie la définition des acteurs en cause :
L’utilisation d’un système d’IA à risque élevé est autorisée sous réserve d’une évaluation de conformité faite ex ante et du respect de critères particuliers de la part du fournisseur. Celui-ci doit également mener des actions correctives en cas de risque de non-conformité, d’incident grave, de dysfonctionnement ou sur notification et demande de coopération avec les autorités compétentes. Si un acteur autre que le fournisseur modifie la destination de la machine, lui apporte une modification substantielle, ou met sur le marché un système d’IA sous sa marque, les obligations pesant sur le fournisseur pèseront sur celui ayant modifié la machine. Les utilisateurs professionnels doivent également s’assurer de la pertinence des données d’entrée dans les systèmes d’IA à risque élevé et conserver les journaux automatiquement générés par ces systèmes.
Outre le projet de Règlement sur l’IA du 21 avril 2021, il convient de se référer à la résolution du Parlement européen du 20 octobre 2020 en cas de dommage causé par une intelligence artificielle sur le territoire de l’UE. En cas d’incident causé par le système d’IA, le responsable est la personne physique ou morale ayant la qualité d’opérateur. Le Parlement européen dans sa résolution distingue l’opérateur frontal (défini comme la personne qui exerce un contrôle sur la machine et tire profit de son exploitation) de l’opérateur d’amont (à savoir la personne qui définit les caractéristiques techniques et fournit les données ainsi qu’un service de soutien ayant donc un certain contrôle sur le risque lié à l’exploitation et au fonctionnement du système d’IA). Là encore, la responsabilité s’articule autour de la distinction entre les « systèmes d’IA à haut risque » et les « autres systèmes d’IA ». Dans le cas d’une IA à haut risque, c’est l’opérateur (frontal ou d’amont) qui est objectivement responsable de tout préjudice ou de tout dommage causé par une activité, un dispositif ou un procédé physique ou virtuel, piloté par un système d’IA (sauf cas de force majeure). Il ne peut pas s’exonérer lui-même de sa responsabilité. Pour les autres systèmes d’IA, l’opérateur est soumis au régime de la responsabilité pour faute présumée en cas de préjudice ou dommage causé par une activité, un dispositif ou un procédé physique ou virtuel piloté par le système d’IA. Il peut donc s’exonérer de sa responsabilité par la preuve de son absence de faute.
Retrouvez un article détaillé dans le Jitec n°228
Participez à l’atelier adhérents du 9 juillet 2021 proposé par Thésame et animé par Catherine Chabert, avocat associé et fondatrice du cabinet CHABERT & et Associés dédié au droit des nouvelles technologies.