L'UE renonce à une directive IA : ce que prévoyait le texte
Publié par Clément Bohic le - mis à jour à

La Commission européenne a écarté de son programme de travail la directive sur la responsabilité en matière d'IA. Quellse en étaient les grandes lignes ?
Exit la directive sur la responsabilité en matière d'IA ?
Dans les annexes à son programme de travail 2025, la Commission européenne explique avoir l'intention d'abandonner ce texte. La raison : pas d'accord prévisible entre législateurs. Elle "évaluera si une autre proposition doit être mise sur la table ou si une autre approche doit être choisie".
La proposition publiée en septembre 2022 devait garantir aux victimes de dommages causés par l'IA une protection équivalente à celle des victimes de dommages causés par d'autres produits de manière générale. Elle devait compléter l'AI Act, porté quant à lui sur la réduction des risques. Bruxelles entrevoyait, entre autres incidences positives, une augmentation de 5 à 7 % sur la valeur de la production des échanges transfrontières concernés.
En toile de fond, des règles nationales jugées non adaptées au traitement des actions en responsabilité pour des dommages causés par des produits ou des services dotés d'IA. En particulier sur la charge de la preuve. Vu les caractéristiques spécifiques de l'IA, il peut être difficile ou excessivement coûteux pour les victimes d'identifier la personne responsable et d'apporter la preuve des conditions requises, nous expliquait-on.
Autre constat : une potentielle insécurité juridique. D'une part parce que confrontées à ces caractéristiques spécifiques, les juridictions nationales risquent d'adapter au cas par cas la manière dont elles appliquent les règles existantes. De l'autre, parce que les stratégies IA de plusieurs États membres montrent une volonté d'élaborer des mesures dans le domaine... au risque d'une fragmentation qui augmenterait les coûts pour les entreprises exerçant dans l'ensemble de l'UE.
La directive devait s'appliquer aux actions civiles fondées sur une faute extracontractuelle pour des dommages causés par un système d'IA classé à haut risque. Elle avait pour principaux effets d'habiliter les juridictions nationales à ordonner la divulgation d'éléments de preuve (article 3) et d'établir une présomption de lien de causalité (article 4). L'approche d'harmonisation était dite minimale, de sorte qu'on pourrait toujours invoquer les règles plus favorables du droit national.
Concernant la divulgation d'éléments de preuve
L'article 3 autorisait les juridictions nationales à ordonner la divulgation d'éléments de preuve par les fournisseurs de systèmes d'IA soupçonnés d'avoir causé un dommage. Cela devait permettre à un demandeur d'étayer une éventuelle action.
Ce même article permettait aussi auxdites juridictions d'ordonner la conservation des éléments de preuve pertinents. Il introduisait par ailleurs la notion de présomption de non-respect d'un devoir de vigilance - outil présentant de l'intérêt quand le défendeur supporte en personne les conséquences du non-respect d'une demande de divulgation ou de conservation d'éléments de preuve.
L'ensemble des dispositions tenaient compte des principes de nécessité, de proportionnalité et de protection des intérêts légitimes.
Concernant la présomption d'un lien de causalité
L'article 4 introduisait une présomption de causalité dans le cas où il pourrait être considéré comme probable que la faute en cause a influencé le résultat produit par un système d'IA (ou son incapacité à en produire un).
Là aussi, la directive établissait des garde-fous. Par exemple, une exception pour les défendeurs démontrant que le demandeur peut raisonnablement accéder à des éléments de preuve et à une expertise suffisants.
La présomption de causalité se serait appliquée en cas de non-respect avéré d'un certain nombre d'exigences de l'AI Act. Parmi elles, la qualité des jeux de données d'entraînement, de validation et de test (article 10), la transparence de la conception (article 13) et e manque d'exactitude, de robustesse ou de cybersécurité (articles 15 et 16).
Le texte ouvrait la voie à des actions collectives et/ou portées par des successeurs ou des subrogés (héritiers ou compagnies d'assurance, par exemple).
Illustration générée par IA