I. L'IA et les régimes de responsabilité existants
1. Responsabilité pour faute : une application limitée
La responsabilité pour faute, prévue à l'article 1240 du Code civil, repose sur la preuve d'un comportement fautif ayant causé un dommage. Cependant, avec l'IA, la notion de faute devient floue : qui est responsable en cas de dysfonctionnement ou de décision erronée d'un algorithme ?
Exemple dans le domaine médical : Une IA de diagnostic médical recommande un traitement inadéquat entraînant des complications graves chez un patient. La responsabilité pour faute pourrait être recherchée auprès du médecin qui n'a pas vérifié le diagnostic ou de l'hôpital pour un manque de formation à l'utilisation de l'outil.
Exemple dans le conseil juridique : Un cabinet utilise une IA pour rédiger des contrats, et un défaut de paramétrage conduit à des clauses juridiques inapplicables. Si un client subit un préjudice, la responsabilité du cabinet pourrait être engagée pour manque de diligence.
Dans ces cas, l'utilisateur humain est souvent en première ligne, car il reste responsable de superviser l'IA.
2. Responsabilité du fait des choses : une solution adaptée
L'article 1242 du Code civil prévoit qu'une personne peut être tenue responsable des dommages causés par une " chose " qu'elle a sous sa garde. Cette notion s'applique aussi aux systèmes d'IA.
Exemple dans un parc d'attractions : Un robot doté d'une IA, utilisé pour guider les visiteurs, bouscule un enfant et provoque une blessure. La responsabilité pourrait incomber au parc, gardien du robot au moment de l'incident.
Cependant, attribuer la garde d'une IA peut être complexe, surtout lorsque des mises à jour ou des modifications externes sont en cause. Par exemple, si un robot était mal configuré par le fabricant avant son installation, celui-ci pourrait être responsable.
3. Responsabilité du fait des produits défectueux : viser le fabricant
Les articles 1245 et suivants du Code civil instaurent une responsabilité objective pour les fabricants en cas de produit défectueux. Une IA peut être considérée comme " défectueuse " si elle ne fournit pas le niveau de sécurité attendu.
Exemple médical : Un logiciel utilisé pour doser automatiquement des médicaments administre une dose excessive en raison d'un défaut d'algorithme. La responsabilité du fabricant peut être engagée si le défaut est prouvé. Dans ces cas, la victime n'a pas besoin de prouver une faute, mais elle doit démontrer le lien entre le défaut et le dommage, ce qui reste parfois complexe.
II. Les spécificités de l'IA : des ajustements nécessaires
1. Les défis de la preuve
Les systèmes d'IA, souvent qualifiés de " boîtes noires ", compliquent la preuve d'un défaut ou d'une faute. La directive européenne 2024/2853 sur les produits défectueux propose des outils pour y remédier :
- Présomptions de défectuosité : si un dommage résulte clairement d'un produit, le fabricant doit prouver que son IA n'est pas défectueuse.
- Obligation pour les fabricants de divulguer des éléments techniques : utile notamment dans des affaires complexes comme la médecine ou les parcs d'attractions.
2. Les IA auto-apprenantes et les mises à jour
Les IA qui évoluent avec des mises à jour ou des processus d'apprentissage autonomes posent des défis uniques. La directive 2024/2853 élargit la responsabilité du fabricant pour inclure :
- Les défauts causés par des mises à jour défectueuses ou absentes.
- Les modifications non prévues dans l'apprentissage d'une IA.
Exemple pratique : Une IA utilisée dans une attraction de réalité virtuelle ajoute des animations à la suite d'une mise à jour, provoquant une crise d'épilepsie chez un visiteur. Si la mise à jour a été mal testée, le fabricant peut être tenu responsable.
III. Les évolutions à venir : une législation en construction
1. L'IA Act : prévenir plutôt que guérir
Le règlement européen AI Act impose des obligations strictes pour les IA à haut risque (comme celles utilisées en médecine ou dans les transports) :
- Exigences de transparence : les fabricants doivent expliquer clairement le fonctionnement des systèmes.
- Gestion des risques : les IA doivent passer par des tests rigoureux avant leur mise sur le marché.
- Exemple : Une IA médicale déployée sans certification pourrait engager directement la responsabilité du développeur.
2. La place des plateformes numériques
Les plateformes jouant un rôle dans la distribution d'IA (comme les applications mobiles) peuvent aussi voir leur responsabilité engagée, notamment si elles ne vérifient pas la conformité des outils qu'elles mettent à disposition.
Conclusion : Anticiper pour limiter les risques
En cas de dommages causés par une IA, plusieurs régimes de responsabilité coexistent, mais leur mise en oeuvre reste complexe. Les textes européens, comme l'AI Act et la directive 2024/2853, visent à combler les lacunes en adaptant les règles à ces technologies. Pour les professionnels utilisant des IA , une vigilance accrue est essentielle : former les équipes, vérifier la conformité des outils, et prévoir des contrats clairs avec les fournisseurs peuvent éviter des situations de litige coûteuses.