Quand une décision prise par un système IA cause un préjudice, qui est responsable ? L'éditeur du logiciel, l'entreprise utilisatrice, le manager qui l'a validée ? État des lieux juridique.
Le droit de la responsabilité IA est encore en construction. Mais une chose est certaine : l'entreprise qui déploie un système IA engage sa responsabilité sur ses outputs.
Le cadre juridique actuel
En l'état du droit français et européen, la responsabilité d'un système IA repose principalement sur l'entreprise qui le déploie — pas sur l'éditeur du logiciel, sauf défaut de fabrication établi. C'est votre organisation qui doit répondre des décisions prises avec ou sur la base d'un système IA.
Les situations à risque
- Décisions RH basées sur un scoring IA (recrutement, promotion, licenciement)
- Refus de crédit ou d'assurance fondé sur un modèle algorithmique
- Erreurs médicales liées à un diagnostic IA
- Discrimination résultant d'un biais algorithmique non détecté
Comment limiter votre responsabilité
- Toujours maintenir un être humain responsable dans la boucle de décision
- Documenter vos processus de validation des outputs IA
- Auditer régulièrement vos systèmes IA pour détecter les biais
- Conserver une traçabilité des décisions impliquant l'IA
- Souscrire une assurance couvrant les risques liés à l'IA