Introduction :
L’AI Act (Réglementation européenne) est le premier cadre juridique complet au monde visant à encadrer le développement et l’utilisation de l’intelligence artificielle au sein de l’Union européenne. Ce texte législatif majeur adopte une approche basée sur le risque, classant les applications d’IA selon leur dangerosité potentielle pour les droits fondamentaux et la sécurité des citoyens.
Pourquoi est-ce important ?
L’AI Act est crucial car il redéfinit totalement la responsabilité juridique des entreprises qui utilisent l’IA pour recruter, évaluer ou gérer leurs salariés. Dans cette réglementation, les systèmes d’IA utilisés dans le domaine de l’emploi et des ressources humaines sont classés comme “à haut risque”. Cela signifie que les employeurs ne peuvent plus utiliser ces outils comme des “boîtes noires”. Pour l’entreprise, la conformité est une question de survie : les amendes prévues en cas de violation peuvent atteindre des millions d’euros ou un pourcentage significatif du chiffre d’affaires mondial. Au-delà de l’aspect légal, l’AI Act protège le candidat contre les décisions discriminatoires automatisées et garantit une transparence totale. C’est l’opportunité pour une marque employeur de démontrer son engagement envers une technologie éthique, équitable et transparente, renforçant ainsi la confiance des talents envers les processus de sélection numériques.
Comment le mettre en oeuvre ?
La mise en conformité avec l’AI Act commence par un audit rigoureux de tous les outils d’IA utilisés en interne. Pour chaque solution (tri de CV, analyse de performance, chatbots), il faut documenter sa classe de risque. Si l’outil est classé à “haut risque”, l’entreprise doit mettre en place un système de gestion des risques sur l’ensemble du cycle de vie de l’outil. Cela implique de réaliser des tests de robustesse, d’assurer une documentation technique exhaustive et de garantir un mécanisme de supervision humaine systématique. Les RH doivent travailler avec le DPO (Délégué à la Protection des Données) pour vérifier que les jeux de données utilisés pour entraîner l’IA sont exempts de biais. Enfin, une communication claire doit être établie avec les instances représentatives du personnel et les candidats pour expliquer comment l’IA intervient dans les processus de décision.
Exemples concrets :
Une multinationale utilisant un logiciel de matching prédictif pour ses recrutements internes doit désormais s’assurer que l’algorithme ne favorise pas indirectement un genre ou une origine ethnique. Sous l’AI Act, elle doit pouvoir expliquer les critères qui ont mené l’IA à recommander tel collaborateur plutôt qu’un autre. Si le logiciel utilise l’analyse de sentiment lors d’entretiens vidéo, l’entreprise doit impérativement informer le candidat, obtenir son consentement et prouver que l’outil a été testé contre les biais liés aux accents ou aux expressions faciales. En cas de contrôle, l’entreprise doit être capable de fournir la documentation technique prouvant que la supervision humaine est réelle et non purement formelle.
