L’analyse globale des risques (AGR) pour répondre aux exigences de l’IA Act
Les systèmes d’IA connaissent actuellement un essor majeur dans tous les domaines de nos sociétés et sont sources d’opportunités dont probablement la majorité ne sont pas encore identifiées. Les systèmes d’IA sont : (i) fondés des modèles mathématiques et des algorithmes dont la complexité rend difficile voire impossible une analyse formelle de leur fonctionnement ; (ii) utilisés pour prédire, générer des informations (textes, images, sons, codes, événements…) et prendre des décisions, avec de moins en moins de supervision humaine. Les prédictions et décisions générées par ces systèmes, quelles qu’elles soient, sont assorties d’incertitudes qui, si elles sont caractérisables par des métriques de performances, sont en revanche difficilement quantifiables, décelables et même reproductibles en utilisation opérationnelle. Par ailleurs, ces systèmes peuvent être intentionnellement orientés/biaisés à des fins politiques ou commerciales mais aussi utilisés pour générer des attaques cyber. En réponse à ces enjeux majeurs qui bouleversent nos sociétés, et à l’instar du RGPD en 2016, l’Union Européenne a depuis 2021 développé l’AI Act, premier cadre juridique au monde visant vise à fournir un cadre explicite aux développeurs et deployeurs d’IA en Europe en formulant des exigences et des obligations qui dépendent de la nature et des objectifs du système d’IA concerné. On peut regretter au passage que les dommages environnementaux que pourraient générer des systèmes d’IA n’aient pas été considérés. Cette réglementation entre en vigueur en mai 2024. Ce cadre réglementaire est construit sur une approche par la gouvernance, l’analyse et la maîtrise des risques.
- Gouvernance des risques : cadre de décision et référentiel d’acceptabilité et d’acceptabilité du risque.
- Analyse des risques : identification et évaluation des risques de différentes natures susceptibles de générer des dommages et des préjudices à l’humain, ainsi que de leur causes et leurs conséquences.
- Maîtrise des risques : ensemble des barrières techniques, logicielles et humaines permettant de réduire ces risques à un niveau acceptable et ensemble des preuves et des garanties de performances et de traçabilité eu égard à aux objectifs d’acceptabilité.