Quand les machines rendent des jugements professionnels : comment l’IA générative réécrit le rôle du comité d’audit

L’intelligence artificielle n’est plus seulement un outil d’accélération des processus. Les systèmes d’IA génératifs et agentiques d’aujourd’hui automatisent le jugement professionnel lui-même — ce raisonnement nuancé et contextuel que les conseils d’administration et les comités d’audit ont longtemps supposé être l’apanage des dirigeants et des auditeurs indépendants. Ce changement a des conséquences profondes sur la responsabilité des acteurs et sur la gouvernance dans l’entreprise.

Les conseils d’administration et les comités d’audit qui les servent ont été conçus pour un monde où la responsabilité était une affaire humaine. Les états financiers étaient préparés par des contrôleurs. Les prévisions étaient examinées par les DAF. Les risques étaient pris et gérés par des dirigeants, parfois assistés de responsables des risques. La conformité était gérée par des juristes. La charte du comité d’audit, sous ses différentes formes au sein des sociétés cotées, a été construite sur ce principe fondamental : des professionnels, humains, prennent les décisions relatives à leur domaine de responsabilité, la conformité et l’efficience de ces décisions étant évaluées par le dispositif de contrôle interne et assurées par un audit interne indépendant.

L’IA générative — et en particulier la classe émergente de systèmes d’IA “agentiques” capables d’agir de manière autonome dans l’ensemble des fonctions de l’entreprise — démentit cette hypothèse avec une vitesse saisissante. Les implications pour la gouvernance, la gestion des risques et les responsabilités juridiques et pratiques du comité d’audit sont profondes. Il est temps que les conseils d’administration s’attaquent à ce nouveau défi.

“L’IA ne fait pas seulement plus de tâches plus vite. Elle prend des décisions que nous réservions autrefois à des êtres humains responsables.”

De l’apprentissage automatique à l’IA agentique

Pour apprécier la marche à gravir pour la gouvernance, il faut retracer la trajectoire de l’adoption de l’IA en entreprise. La première génération d’IA d’entreprise — l’apprentissage automatique supervisé — a été déployée dans des contraintes strictes. Elle nécessitait des ingénieurs formés, avait un périmètre de déploiement limité et produisait des risques largement prévisibles et gérables. Les conseils pouvaient raisonnablement la traiter comme une fonction d’analyse avancée, soumise aux contrôles technologiques et de risque de modèle standard.

Envie de lire la suite ? Connectez-vous avec vos identifiants ou adhérez à l’IFACI.