
L’IA est désormais partout dans les présentations d’entreprise. Mais le rapport présenté par l’UNESCO rappelle une chose plus brutale : avoir une stratégie IA n’est pas la même chose que savoir la gouverner.
Le signal qui coupe le mieux est simple. D’après cette publication, près de la moitié des entreprises étudiées disent avoir une stratégie IA, mais une sur dix seulement s’engage publiquement sur un cadre de gouvernance. Vu ainsi, la coupure n’est plus entre adoption et refus. Elle est entre enthousiasme et maturité.
L’écart devient très concret dès qu’on regarde les garde-fous
La synthèse publiée par la Thomson Reuters Foundation va plus loin : à peine un peu plus d’une entreprise sur dix déclare des politiques pour limiter les effets négatifs de l’IA sur les travailleurs, et une seulement sur dix environ dit prévoir une supervision humaine claire des systèmes. À ce stade, beaucoup d’organisations ont surtout accéléré l’usage.
Le rapport Responsible AI in practice ajoute des chiffres encore plus parlants : seulement 13 % des entreprises affichent une politique de supervision humaine, et 2,3 % disposent d’un mécanisme de plainte dédié aux problèmes liés à l’IA. Quand un outil touche au recrutement, au service client ou à l’évaluation interne, ce n’est plus un détail technique.

Pourquoi ce retard de gouvernance finit par coûter cher
Dans sa page de contexte sur l’initiative, AICDI explique que la question ne porte pas seulement sur la conformité, mais sur les effets sur les personnes, la société, les droits et les données. Une entreprise peut aller vite avec l’IA tout en restant floue sur les biais, la confidentialité ou l’impact sur le travail.
Le message devient encore plus net dans l’analyse publiée par Thomson Reuters : l’IA mal gouvernée devient un risque ESG, donc un risque de réputation, d’investissement et de pilotage. Là aussi, le sujet cesse d’être une fascination techno pour redevenir une question de responsabilité très ordinaire.

À quoi ressemble une entreprise un peu plus crédible sur l’IA
Le point intéressant est que la feuille de route existe déjà. L’initiative lancée en 2024 par l’UNESCO et la Thomson Reuters Foundation a justement été pensée comme un questionnaire de cartographie et de transparence, pour aider les entreprises à savoir où l’IA est utilisée, quels risques elle ouvre et quels standards elles peuvent documenter. — à lire aussi : L’IA devient enfin crédible quand elle aide quelqu’un à reconnaître le monde sans….
Cette architecture s’appuie en plus sur la Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle, c’est-à-dire un cadre déjà connu plutôt qu’une invention de dernière minute. En clair, une entreprise sérieuse n’a plus seulement besoin d’un cas d’usage convaincant. Elle doit pouvoir dire qui contrôle le système, comment l’humain garde la main et où un problème peut remonter.
Article créé en collaboration avec l’IA.





