Conseils pratiques pour élaborer une politique de gouvernance IA au sein de vos organisations
Il était une fois une vaste et ancienne bibliothèque cachée à l’intérieure une montagne. Cette bibliothèque contenait d’innombrables livres remplis de connaissances, d’histoires et d’expériences diverses accumulées à travers le monde. Cette vaste et ancienne bibliothèque était préservée par un gardien – un personnage mystérieux, toujours vigilant, qui avait la capacité de lire et de récupérer n’importe quel livre en un instant. Le gardien n’avait pas écrit les livres en tant que tels, ni vécu les histoires inscrites à l’intérieur de ces livres. Néanmoins, le gardien avait une aptitude extraordinaire à tisser des narrations à partir des nombreuses pages, offrant aux visiteurs des aperçus, des conseils et de la camaraderie. Le gardien savait expliquer les contenus de différentes façons, en s’adaptant à la compréhension et aux besoins de ses visiteurs. Mais sa sagesse ne lui appartenait pas. Sa sagesse était le reflet des milliers de livres dont il prenait soin. Au fil du temps, le gardien était devenu plus habile, apprenant des demandes de chaque visiteur et peaufinant ses exposés et son assistance. Cependant, le gardien demeurait parfaitement conscient de son objectif : non pas remplacer les visiteurs et les auteurs légitimes des livres, mais leur donner accès à des connaissances à plusieurs niveaux et à une compréhension plus claire du monde qui les entourait. La caractérisation allégorique ci-dessus résume l’essence même d’une intelligence artificielle générative et d’une intelligence artificielle à grands modèles de langage (LLM) : deux outils en constante évolution conçus pour aider et améliorer le potentiel humain, tout en étant conscients de leurs limites en tant que création de l’ingéniosité humaine.
La genèse de l’intelligence artificielle
En s’étalant sur des siècles d’imagination, de curiosité, d’exploration et d’ingéniosité humaines, le concept de création d’intelligence artificielle via des machines intelligentes trouve son origine dans les mythologies et récits anciens d’êtres artificiels dotés d’une intelligence naturelle. Toutefois, la recherche et l’étude formelles de l’IA ont débuté au milieu du XXe siècle1. En fait, Alan Turing2, mathématicien, logicien et informaticien britannique, a d’ailleurs enclenché les travaux préparatoires de l’intelligence artificielle dans les années 1930 et 1940. Ce dernier a introduit le concept de « machine universelle de Turing », fondement théorique des ordinateurs modernes. La recherche en IA a officiellement commencé en 1956 lors d’un atelier au Dartmouth College de Hanover, dans le New Hampshire, aux États-Unis. Cet événement a réuni des pionniers de l’informatique qui imaginaient des machines attribuées d’une intelligence comparable à celle des humains. À partir de 1956 et des années subséquentes, l’IA a connu des époques de progrès rapides et des périodes de revers. Aujourd’hui, au XXIe siècle, l’IA est en train de prospérer grâce aux avancées innovatrices de l’apprentissage automatique, de l’apprentissage profond et de la puissance de calcul informatique. À notre époque de recherche, de développement, de déploiement et d’applications d’IA en plein essor, (1) quelle est l’importance des principes de gouvernance de l’IA? Les principes de gouvernance de l’IA impliquent des processus et des garde-fous pour s’assurer que les systèmes d’IA sont sécuritaires, éthiques et alignés sur les valeurs sociétales. Tout en favorisant l’innovation, ils englobent des mécanismes de surveillance pour faire face aux risques tels que les préjugés, les atteintes à la vie privée et les abus3. (2) Comment vos organisations à travers le Canada pourraient-elles élaborer des étapes pratiques pour établir une politique de gouvernance de l’IA? Notre Infolettre d’avril 2025 est méticuleusement rédigée pour apporter des réponses multidimensionnelles à ces deux questions pragmatiques. Avant d’explorer notre sujet, nous devons circonscrire la signification même de l’IA.
1 – Nils J. Nilsson. The Quest for Artificial Intelligence: A History of Ideas and Achievements. Paperback illustrated Edition published on the 30th of October 2009 by Cambridge University Press, Shaftesbury Road, Cambridge CB2 8BS, United Kingdom, 580 pages. Quest artificial intelligence | Artificial intelligence and natural language processing | Cambridge University Press
2 – Andrew Hodges (Author) and Douglas Hofstadter (Foreword). Alan Turing: The Enigma – The Book that Inspired the Film: The Imitation Game. Updated Paperback Edition published on the 10th of November 2014 by Princeton University Press, 41 William Street, Princeton, New Jersey, USA, 768 pages. Alan Turing: The Enigma | Princeton University Press
3 – Tim Mucci and Cole Stryker. What is AI Governance? Article published on the 10th of October 2024 on the website of International Business Machines (IBM) Corporation. American multinational technology company headquartered in Armonk, New York, USA, and present in 175 countries IBM. What is AI Governance? | IBM
L’intelligence artificielle : une triple définition
En termes raccourcis, l’intelligence artificielle fait référence à la simulation des processus d’intelligence humaine par des machines, en particulier des systèmes informatiques. Elle inclut globalement la capacité des machines à effectuer des tâches qui nécessitent généralement l’intelligence humaine. Pour bien concevoir l’essence de l’IA, une triple définition est utile à notre compréhension globale1. Premièrement, d’un point de vue général, l’IA est la capacité d’une machine à imiter le comportement humain intelligent, comme le raisonnement, l’apprentissage, la résolution de problèmes et la compréhension du langage. Deuxièmement, d’un point de vue technique, l’IA implique la programmation de machines pour comparer et analyser des données, reconnaître des modèles et prendre des décisions ou estimer des prédictions, souvent en utilisant des techniques comme l’apprentissage machine ou les réseaux neuronaux. Troisièmement, d’un point de vue des objectifs, l’IA vise à créer des systèmes capables de fonctionner de manière autonome pour atteindre des cibles précises, en s’adaptant à de nouveaux intrants et en profitant des leçons apprises par expérience. L’IA est en effet un domaine de l’informatique en constante évolution, étendant ses applications de l’automatisation des tâches banales à la résolution des problèmes complexes dans des domaines tels que les soins de santé, les finances, les transports et la robotique industrielle.
TABLEAU 1 : Triple définition de l’intelligence artificielle
Perspectives | Définitions de l’IA |
I Généralité | La capacité d’une machine à imiter le comportement humain intelligent comme le raisonnement et la résolution de problèmes. |
II Technicité | Programmation des machines pour analyser des données, reconnaître des modèles et faire des prédictions ou prendre des décisions. |
III Objectif | Conception des systèmes qui fonctionnent de manière autonome, s’adaptent à de nouveaux intrants et apprennent de l’expérience. |
Domaine d’étude
|
Branche de l’informatique axée sur le développement d’agents intelligents qui perçoivent et agissent de manière logique. |
Applications spécifiques
|
La mise en œuvre d’algorithmes pour automatiser des tâches dans des domaines tels que les soins de santé, les finances, les transports et la robotique industrielle. |
Après avoir délimité la triple signification relative à l’IA, comparons maintenant brièvement, sous forme de tableau, deux concepts bénéfiques pour vos organisations : les principes de gouvernance de l’intelligence artificielle et la politique de gouvernance de l’intelligence artificielle – 2 termes fondamentaux utilisés dans le titre et le sous-titre de notre présente infolettre.
Pourquoi devrions-nous faire cela? Selon la norme ISO/IEC 22989:2022, dans la hiérarchie de la terminologie2 de gestion de l’informatique, la notion communément appelée « principe » est un terme générique comprenant et précédant « politique », « mesures/approches », « lignes directrices » et « plans d’action/stratégies ».
1 – Peter Norvig and Stuart Russell (Editors). Artificial Intelligence: A Modern Approach. Pearson Series in Artificial Intelligence. 4th Paperback Global Edition published on the 20th of May 2021 by Pearson Education Limited, headquarters: KAO Two – KAO Park, Hockham Way, Harlow, CM17 9SR, United Kingdom. Sales office: 80 Strand Street, London, WC2R 0RL, England, United Kingdom, 1168 pages. Artificial Intelligence: A Modern Approach
2 – Organisation internationale de la normalisation (ISO). ISO/IEC 22989:2022 – Gestion des technologies de l’information – Intelligence artificielle – Concepts et terminologie relatifs à l’intelligence artificielle. Édition 1, composé de 80 pages et publiée en Juillet 2022 par Secrétariat central d’ISO, siège social : Chemin de Blandonnet 8, CP 401, 1214 Vernier, Genève, Suisse. ISO/IEC 22989:2022 – Technologies de l’information — Intelligence artificielle — Concepts et terminologie relatifs à l’intelligence artificielle
Compréhension Comparative des Principes de Gouvernance de l’IA et de la Politique de Gouvernance de l’IA
D’une part, les principes de gouvernance de l’IA sont des lignes directrices de haut niveau qui décrivent les valeurs éthiques et sociétales auxquelles les systèmes d’IA doivent adhérer, telles que l’équité, la transparence, la responsabilité et la confidentialité. Ces principes de gouvernance de l’IA servent de boussoles morales, garantissant que l’IA s’harmonise avec les valeurs organisationnelles et les normes sociétales.
D’autre part, la politique de gouvernance de l’IA fait référence aux règles, procédures et cadres spécifiques que les organisations mettent en œuvre pour opérationnaliser les principes de gouvernance de l’IA. Les politiques sont exploitables et adaptées aux besoins distinctifs de l’organisation, garantissant la conformité aux exigences légales et normatives, et atténuant les risques reliés au déploiement de l’IA. Ces concepts peuvent être définis formellement comme suit:
- Principes de gouvernance de l’IA : stratégies philosophiques et éthiques qui inspirent la création et l’utilisation des technologies de l’IA. Par exemple, elles peuvent mettre l’accent sur des valeurs telles que le respect des droits de la personne et la garantie que l’IA soit bénéfique pour la société dans son ensemble. Recommandations ou valeurs de haut niveau qui gèrent le développement et l’utilisation éthiques des systèmes d’IA.
- Politique de gouvernance IA : cadre tangible dérivé des principes. Les politiques traduisent des idées éthiques abstraites en réglementations applicables, garantissant que les systèmes d’IA sont conformes à des normes précises, comme la sécurité des données ou les lois anti-discrimination. Règles, normes et cadres spécifiques mis en œuvre pour faire respecter les principes de gouvernance.
Principes de gouvernance de l’intelligence artificielle communément reconnus
Les principes de gouvernance de l’IA1 sont des stratégies philosophiques et éthiques conçues pour garantir que les technologies de l’IA sont développées, déployées et utilisées de manière éthique, responsable et sécuritaire. Ces principes visent à minimiser les risques et à maximiser les avantages de l’IA pour les individus, les organisations et la société dans son ensemble. Bien que différentes organisations et gouvernements puissent avoir leurs propres variantes, voici quelques principes de gouvernance de l’IA communément reconnus :
- Clarté : les systèmes d’IA doivent être clairement explicables, compréhensibles et responsables. Les utilisateurs devraient avoir accès aux informations sur la façon dont les décisions de l’IA sont prises.
- Équité et non-discrimination : les systèmes d’IA ne doivent pas renforcer les préjugés ni discriminer des individus ou des groupes en fonction de leur race, de leur ethnicité, de leur sexe, de leur âge ou d’autres caractéristiques.
- Confidentialité et sécurité : l’IA doit respecter le droit à la vie privée des individus et garantir la sécurité de leurs données et informations personnelles.
- Sécurité et fiabilité : les systèmes d’IA doivent être sécuritaires à utiliser, robustes et fiables, minimisant les risques pour les utilisateurs et la société.
- Responsabilité : les développeurs, les applicateurs et les utilisateurs de l’IA doivent assumer la responsabilité des conséquences des applications de l’IA.
- Conception centrée sur l’humain : l’IA doit donner la priorité au bien-être et à l’autonomie de l’humanité, en veillant à ce qu’elle serve l’humanité plutôt qu’elle ne lui porte atteinte.
- Inclusivité : les systèmes d’IA doivent être conçus pour bénéficier à tous, en garantissant un accès et une représentation équitables.
- Durabilité : le développement de l’IA doit tenir compte des impacts environnementaux et viser des pratiques durables.
- Utilisation éthique : l’IA doit s’harmoniser avec les normes et valeurs éthiques, en évitant les applications nuisibles.
- Conformité aux lois et règlements : les systèmes d’IA doivent respecter les exigences légales et les normes internationales.
De nombreuses organisations, telles que la Commission européenne et l’OCDE, ont publié leurs propres cadres détaillés de gouvernance de l’IA. Les principes ci-dessus sont essentiels pour guider l’évolution éthique de l’IA et établir la confiance entre les utilisateurs et la société dans son ensemble. Après notre compréhension comparative des principes de gouvernance de l’IA et de la politique de gouvernance de l’IA, examinons maintenant une norme internationale primordiale pour la gestion des technologies de l’IA : ISO/IEC 42001.
1 – James Sayles, Certified AI Governance Strategist & Certified CISO. Principles of AI Governance and Model Risk Management: Master the Techniques for Ethical and Transparent AI Systems. Paperback 1st Edition published on the 28th of December 2024 by Springer Science + Business Media Publishing, 1 New York Plaza, New York City, NY 10004, United States of America, 472 pages. Principles of AI Governance and Model Risk Management: Master the Techniques for Ethical and Transparent AI Systems | SpringerLink
Système de gestion de l’intelligence artificielle (AIMS) aussi connu sous le nom d’ISO/IEC 42001
La norme ISO/IEC 42001:2023, aussi connue sous le nom de Norme sur les systèmes de gestion de l’intelligence artificielle (AIMS)1, fournit un cadre administratif permettant aux organisations de gérer les technologies de l’IA de manière responsable. Voici ses principales composantes:
- Gestion des risques : les organisations doivent identifier, analyser, évaluer et surveiller les risques tout au long du cycle de vie du système d’IA. Cela garantit que les problèmes potentiels sont traités de manière proactive.
- Évaluation de l’impact de l’IA : un processus visant à évaluer les conséquences potentielles des systèmes d’IA sur les utilisateurs et la société. Cela inclut la prise en compte des contextes techniques et sociétaux dans lesquels l’IA opère.
- Gestion du cycle de vie du système : cela implique la supervision de toutes les étapes du développement du système d’IA, y compris la planification, les tests et la prise en compte des résultats pour assurer une amélioration continuelle.
- Transparence : les décisions prises par les systèmes d’IA doivent être claires et compréhensibles, évitant ainsi tout préjudice ou impact sociétal négatif.
- Responsabilité : les organisations sont tenues d’assumer la responsabilité des décisions relatives à l’IA, en s’assurant qu’elles peuvent expliquer le raisonnement qui les sous-tend.
- Considérations éthiques : La norme met l’accent sur l’équité, la surveillance humaine et l’utilisation éthique des technologies d’IA.
- Confidentialité et protection des données : des pratiques responsables de gouvernance des données sont préconisées pour répondre aux préoccupations en matière de confidentialité associées à l’IA.
- Amélioration continuelle : les organisations doivent surveiller le rendement de leurs systèmes de gestion de l’IA et mettre en œuvre des mesures correctives pour les améliorer au fil du temps.
Les composantes ISO/IEC 42001 susmentionnées visent à favoriser la confiance, la transparence et les pratiques éthiques dans le développement, le déploiement et l’application de l’intelligence artificielle.
Importance de la Norme ISO/IEC 42001
La norme ISO/IEC 42001 est la première norme mondiale relative aux systèmes de gestion de l’IA, fournissant des conseils précieux pour ce domaine technologique en évolution rapide. Il aborde les défis uniques posés par l’IA, tels que les considérations éthiques, la transparence et l’apprentissage continu. Pour les organisations, il définit une manière structurée de gérer les risques et les opportunités reliées à l’IA, en équilibrant l’innovation et la gouvernance.
Publics cibles de la Norme ISO/IEC 42001
Les publics cibles de la Norme ISO/IEC 42001 sont les organisations de toutes tailles impliquées dans le développement, la fourniture ou l’utilisation de produits ou de services basés sur l’IA. Elle s’applique à tous les secteurs d’activité et elle est pertinente pour les établissements du secteur public, les organisations non gouvernementales (ONG) ainsi que pour les entreprises du secteur privé et les organismes sans but lucratif (OBNL).
Applications étendues de la Norme ISO/IEC 42001
En tant que première norme internationale pour les systèmes de gestion de l’intelligence artificielle, la Norme ISO/IEC 42001:2023 est conçue pour être largement applicable à diverses applications et contextes d’IA dans le monde entier. Elle fournit un cadre logistique permettant aux organisations de créer, d’installer et de gérer de manière responsable des systèmes d’IA.
Système de gestion de l’intelligence artificielle (AIMS) en quelques mots
Un système de gestion de l’intelligence artificielle (AIMS), tel que spécifié dans la Norme ISO/IEC 42001, est un ensemble d’éléments interdépendants ou interactifs d’une organisation destinés à établir des politiques et des objectifs, ainsi que des processus pour atteindre ces objectifs, en relation avec le développement, la fourniture ou l’utilisation responsables des systèmes d’IA. La Norme ISO/IEC 42001 identifie les exigences et fournit des lignes directrices pour l’établissement, la mise en œuvre, l’entretien et l’amélioration continuelle d’un système de gestion de l’IA dans le contexte d’une organisation.
Objectifs de la Norme ISO/IEC 42001
La Norme ISO/IEC 42001 vise à offrir à tous les types d’organisations les conseils complets dont elles ont besoin pour utiliser l’IA de manière responsable, éthique et efficace, même si la technologie évolue rapidement. Conçue pour couvrir les nombreux aspects de l’intelligence artificielle et les différentes applications qu’une organisation peut exécuter, elle fournit une approche intégrée de la gestion des projets d’IA, de l’évaluation des risques au traitement efficace de ces risques. À ce stade de l’exploration de notre sujet, nous devons maintenant déchiffrer les clauses et contrôles fondamentaux stipulés dans la Norme ISO/IEC 42001.
Norme ISO/IEC 42001 – Clauses et contrôles fondamentaux des systèmes de gestion de l’intelligence artificielle (AIMS)
La norme ISO/IEC 42001 est structurée autour de clauses communes à tous les systèmes de gestion ISO, ainsi que de contrôles majeurs qui orientent les organisations dans la mise en œuvre et la gestion d’un système de gestion de l’intelligence artificielle. Voici une synthèse :
TABLEAU 3 – Pour les avantages opérationnels et la gestion des PME :
Synthèse des clauses et contrôles stipulés dans ISO/IEC 42001
CLAUSES ET CONTRÔLES | DESCRIPTIONS ABRÉGÉES |
Clause 4 : Contexte | Comprendre les besoins et les attentes des parties concernées.
Contexte de l’organisation :
|
Clause 5 : Leadership | Établir l’engagement et la responsabilisation des dirigeants en matière de gestion de l’IA.
Leadership :
|
Clause 6 : Planification | Identifier les risques et les occasions de développement, fixer des objectifs et planifier des actions.
Planification :
|
Clause 7 : Soutien | Garantir les ressources, les compétences, la sensibilisation et la communication pour AIMS.
Soutien :
|
Clause 8 : Opération | Mettre en œuvre des processus pour une conception, un développement et une utilisation responsables des systèmes d’IA.
Opération :
|
Clause 9 : Évaluation de la performance | Surveiller, mesurer, analyser et évaluer le rendement des systèmes relatifs à l’IA.
Évaluation de la performance :
|
Clause 10 : Amélioration | Amélioration continuelle des systèmes de gestion de l’IA.
Amélioration constante :
|
Contrôle A.2/B.2 |
|
Contrôle A.3/B.3 |
|
Contrôle A.4/B.4 |
|
Contrôle A.5/B.5 |
|
Contrôle A.6/B.6 |
|
Contrôle A.7/B.7 |
|
Contrôle A.8/B.8
|
Renseignements destinés aux parties concernées et intéressées par les systèmes d’IA. |
Contrôle A.9/B.9
|
Utilisation responsable des systèmes d’IA conformément aux politiques organisationnelles. |
Contrôle A.10/B.10
|
Responsabilités tierces parties et relations avec les clients. |
Les clauses de normalisation et les contrôles de la norme ISO/IEC 42001 découlent d’une pratique importante qui est utile aux organisations du monde entier, à savoir : la gouvernance de l’intelligence artificielle.
1 – Organisation internationale de normalisation (ISO). ISO/IEC 42001:2023 – Technologies de l’information – Système de gestion de l’intelligence artificielle (AIMS). Édition 1, composée 151 pages et publiée en Décembre 2023 par le Secrétariat central d’ISO, siège social : Chemin de Blandonnet 8, CP 401, 1214 Vernier, Genève, Suisse. ISO/IEC 42001:2023 – Intelligence artificielle – Système de management
Définitions conceptuelles de la gouvernance de l’intelligence artificielle
La gouvernance de l’intelligence artificielle1 fait référence aux cadres, processus et normes conçus pour s’assurer que les systèmes d’IA sont développés, déployés et gérés de manière responsable, éthique et transparente. Voici quelques définitions et perspectives conceptuelles résumées ci-dessous :
- Définition d’IBM : la gouvernance de l’IA implique la création de processus et de garde-fous pour s’assurer que les systèmes d’IA sont sécuritaires, éthiques et alignés sur les valeurs sociétales. Elle comprend des mécanismes de surveillance pour faire face aux risques tels que les préjugés, les atteintes à la vie privée et les abus tout en favorisant l’innovation2.
- Perspective académique de l’Université d’Oxford : la gouvernance de l’IA consiste à gérer les transitions sociotechniques apportées par l’IA, à gérer les risques et à s’assurer que les applications de l’IA améliorent l’efficacité économique et la qualité de vie tout en minimisant les conséquences imprévues3.
- Compréhension générale : la gouvernance de l’IA englobe les politiques, les règlements et les lignes directrices éthiques qui guident la recherche, le développement et l’application de l’IA. L’objectif est d’équilibrer l’innovation technologique avec la sécurité, l’équité et le respect des droits humains.
Les définitions conceptuelles synthétisées ci-dessus soulignent l’importance de la surveillance, des considérations éthiques et de l’alignement sociétal dans la gouvernance de l’IA. Dans cette section de notre Infolettre d’avril 2025, nous devons décrire clairement les étapes pratiques pour élaborer une politique de gouvernance de l’IA au sein de n’importe quelle organisation.
1 – Claude Louis-Charles, Ph.D. AI Governance and IT Risk Management: Overview of Process and Needs for Governing an Artificial Intelligence Environment. Paperback Edition published on the 12th of September 2024 by Cybersoft Technologies LLC, 4422 Cypress Creek Parkway, Suite 400, Houston, Texas 77068, USA, 343 pages. AI Governance and IT Risk Management: Overview of Process and Needs for Governing an Artificial Intelligence Environment: Louis-Charles PhD, Claude: 9798339114222: Books – Amazon.ca
2 – Tim Mucci and Cole Stryker. What is AI Governance? Article published on the 10th of October 2024 on the website of International Business Machines (IBM) Corporation. American multinational technology company headquartered in Armonk, New York, USA, and present in 175 countries IBM. What is AI Governance? | IBM
3 – Araz Taeihagh. “Governance of Artificial Intelligence”. Oxford University Academic Journal Article published on the 4th of June 2021 in Policy and Society Review, Volume 40, Issue 2, June 2021, pages 137–157. Oxford University Press, Great Clarendon Street, Oxfordshire, Marston OX2 6DP, United Kingdom. Governance of artificial intelligence | Policy and Society | Oxford Academic
Étapes pratiques pour élaborer une politique de gouvernance de l’IA
L’élaboration d’une politique de gouvernance de l’IA implique plusieurs étapes pratiques pour garantir une utilisation responsable, éthique et efficace des systèmes d’IA. Ci-après une description sommaire1,2 :
- Définissez les objectifs et le champ d’application.
Identifiez les objectifs de la politique et les applications spécifiques de l’IA qu’elle couvrira.
Alignez la politique avec les objectifs organisationnels, les principes éthiques et les exigences réglementaires. - Mobilisez les parties prenantes.
Impliquez les principales parties prenantes, notamment les dirigeants, les équipes techniques, les conseillers juridiques et les utilisateurs finaux.
Collectez des données pour garantir que la politique réponde à des perspectives et des besoins divers. - Évaluez les risques et les possibilités d’innovation.
Effectuez une évaluation approfondie des risques afin d’identifier les défis éthiques, juridiques et opérationnels potentiels.
Mettez en évidence les possibilités d’innovation et d’amélioration grâce à l’IA. - Élaborez des lignes directrices éthiques.
Établissez des principes d’équité, de transparence, de responsabilité et de confidentialité.
Assurez-vous que les lignes directrices favorisent la confiance et atténuent les pratiques biaisées dans les systèmes d’IA. - Concevez et délimitez un cadre de mise en œuvre.
Définissez et délimitez des processus de conception, de développement, de déploiement et de surveillance des systèmes d’IA.
Ajoutez des mécanismes d’audit/de vérification, et d’évaluation des performances de l’IA. - Établissez les rôles et responsabilités.
Attribuez des rôles clairs et des responsabilités précises pour la gestion des systèmes d’IA et l’application de la politique de gouvernance de l’IA.
Assurez-vous de la responsabilisation/l’imputabilité à tous les niveaux de l’organisation. - Fournissez des formations et des ressources.
Formez les employés à l’utilisation éthique de l’IA et aux spécificités de la politique de gouvernance de l’IA.
Proposez des ressources pour appuyer la conformité et l’innovation. - Mettez en œuvre, surveillez et mettez à jour la politique de gouvernance de l’IA.
Après la mise en œuvre, surveillez en permanence la conformité et l’efficacité des systèmes d’IA.
Mettez à jour la politique de gouvernance de l’IA pour tenir compte des avancées technologiques et de l’évolution des réglementations changeantes.
Les étapes pratiques mentionnées ci-dessus sont utiles aux organisations pour créer une politique robuste de gouvernance de l’IA qui favorise l’innovation responsable et renforce la confiance du public.
1 – Nick Malter. Writing an Organizational AI Policy: First Step Towards Effective AI Governance. Article published on the 17th of September 2024 on the website of the European Commission. Futurium – European AI Alliance. Trustworthy AI in Practice. Writing an Organizational AI Policy: First Step Towards Effective AI Governance | Futurium
2 – Ravi Jay Gunnoo. Cybersecurity Education Compendium: Harnessing Digital Safety Best Practices Across the World. 1st Edition published in Paperback – Large Print Format and e-Book Version. Publication date: the 18th of September 2024. Publishing Company: Amazon Publishing USA, 1200 12th Avenue South, City of Seattle, State of Washington, WA 98144, USA, 728 pages. CYBERSECURITY EDUCATION COMPENDIUM: Harnessing Digital Safety Best Practices Across the World: Gunnoo, Ravi Jay: 9798336620344: Books – Amazon.ca
Pourquoi la gouvernance de l’IA est-elle importante pour les organisations y compris les PME?
La gouvernance de l’IA est essentielle pour les organisations et les PME, car elle garantit une utilisation responsable, éthique et efficace des technologies d’IA, tout en minimisant les risques et en renforçant la confiance. Voici quelques raisons pour lesquelles elle est importante :
- Gestion des risques
Les systèmes d’IA peuvent présenter des risques tels que des biais, des conséquences imprévues et des atteintes à la vie privée. Les cadres de gouvernance de l’IA aident les organisations à identifier et à atténuer proactivement ces risques afin d’éviter tout préjudice. - Conformité avec les règlements
De nombreux gouvernements adoptent des lois et des normes pour contrôler l’IA. Par exemple, la Loi européenne sur l’IA, premier cadre juridique complet régissant l’IA dans l’Union européenne, est le premier cadre juridique intégral réglementant l’IA. La gouvernance de l’IA aide les organisations à se conformer à l’évolution des exigences légales, évitant ainsi les sanctions et les atteintes à leur réputation. - Imputabilité éthique
La gouvernance de l’IA garantit que les technologies d’IA sont conformes aux principes éthiques, favorisant l’équité, la transparence et le respect des droits humains. Cela renforce la confiance des clients, des employés et de la société en général. - Transparence et confiance
En créant des mécanismes de prise de décision et de communication clairs autour des systèmes d’IA, la gouvernance de l’IA consolide la transparence et la confiance entre les parties prenantes. - Excellence opérationnelle
La gouvernance de l’IA améliore l’efficience et le rendement des systèmes d’IA en établissant des processus, des rôles et des responsabilités distinctement clairs. Cela garantit une intégration et un fonctionnement plus fluides au sein de l’organisation. - Encouragement de l’innovation
Tout en gérant les risques, la gouvernance de l’IA permet également aux organisations d’innover de manière responsable, en explorant de nouvelles possibilités tout en maintenant un alignement éthique et sociétal. - Préservation de la réputation
Des pratiques d’IA responsables protègent les organisations des atteintes à leur réputation pouvant résulter de mises en œuvre d’IA contraires à l’éthique ou mal gérées.
En mettant en œuvre une gouvernance solide de l’IA, les organisations peuvent équilibrer l’immense potentiel de l’IA avec l’imputabilité, en veillant à ce que ses avantages soient exploités efficacement sans compromettre la sécurité ou les enjeux éthiques.
Comparaison des différences entre la gouvernance de l’IA et la gouvernance de la cybersécurité
Pour les PME, pourquoi est-il utile de comparer les différences entre la gouvernance de l’IA et la gouvernance de la cybersécurité ? Notre réponse à cette question importante est double : (1) du point de vue de la gestion des coûts opérationnels et (2) du point de vue de la nomenclature.
(1) Du point de vue de la gestion des coûts opérationnels, comparer les différences entre la gouvernance de l’IA et la gouvernance de la cybersécurité est très utile pour les PME, car cela les aide à relever des défis particuliers, à gérer des ressources limitées et à profiter des possibilités commerciales en gérant consciencieusement les technologies informatiques. Voici quelques raisons pour lesquelles cette comparaison est utile :
- Gestion des risques sur mesure :
- La gouvernance de l’IA se concentre sur les questions éthiques telles que les biais, la transparence et la responsabilité dans les systèmes d’IA.
- La gouvernance de la cybersécurité met l’accent sur la protection des données et des systèmes contre les accès non autorisés et les cybermenaces. Comprendre ces différences permet aux PME de mettre en œuvre des stratégies ciblées dans ces deux domaines.
- Conformité réglementaire :
- La gouvernance de l’IA garantit le respect des lois obligatoires, comme la Loi européenne sur l’IA, qui régit le déploiement et l’utilisation éthique de l’IA.
- La gouvernance de la cybersécurité s’aligne sur des cadres comme la norme ISO 27001:2022, axée sur la protection des données et la confidentialité. Les PME peuvent éviter des sanctions juridiques coûteuses en abordant efficacement les deux domaines de la gouvernance de l’IA et de la gouvernance de la cybersécurité.
- Allocation des ressources:
- La plupart des PME disposent de ressources limitées. En distinguant la gouvernance de l’IA de la gouvernance de la cybersécurité, elles peuvent allouer plus efficacement leurs budgets et leurs efforts pour répondre à leurs besoins spécifiques sans augmenter leurs coûts financiers.
- Instauration la confiance :
- Des pratiques de gouvernance de l’IA éthiques renforcent la confiance entre les clients et les parties prenantes.
- Des mesures robustes de gouvernance de la cybersécurité protègent les données confidentielles, renforçant ainsi la confiance dans la posture de sécurité de l’organisation. Comparer la gouvernance de l’IA et la gouvernance de la cybersécurité aide les PME à se forger une réputation de responsabilité et de fiabilité.
- Pérennisation:
- La gouvernance de l’IA prépare proactivement les PME aux défis éthiques et opérationnels en constante évolution des technologies de l’IA.
- La gouvernance de la cybersécurité assure la résilience face à des cybermenaces de plus en plus complexes. Ensemble, les cadres de gouvernance de l’IA et de gouvernance de la cybersécurité permettent aux PME de s’adapter aux avancées technologiques tout en minimisant les risques.
(2)Du point de vue de la nomenclature, quel est le lien/rapport terminologique entre la gouvernance de l’IA et la gouvernance de la cybersécurité? La gouvernance de l’IA et la gouvernance de la cybersécurité sont des domaines reliés mais très distincts1.
D’une part, la gouvernance de l’IA désigne les cadres, politiques et lignes directrices éthiques qui encadrent le développement, le déploiement et l’utilisation des technologies d’IA. Elle se concentre sur des questions telles que l’équité, la transparence, l’imputabilité et la prévention des abus et de la mauvaise gestion des systèmes d’IA. D’autre part, la gouvernance de la cybersécurité s’intéresse davantage à la protection des données, des systèmes et des réseaux contre les attaques malveillantes, les accès non autorisés et autres menaces à la sécurité numérique. La gouvernance de l’IA peut se recouper avec la gouvernance de la cybersécurité lorsque les systèmes d’IA interviennent dans la sécurisation des réseaux ou la protection des systèmes d’IA contre les cybermenaces. Par exemple, la garantie de la robustesse des systèmes d’IA face aux attaques adverses et la gestion de la confidentialité des données dans les applications d’IA sont des propriétés où ces deux domaines se recoupent. En substance, si la gouvernance de la cybersécurité s’inscrit dans le cadre plus large de la gouvernance de l’IA, cette dernière englobe de nombreux aspects au-delà de la cybersécurité. Bien qu’elles puissent concorder sur certains points, leurs axes et objectifs diffèrent manifestement.
Brièvement clarifiée, la gouvernance de l’IA est plus holistique et elle aborde les implications sociétales et éthiques de l’IA, tandis que la gouvernance de la cybersécurité se concentre sur la protection des systèmes et des données contre les cybermenaces externes et internes
1 – Justin B. Bullock (Editor – Evans School of Public Policy and Governance, University of Washington), Yu-Che Chen (Editor – School of Public Administration, University of Nebraska at Omaha), Johannes Himmelreich (Maxwell School of Citizenship and Public Affairs, Syracuse University) et al. The Oxford Handbook of AI Governance: Oxford Academic Handbooks Yearly Series. Hardcover Edition published on the 19th of April 2024 by Oxford University Press, Great Clarendon Street, Oxfordshire, Marston OX2 6DP, United Kingdom, 1104 pages. The Oxford Handbook of AI Governance | Oxford Academic
Question pratique 1
Comment les organisations en général et les PME en particulier peuvent-elles renforcer de manière proactive la gouvernance de l’IA et la gouvernance de la cybersécurité, et quels sont les défis particuliers qui les empêchent de le faire ?
Les organisations peuvent progresser en adoptant une approche plus proactive, intégrée et collaborative de la gouvernance de l’IA et de la gouvernance de la cybersécurité. Voici quelques façons dont elles pourraient s’améliorer et relever les défis communs :
Étapes à suivre pour que les organisations/PME puissent consolider la gouvernance de l’IA :
- Intégrez l’éthique dans la conception : assurez-vous que les systèmes d’IA sont conçus avec équité, transparence et responsabilisation dès le départ.
- Mettez en œuvre des audits et autres vérifications régulières : effectuez des vérifications/audits pour identifier les biais, les conséquences imprévues ou le non-respect des normes éthiques.
- Éduquez les intervenants : offrez une formation aux employés, aux dirigeants et aux autres intervenants sur les pratiques responsables en matière d’IA.
- Collaborez sur les réglementations : travaillez avec les gouvernements et d’autres organisations pour créer des normes internationales harmonisées en matière d’IA.
Étapes à suivre pour les organisations/PME puissent fortifier la gouvernance de la cybersécurité :
- Sécurisez les systèmes d’IA : créez des défenses robustes contre les attaques adverses, comme la manipulation des entrées ou l’exploitation des modèles.
- Adoptez l’IA dans les mesures de défense : exploitez l’IA pour la détection prédictive des cybermenaces et les réponses automatisées aux cyber-risques.
- Investissez dans la formation de votre personnel : améliorez les compétences des employés en matière de meilleures pratiques de cybersécurité afin de protéger les données et les systèmes confidentiels.
- Préparez-vous aux menaces générées par l’IA : élaborez des stratégies pour lutter contre les cybermenaces émergentes, comme les hypertrucages d’IA ou les logiciels malveillants alimentés par l’IA.
Défis particuliers empêchant les organisations/PME de renforcer à la fois la gouvernance de l’IA et la gouvernance de la cybersécurité :
- Équilibre entre l’innovation et le risque : les organisations peuvent avoir du mal à innover rapidement tout en s’assurant que leurs systèmes d’IA demeurent sécurisés et éthiquement sains.
- Contraintes en matière de ressources : les petites organisations manquent souvent de ressources pour investir dans des cadres de gouvernance avancés et des mesures de cybersécurité.
- Évolution rapide : le développement rapide de la technologie de l’IA peut rendre difficile l’anticipation et l’adaptation aux risques émergents.
- Fragmentation mondiale : des réglementations incohérentes selon les régions du monde peuvent compliquer les efforts de conformité et de collaboration.
Pour relever les défis particuliers mentionnés ci-dessus, il faut un changement de mentalité – d’une approche réactive à une approche proactive – et un investissement soutenu dans l’expertise, les technologies informatiques et la collaboration, quels que soient les secteurs.
Question pratique 2
Y a-t-il des secteurs organisationnels spécifiques qui sont confrontés à des défis de gouvernance de l’IA et de gouvernance et de la cybersécurité?
Les industries qui dépendent fortement d’informations et de données sensibles, ou qui ont des enjeux financiers importants, sont souvent confrontées à des défis uniques dans la mise en œuvre de la gouvernance de l’IA et de la gouvernance de la cybersécurité. Ces défis nécessitent des approches adaptées pour garantir une protection et une conformité solides. L’abrégé ci-après est un portrait révélateur :
- Secteur des soins de santé :
- Gouvernance de l’IA : il est essentiel d’assurer une utilisation éthique des données des patients et de gérer sans préjudice les diagnostics basés sur l’IA.
- Gouvernance de la cybersécurité : les appareils médicaux et les dossiers médicaux sont des cibles de choix pour les cyberattaques, et les violations peuvent avoir des conséquences potentiellement mortelles.
- Services financiers :
- Gouvernance de l’IA : l’utilisation de l’IA pour l’évaluation du crédit, la détection des fraudes ou les décisions d’investissement nécessite de la transparence pour éviter la discrimination.
- Gouvernance de la cybersécurité : les institutions financières sont constamment ciblées par les pirates informatiques, mettant en péril les fonds et les données confidentielles des clients.
- Technologies informatiques et médias sociaux:
- Gouvernance de l’IA : des problèmes tels que les biais algorithmiques, la désinformation et les violations de la vie privée exigent une surveillance rigoureuse.
- Gouvernance de la cybersécurité : les bases massives d’utilisateurs rendent les plateformes attrayantes pour les cybercriminels en matière de violations de données et d’activités malveillantes.
- Infrastructures primordiales (énergie, transport, etc.):
- Gouvernance de l’IA : les systèmes d’IA qui gèrent des services essentiels comme les réseaux électriques ou la circulation doivent être sécuritaires et impartiaux.
- Gouvernance de la cybersécurité : les cyberattaques contre les systèmes importants d’infrastructures énergétiques et de transport peuvent provoquer des perturbations généralisées, rendant la résilience cybernétique vitale.
- Défense militaire et sécurité nationale
- Gouvernance de l’IA : il est extrêmement délicat et complexe d’élaborer des lignes directrices éthiques pour les systèmes de surveillance militaire et les armes militaires autonomes dans les airs, sur terre, sur l’eau, sous l’eau et dans l’espace.
- Gouvernance de la cybersécurité : les systèmes de défense militaire et de sécurité nationale sont des cibles conséquentes pour les menaces persistantes avancées et les cyberattaques hostiles.
Chacune des industries mentionnées ci-dessus doit adapter son approche à ses risques spécifiques en intégrant à la fois le développement d’une IA éthique et des mesures de cybersécurité robustes. La collaboration entre les industries et les gouvernements peut aussi aider à atténuer les défis propres à chaque secteur.
Question pratique 3
Quelles sont les conséquences potentiellement graves pour les organisations et les PME qui ne parviennent pas à gérer efficacement la gouvernance de l’IA et la gouvernance de la cybersécurité ?
Ne pas gérer correctement la gouvernance de l’IA et la gouvernance de la cybersécurité peut entraîner plusieurs conséquences graves pour les organisations et les PME :
- Répercussions juridiques et réglementaires :
- Pénalités en cas de non-conformité : les organisations peuvent faire face à des amendes ou à des poursuites judiciaires en cas de non-respect de réglementations telles que le RGPD, la loi HIPAA ou des exigences propres au secteur.
- Opérations restreintes : une gouvernance incohérente peut mener à des interdictions réglementaires, retardant ou arrêtant le déploiement des systèmes d’IA.
- Atteintes à la réputation :
- Perte de confiance : l’utilisation abusive de l’IA (par exemple, des algorithmes biaisés, des décisions contraires à l’éthique) ou les violations de la cybersécurité peuvent nuire gravement à la confiance du public.
- Attrition de la clientèle : les clients et les partenaires peuvent rompre leurs liens, nuisant ainsi aux relations commerciales à long terme.
- Perturbations opérationnelles :
- Cyberattaques : une cybersécurité faible peut entraîner des violations de données, des attaques de rançongiciels ou des systèmes d’IA compromis.
- Défaillances du système informatique : les systèmes d’IA mal gérés peuvent commettre des erreurs considérables, entraînant des interruptions d’activité ou des résultats dangereux (par exemple, dans le domaine des soins de santé ou des transports).
- Pertes financières :
- Litiges et règlements : les organisations peuvent encourir des coûts importants en raison de poursuites judiciaires découlant de pratiques d’IA contraires à l’éthique ou de violations des données.
- Perte de revenus : les atteintes à la réputation et les temps d’arrêt opérationnels peuvent avoir un impact direct sur les résultats financiers d’une organisation.
- Érosion de la bonne volonté publique:
- Contrecoup éthique : si l’IA est perçue comme étant utilisée de manière irresponsable, les PME pourraient faire face un tollé de protestations publiques, en particulier dans des secteurs comme la santé ou les finances.
- Surveillance accrue : les échecs attirent souvent une attention accrue des autorités réglementaires et des médias, ce qui rend les opérations futures plus difficiles.
- Vulnérabilités technologiques :
- Exploitation de l’IA : les cyber-malfaiteurs peuvent manipuler des systèmes d’IA peu sécurisés, ce qui entraîne des conséquences néfastes pour les organisations et la société.
- Innovation étouffée : une gouvernance incohérente peut entraver le développement sécuritaire et efficace des solutions d’IA innovantes.
Les conséquences potentiellement graves mentionnées ci-dessus s’étendent au-delà des organisations individuelles et des PME, parce que des pratiques irresponsables peuvent saper complètement la confiance de la société dans les technologies de l’IA. Les enjeux sont particulièrement importants comptes tenus de l’omniprésence et de l’influence croissantes de l’intelligence artificielle à notre époque contemporaine.
Conclusion
Question conclusive 1
Comment les principes de gouvernance de l’IA vont-ils évoluer dans l’avenir?
L’avenir des principes de gouvernance de l’IA va évoluer de manière significative à mesure que l’intelligence artificielle continue de progresser et de s’intégrer dans diverses facettes de notre vie quotidienne. Condensées ci-dessous sont quelques ouvertures remarquables :
- Harmonisation mondiale – Les efforts visant à concevoir des normes internationales unifiées s’intensifieront, en s’attaquant aux incohérences à travers le monde et en favorisant les partenariats collaboratifs.
- Des cadres réglementaires plus solides – Les gouvernements et les organismes internationaux vont devoir introduire des réglementations plus complètes, comme la Loi européenne sur l’IA, pour répondre aux défis éthiques, juridiques et sociétaux posés par l’IA. Les normes comme ISO/IEC 42001:2023 sont susceptibles de gagner en importance, aidant les organisations à s’arrimer avec les meilleures pratiques mondiales.
- Pleins feux sur l’IA éthique – Les considérations éthiques demeureront centrales, avec un accent accru sur l’équité, la transparence et l’imputabilité dans les systèmes d’IA.
- Gouvernance anticipative de l’IA – Des stratégies proactives seront élaborées pour anticiper et relever les défis futurs de l’IA, garantissant ainsi une innovation responsable. Cela comprendra l’adaptation des cadres de gouvernance de l’IA pour suivre le rythme des progrès technologiques rapides.
- Intégration avec les objectifs environnementaux – La gouvernance de l’IA prendra de plus en plus en compte les impacts environnementaux, favorisant ainsi des pratiques durables d’IA.
- Coopération internationale – La coopération internationale continuera de jouer un rôle crucial dans l’harmonisation des pratiques de gouvernance de l’IA et dans la résolution des défis transfrontaliers.
- Réalités opérationnelles – Les organisations déplaceront leur attention de l’éthique théorique vers la mise en œuvre pratique, s’assurant que les systèmes d’IA sont à la fois efficaces et conformes.
- Adaptation dynamique – Les cadres de gouvernance de l’IA deviendront de plus en plus flexibles pour suivre le rythme des avancées véloces de l’IA, garantissant ainsi qu’elles restent pertinentes et agissantes.
- Emphase sur la durabilité – Les principes de gouvernance de l’IA mettront de plus en plus l’accent sur la durabilité environnementale, en alignant les développements de l’IA avec les visées climatiques mondiales.
- Implications multipartites – Les gouvernements, les industries et la société civile travailleront ensemble pour élaborer des principes de gouvernance de l’IA qui reflètent une diversité de perspectives.
Les ouvertures vers l’avenir, décrites ci-dessus, permettront aux principes de gouvernance de l’IA de s’épanouir d’une manière qui profite à l’humanité sans compromettre la sécurité, l’équité ou la durabilité. Les principes de gouvernance de l’IA en constante évolution susmentionnées visent à maximiser les avantages de l’IA tout en minimisant les risques, en s’assurant que les technologies de l’IA sont recherchées, développées, déployées, appliquées et maintenues de manière imputable. Ces évolutions et perspectives futures attirent notre attention sur l’importance croissante des principes de gouvernance de l’IA dans la construction d’un avenir responsable et durable pour le développement, le déploiement et l’application de l’intelligence artificielle.
Question conclusive 2
Par rapport aux considérations éthiques, à la sécurité numérique et aux principes de gouvernance innovatrice de l’IA, lesquelles de ces meilleures pratiques devraient avoir la priorité?
Chacune de ces meilleures pratiques – les considérations éthiques, la sécurité numérique et les principes de gouvernance innovatrice de l’IA – est impérative, mais leur priorité dépend du contexte et de l’étape du cycle de vie d’un système d’IA. Cela étant dit, l’approche idéale consiste à les traiter comme des priorités interconnectées plutôt que concurrentes1 :
- Les considérations éthiques doivent servir de fondement. Sans éthique, l’innovation risque de provoquer des dommages et les mesures de cybersécurité peuvent négliger l’équité ou la transparence. Les pratiques éthiques en matière d’IA garantissent que la technologie informatique profite à l’humanité et défend les valeurs sociétales.
- La sécurité numérique est indispensable pour protéger les utilisateurs et les systèmes informatiques. Même l’IA la plus éthique et la plus innovatrice peut échouer de manière désastreuse si elle est vulnérable aux cyberattaques ou aux manipulations adverses. Assurer une cybersécurité robuste est une garantie non négociable protégeant la confiance et la fiabilité.
- Les principes de gouvernance innovatrice de l’IA est le moteur du progrès, rendant l’IA plus puissante, plus efficace et plus performante. Cependant, l’innovation doit être guidée par des principes éthiques et accompagnée par des mesures de cybersécurité rigoureuses pour s’assurer que les progrès ne dépassent pas notre capacité à les gérer de manière responsable.
En bref, les considérations éthiques devraient prévaloir, suivies de la sécurité numérique et de la gouvernance innovatrice de l’IA comme piliers cardinaux d’un écosystème d’IA équilibré. Négliger l’une de ces meilleures pratiques produit des vulnérabilités qui peuvent compromettre la valeur et la fiabilité de l’intelligence artificielle.
1 – Markus D. Dubber (Editor – Faculty of Law, University of Toronto), Frank Pasquale (Editor – School of Law, University of Maryland), and Sunit Das (Editor – Faculty of Medicine, Department of Surgery, University of Toronto) et al. The Oxford Handbook of Ethics of AI: Oxford Academic Handbooks Yearly Series. Paperback Edition published on the 14th of May 2021 by Oxford University Press, Great Clarendon Street, Oxfordshire, Marston OX2 6DP, United Kingdom, 896 pages. The Oxford Handbook of Ethics of AI | Oxford Academic
Ressources et références
Nils J. Nilsson. The Quest for Artificial Intelligence: A History of Ideas and Achievements. Paperback illustrated Edition published on the 30th of October 2009 by Cambridge University Press, Shaftesbury Road, Cambridge CB2 8BS, United Kingdom, 580 pages. Quest artificial intelligence | Artificial intelligence and natural language processing | Cambridge University Press
Andrew Hodges (Author) and Douglas Hofstadter (Foreword). Alan Turing: The Enigma – The Book that Inspired the Film: The Imitation Game. Updated Paperback Edition published on the 10th of November 2014 by Princeton University Press, 41 William Street, Princeton, New Jersey, USA, 768 pages. Alan Turing: The Enigma | Princeton University Press
Peter Norvig and Stuart Russell (Editors). Artificial Intelligence: A Modern Approach. Pearson Series in Artificial Intelligence. 4th Paperback Global Edition published on the 20th of May 2021 by Pearson Education Limited, headquarters: KAO Two – KAO Park, Hockham Way, Harlow, CM17 9SR, United Kingdom. Sales office: 80 Strand Street, London, WC2R 0RL, England, United Kingdom, 1168 pages. Artificial Intelligence: A Modern Approach
Organisation internationale de la normalisation (ISO). ISO/IEC 22989:2022 – Gestion des technologies de l’information – Intelligence artificielle – Concepts et terminologie relatifs à l’intelligence artificielle. Édition 1, composé de 80 pages et publiée en juillet 2022 par Secrétariat central d’ISO, siège social : Chemin de Blandonnet 8, CP 401, 1214 Vernier, Genève, Suisse. ISO/IEC 22989:2022 – Technologies de l’information — Intelligence artificielle — Concepts et terminologie relatifs à l’intelligence artificielle
James Sayles, Certified AI Governance Strategist & Certified CISO. Principles of AI Governance and Model Risk Management: Master the Techniques for Ethical and Transparent AI Systems. Paperback 1st Edition published on the 28th of December 2024 by Springer Science + Business Media Publishing, 1 New York Plaza, New York City, NY 10004, United States of America, 472 pages. Principles of AI Governance and Model Risk Management: Master the Techniques for Ethical and Transparent AI Systems | SpringerLink
Organisation internationale de normalisation (ISO). ISO/IEC 42001:2023 – Technologies de l’information – Système de gestion de l’intelligence artificielle (AIMS). Édition 1, composée 151 pages et publiée en Décembre 2023 par le Secrétariat central d’ISO, siège social : Chemin de Blandonnet 8, CP 401, 1214 Vernier, Genève, Suisse. ISO/IEC 42001:2023 – Intelligence artificielle – Système de management
Claude Louis-Charles, Ph.D. AI Governance and IT Risk Management: Overview of Process and Needs for Governing an Artificial Intelligence Environment. Paperback Edition published on the 12th of September 2024 by Cybersoft Technologies LLC, 4422 Cypress Creek Parkway, Suite 400, Houston, Texas 77068, USA, 343 pages. AI Governance and IT Risk Management: Overview of Process and Needs for Governing an Artificial Intelligence Environment: Louis-Charles PhD, Claude: 9798339114222: Books – Amazon.ca
Araz Taeihagh. “Governance of Artificial Intelligence”. Oxford University Academic Journal Article published on the 4th of June 2021 in Policy and Society Review, Volume 40, Issue 2, June 2021, pages 137–157. Oxford University Press, Great Clarendon Street, Oxfordshire, Marston OX2 6DP, United Kingdom. Governance of artificial intelligence | Policy and Society | Oxford Academic
Nick Malter. Writing an Organizational AI Policy: First Step Towards Effective AI Governance. Article published on the 17th of September 2024 on the website of the European Commission. Futurium – European AI Alliance. Trustworthy AI in Practice. Writing an Organizational AI Policy: First Step Towards Effective AI Governance | Futurium
Ravi Jay Gunnoo. Cybersecurity Education Compendium: Harnessing Digital Safety Best Practices Across the World. 1st Edition published in Paperback – Large Print Format and e-Book Version. Publication date: the 18th of September 2024. Publishing Company: Amazon Publishing USA, 1200 12th Avenue South, City of Seattle, State of Washington, WA 98144, USA, 728 pages. CYBERSECURITY EDUCATION COMPENDIUM: Harnessing Digital Safety Best Practices Across the World: Gunnoo, Ravi Jay: 9798336620344: Books – Amazon.ca
Justin B. Bullock (Editor – Evans School of Public Policy and Governance, University of Washington), Yu-Che Chen (Editor – School of Public Administration, University of Nebraska at Omaha), Johannes Himmelreich (Maxwell School of Citizenship and Public Affairs, Syracuse University) et al. The Oxford Handbook of AI Governance: Oxford Academic Handbooks Yearly Series. Hardcover Edition published on the 19th of April 2024 by Oxford University Press, Great Clarendon Street, Oxfordshire, Marston OX2 6DP, United Kingdom, 1104 pages. The Oxford Handbook of AI Governance | Oxford Academic
Markus D. Dubber (Editor – Faculty of Law, University of Toronto), Frank Pasquale (Editor – School of Law, University of Maryland), and Sunit Das (Editor – Faculty of Medicine, Department of Surgery, University of Toronto) et al. The Oxford Handbook of Ethics of AI: Oxford Academic Handbooks Yearly Series. Paperback Edition published on the 14th of May 2021 by Oxford University Press, Great Clarendon Street, Oxfordshire, Marston OX2 6DP, United Kingdom, 896 pages. The Oxford Handbook of Ethics of AI | Oxford Academic
Contributions
Nous remercions en particulier le Conseil national de recherches du Canada (CNRC) pour son soutien financier par le biais de son Programme d’aide à la recherche industrielle (PARI), lequel programme est bénéfique pour les organisations d’affaires et les PME des 10 provinces et 3 territoires du Canada.
Éditeur-en-chef de l’infolettre :
Alan Bernardi, SSCP, PMP, auditeur principal pour ISO 27001 et ISO 27701
B.Sc. Informatique et Mathématiques, Université McGill, Canada
Diplôme d’études supérieures en gestion, Université McGill, Canada