Table des matières
Qu’est-ce que l’IA responsable?
Risques et réglementations relatifs à l’IA
Tout comme l’avènement du Web annonçait un changement fondamental dans la société et les entreprises, nous venons d’entrer dans une nouvelle ère tout aussi transformatrice : l’intelligence artificielle (IA).
Qu’elle soit utilisée dans l’IA générative (GenAI), l’analyse prédictive, la visionique ou dans une autre application, l’IA est apparue comme une nouvelle étape offrant des possibilités illimitées, en permettant aux entreprises d’élaborer des stratégies fondées sur le renseignement, d’accroître leur efficacité opérationnelle, d’améliorer leurs capacités en matière de prévision et d’atteindre des niveaux de personnalisation et de rendement sans précédent.
L’incidence de l’IA dans le paysage commercial est profonde et continue de croître.
Au premier trimestre de 2024, environ une entreprise canadienne sur sept utilisait l’IA générative ou prévoyait le faire, selon le rapport de Statistique Canada intitulé « Utilisation de l’IA générative par l’entreprise ».
Le rapport soulignait les principales raisons justifiant l’adoption de l’IA générative :
- Accélération de la création de contenu créatif (68,5 %)
- Augmentation de l’automatisation sans réduire le nombre d’emplois ou d’heures de travail (46,1 %)
- Amélioration de l’expérience client (37,5 %)
- Amélioration du coût-efficacité (35,1 %)
Malgré ses avantages, l’IA fait l’objet d’une analyse rigoureuse et de critiques légitimes concernant les risques d’erreurs et de biais qu’elle pose, la violation de la vie privée et les manquements à l’éthique. L’IA est intégrée dans les produits, les services et les interactions de tous les jours. Sa mise en application responsable prend donc une importance considérable.
Conseils personnalisés en matière d'intelligence artificielle
Souhaitez-vous savoir comment l'intelligence artificielle (« IA ») peut transformer votre entreprise?Qu’est-ce que l’IA responsable?
L’IA responsable implique la prise de mesures nécessaires pour s’assurer que les modèles d’IA sont dignes de confiance et sûrs, qu’ils respectent les principes éthiques et que leurs résultats sont explicables. Les organisations qui prennent part à la conception, au développement, au déploiement et à l’utilisation des systèmes d’IA devraient adhérer à ces principes à chaque étape du cycle de vie d’un modèle.
John Weigelt, responsable national de la technologie et de l’IA responsable, Microsoft Canada, qualifie l’IA responsable de « différenciateur de marché » pouvant renforcer la confiance qu’inspire une entreprise.
« Les gens n’utilisent pas les outils etervices qui ne leur inspirent pas confiance, dit-il. Lorsqu’ils utilisent des outils comme l’intelligence artificielle, les Canadiens veulent avoir l’assurance que vous avez évalué la manière dont ces outils prennent des décisions en suivant un processus structuré et qu’ils ont des recours. »
Ce guide de l’IA responsable vise à vous aider à comprendre les risques et les répercussions liés au fait de ne pas investir dans une IA responsable et à vous fournir des renseignements pratiques sur la création d’un cadre de gouvernance de l’IA qui est responsable, efficace et axé sur l’humain.
Quels sont les risques, les répercussions et les implications en matière de sécurité de l’IA?
Les données constituent la base de tout système d’IA, ce qui comporte par nature un certain degré de risque.
Les systèmes d’IA peuvent avoir un biais inhérent découlant des données utilisées durant leur apprentissage. Cela peut donner lieu à des résultats inéquitables ou discriminatoires qui risquent de perpétuer davantage le biais ou les stéréotypes liés à certains sous-groupes, et qui peuvent influencer les décisions dans des domaines comme l’embauche, les prêts et l’application de la loi.
« Les gens ont des préjugés; par conséquent, l’IA a des préjugés. Elle peut amplifier et reproduire les mêmes préjugés et stéréotypes que nous avons, en tant qu’humains. L’IA peut faire cela à une échelle telle que cela peut avoir de profondes répercussions, si nous n’en remettons pas en question les résultats », explique Mandi Crespo, directrice, Services-conseils en accessibilité.
Les hallucinations propres à l’IA générative, se produisent lorsqu’un modèle génère du contenu en se fondant sur les tendances de données plutôt que sur une compréhension ou une vérification des faits en temps réel.
Compte tenu des grandes quantités de données d’apprentissage dont les systèmes d’IA ont besoin pour fonctionner efficacement, il existe des risques de fuites de données sensibles et de violations de la vie privée.
Le recours, sans les autorisations nécessaires, à du matériel protégé par des droits d’auteur pour entraîner des modèles d’IA peut porter atteinte à la propriété intellectuelle ou enfreindre les règlements sur la confidentialité.
À mesure que les systèmes d’IA deviennent plus autonomes, les risques qu’il y ait des conséquences imprévues augmentent. Il est essentiel de prévoir des interventions et des mesures de contrôle humaines pour éviter les conséquences néfastes.
Tout relâchement dans ces domaines peut entraîner, pour votre entreprise, de graves répercussions. Voici les enjeux auxquels s’exposent les entreprises qui n’implantent pas l’IA responsable en priorité :
Avantages et inconvénients de l’IA générative du point de vue de la cybersécurit...
IA générative : considérations et compromis en matière de cybersécurité
En savoir plusRéglementations à venir sur l’IA
Les gouvernements accordent de plus en plus d’importance aux lois qui réglementent les technologies de l’IA, afin d’atténuer les risques de préjudices. Il est essentiel de respecter la réglementation locale et internationale applicable pour que les clients continuent d’avoir confiance dans l’entreprise et pour éviter les sanctions.
À l’heure actuelle au Canada, il n’existe pas de cadre réglementaire portant particulièrement sur l’IA, mais le projet de loi C-27, aussi connu sous le nom de Loi de 2022 sur la mise en œuvre de la Charte du numérique, vise à combler ce vide. Ce projet de loi, qui est actuellement à l’étude à la Chambre des communes, vise à amender les règles fédérales en matière de protection de la vie privée et à établir des normes communes et des mécanismes de gouvernance visant les systèmes d’IA dont l’incidence est importante, de manière à établir, dans le secteur privé, un équilibre entre l’innovation d’une part, et la sécurité et les normes éthiques de l’autre. La loi établirait également des mesures pour en assurer l’application et des sanctions afin de tenir les entreprises responsables.
La réglementation nord-américaine sur l’IA évoluera considérablement dans un avenir proche, en particulier lorsque le projet de loi C-27 sera adopté, ce qui haussera les exigences que devront respecter les entreprises canadiennes.
Modernisation des dispositions sur la protection des renseignements personnels a...
La technologie a mené à la refonte des lois protégeant la vie privée au Canada.
En savoir plusRIA responsable : Les principes fondamentaux
L’IA responsable n’est pas seulement une exigence technique ou réglementaire, mais une obligation fondamentale en matière d’éthique. Microsoft, qui est généralement reconnue comme étant un chef de file dans ce domaine, établit des lignes directrices et des principes fondamentaux sur ce que devrait constituer une IA responsable.
Selon Microsoft, six principes devraient guider le développement, le déploiement et l’utilisation de l’IA. En cliquant sur chacun d’eux, vous en apprendrez davantage sur la manière de le mettre en œuvre dans vos pratiques en matière d’IA.
« Depuis leur publication il y a sept ans, ces principes demeurent pertinents. Quand on examine les directives internationales comme celles de l’OCDE ou le processus d’Hiroshima du G7 [sur l’intelligence artificielle générative] qui cherchent à instaurer un cadre commun, on constate que les mêmes termes sont repris dans leurs principes. Ils s’avèrent très utiles alors que nous cherchons à mettre en place des orientations politiques, des directives et des normes pour façonner le domaine », souligne Weigelt.
Pour respecter les six principes de Microsoft sur l’IA responsable, il est nécessaire d’adopter des méthodologies qui sont fondamentalement centrées sur l’humain, qui utilisent des données exemptes de biais inhérents et qui sont continuellement soumises à une surveillance rigoureuse. Il est tout aussi important de veiller à ce que les employés aient les connaissances et la formation nécessaires en IA pour appuyer ces efforts.
Examinons de plus près comment mettre les six principes de Microsoft en application.
Résultats explicables et transparence en IA
Pour que les résultats d’un système d’IA soient explicables et transparents, ses processus doivent être clairement documentés et continuellement surveillés, ce qui garantit que les décisions qu’il prend sont en harmonie avec les résultats escomptés.
« La transparence et la responsabilité peuvent renforcer la confiance des gens, puisqu’ils peuvent voir ce pour quoi le système a été conçu ; la mesure dans laquelle il peut faire l’objet d’audit en améliore la crédibilité, ce qui renforce la confiance encore davantage », déclare Sonia Edmonds, associée directrice, Innovation et changement et membre de l’équipe de haute direction de BDO Canada.
La définition des processus de prise de décision est un principe fondamental de l’IA responsable, puisqu’elle permet aux équipes de s’attaquer à une série d’autres problèmes relatifs à l’IA, dont les autres piliers de Microsoft sur l’IA responsable que nous explorerons plus en détail ci-dessous.
« Nous ne pouvons pas considérer les systèmes d’IA simplement comme une boîte noire dont personne ne comprend le fonctionnement : leurs processus doivent pouvoir être expliqués aux parties prenantes techniques et non techniques », ajoute Elaraby.
Un modèle d’IA transparent et explicable renforce également le partenariat entre l’humain et l’IA. Lorsque les humains comprennent le fonctionnement interne d’un modèle d’IA, ils peuvent plus facilement développer une collaboration entre l’humain et l’IA, la modifier et l’actualiser.
- Utiliser des fiches d’évaluation de l’IA pour mesurer systématiquement les forces et les faiblesses du système d’IA.
- Relever et publier le contenu généré par l’IA, aviser les utilisateurs lorsqu’ils interagissent avec l’IA et faire en sorte que les directives d’utilisation sont facilement accessibles.
- Mettre par écrit les décisions et les explications et utiliser des outils ouverts afin de mieux comprendre le comportement global du modèle et chacune de ses prévisions. L’outil InterpretML de Microsoft, par exemple, est utilisé pour entraîner les modèles interprétables et expliquer les systèmes à boîte noire.
Responsabilité en IA
La responsabilité consiste à assumer la responsabilité des résultats des systèmes d’IA, qu’ils soient positifs ou négatifs, et à appuyer clairement les processus de propriété et de prise de décision.
« La question de la responsabilité et de la transparence est vraiment importante si nous voulons atteindre le plein potentiel de l’IA. Les gens ont des craintes [quant à l’intelligence artificielle]; pour les éliminer, il faut notamment mettre en place un cadre d’IA rigoureux qui intègre les principes d’éthique et l’obtention de résultats équitables, et qui garantit que vos solutions sont vérifiables », explique Edmonds.
En intégrant une conception axée sur l’humain dans la structure des systèmes d’IA, on modifie fondamentalement la façon dont ces technologies interagissent avec le monde qui les entoure, en plaçant au premier plan les valeurs et les besoins humains, et les considérations éthiques. Cette approche favorise intrinsèquement une responsabilité accrue dans le développement et le déploiement de l’IA.
- Élaborer des pratiques en matière de responsabilité visant à garantir que des personnes demeurent en contrôle des systèmes d’IA autonomes.
- Définir des structures de responsabilité et des processus de prise de décision clairs.
- Établir des mécanismes de surveillance qui permettent un suivi continu.
- Encourager l’amélioration continue par l’entremise de commentaires et faciliter la communication entre les parties prenantes. La responsabilité des équipes d’IA ne s’arrête pas au déploiement et comprend la surveillance et la vérification continues des performances du système.
- Mettre en œuvre des opérations d’apprentissage automatique (MLOps) pour assurer l’efficacité de la gestion, du déploiement et de la surveillance des modèles.
L’IA dans le contexte des incapacités, de l’équité et de l’inclusion
Les systèmes d’IA devraient traiter toutes les personnes et tous les sous-groupes démographiques de manière équitable et sans parti pris ni discrimination. Par exemple, une personne bègue pourrait, avec raison, devenir frustrée si l’IA ne cesse de l’interrompre avant qu’elle ne puisse terminer son énoncé.
L’IA générative expose les personnes handicapées à certains des risques les plus importants. Ces systèmes peuvent, involontairement, alimenter des préjugés, diffuser de fausses informations ou porter atteinte à la vie privée.
27 % des Canadiens de 15 ans et plus s’identifient comme ayant une incapacité, selon l’Enquête canadienne de 2022 sur l’incapacité
Cela représente huit millions de Canadiens qui pourraient être exclus ou victimes de discrimination lorsque des préjugés font partie intégrante des systèmes d’IA.
Pour atténuer les préjugés en matière d’accessibilité, Crespo conseille d’intégrer dans la conception des principes d’inclusion dès le début d’un projet d’IA. Planifier en anticipant et en relevant, dès le début de la phase de développement, les préjugés ou stéréotypes possibles dans les ensembles de données et en établissant les bases nécessaires pour établir une perspective interfonctionnelle élargie.
Il faut ensuite s’assurer de disposer d’un moyen d’assurer le suivi de l’intégrité des informations collectées et transmises au moteur d’IA, de la mesurer et de l’analyser.
Quant à l’accessibilité en IA générative, il est important de reconnaître que l’IA peut également offrir d’énormes avantages. Par exemple, la technologie de l’IA est en mesure de relever des préjugés qui pourraient même échapper à l’humain, en offrant une analyse plus objective des données, ce qui peut donner lieu à des pratiques plus équitables et inclusives.
L’IA responsable en milieu de travail
De nombreuses entreprises se tournent vers des solutions d’IA pour améliorer l’efficacité du processus de sélection et d’embauche. Cependant, des certaines études ont démontré que ces outils basés sur l’IA peuvent, par inadvertance, perpétuer des préjugés, en relevant automatiquement et en accordant une moins bonne note aux candidats dont le CV ou le profil contient des mots liés à une incapacité ou à des attributs relatifs à la diversité, à l’équité et à l’inclusion. Cela peut entraîner injustement l’exclusion de certaines personnes qualifiées dans les bassins de candidats en raison d’hypothèses fondamentalement injustifiées concernant l’incapacité.
Les équipes des services-conseils en accessibilité de BDO ont travaillé avec nos clients en vue d’examiner leurs systèmes de recrutement et leurs outils de sélection afin de s’assurer qu’ils sont justes et impartiaux.
« Si on n’examine pas soi-même les renseignements, on demande à l’IA d’analyser et de collecter à sa place et on risque d’embaucher des personnes et d’éliminer involontairement des candidats en raison de leur genre, de leur origine ou de leur incapacité.. Nous pouvons aider les clients à travailler en toute conscience lorsqu’ils utilisent des outils de sélection pour l’emploi », explique Crespo.
Nous pouvons fournir des modèles pour guider les questions d’entrevue qui permettent de s’assurer que les candidats qualifiés ne sont pas éliminés en fonction de leurs capacités. Nous pouvons également examiner les données sur les candidats pour aider une organisation à déterminer pourquoi elle risque de retenir moins de candidats parmi les personnes handicapées et à faire savoir aux candidats d’origines diverses et aux personnes handicapées qu’ils sont les bienvenus.
- S’entretenir avec les parties prenantes touchées par les systèmes d’IA et mettre sur pied des équipes de conception diversifiées.
- Former les équipes d’IA sur l’importance de lutter contre les préjugés et d’intégrer les principes d’accessibilité dans leur travail.
- Utiliser des outils pour traiter les données anormales, comme la création de modèles axés sur les données et la détection en temps réel des biais.
- Mener des évaluations de l’équité afin de cerner les problèmes et de prendre des mesures de la disparité en matière de performance. Tenir compte de ce qui suit : Le modèle donne-t-il les mêmes résultats pour les sous-groupes dont les attributs sont en grande partie semblables? Par exemple, si un modèle est conçu pour aider à l’embauche, le taux d’embauche est-il le même, quel que soit le sous-groupe?
- Utiliser des produits ouverts de source renommée pour les évaluations d’équité des modèles et pendant la phase de développement de l’IA. Aequitas, par exemple, est une boîte à outils ouverte utilisée dans la vérification des biais; elle a été élaborée par le Center for Data Science and Public Policy de l’Université de Chicago.
- Mettre en œuvre des algorithmes d’atténuation des risques pour résoudre les problèmes d’équité observés et fournir aux développeurs des lignes directrices afin qu’ils puissent évaluer si ces mesures d’atténuation permettent de résoudre adéquatement les problèmes du modèle en matière d’équité.
Efficacité de l’IA en matière de sécurité et de confidentialité
Tous les systèmes d’IA sont fondés sur des données, ce qui leur permet de faire des prévisions éclairées. Plus la quantité de données utilisées pour l’apprentissage du modèle est grande, plus il peut être précis, mais une grande quantité de données entraîne de grandes responsabilités.
Les exigences en matière de confidentialité et de sécurité nécessitent un respect rigoureux des lois et des normes en vigueur pour la collecte, l’utilisation et le stockage de données. Toute politique stricte en matière de gestion des données devrait tenir compte du type de données collectées, de l’exactitude de leur étiquetage et des mesures mises en œuvre pour en contrôler l’accès. On doit appliquer à la gestion de l’accès aux données les mêmes principes qui servent à contrôler et limiter attentivement l’accès physique aux aires sécurisées.
Pour éviter toute violation du droit d’auteur, il est important de s’assurer que les sources de données qui alimentent le processus de saisie des données sont légitimes.
Envisagez une approche stratégique visant à tirer parti des outils avancés de tierces parties et à les utiliser comme fondement pour améliorer la sécurité de votre organisation dans divers domaines.
« Nous tirons parti d’outils comme les services d’Azure AI Microsoft 365 Copilot; nous profitons donc du grand nombre de fonctionnalités de sécurité qui y sont plus ou moins intégrées. Toutefois, nous reconnaissons que les cadres d’IA des outils de tierces parties ne répondent pas parfaitement à nos besoins particuliers. Cela n’est pas dû au fait que leurs politiques sont inadéquates, mais plutôt au fait que notre entreprise risque d’être soumise à des règlements plus stricts dans certains secteurs et de devoir respecter des politiques qui lui sont propres », explique Edmonds.
« Exploiter leurs outils accélère notre progrès, mais nous intégrons également au système des couches de sécurité supplémentaires pour garantir que nos solutions satisfont à nos normes et à nos obligations particulières en matière de réglementation. »
- Évaluer et gérer les risques relatifs à la cybersécurité et à la résilience du système pendant son déploiement.
- Faire preuve de transparence pour la collecte, l’utilisation et le stockage des données.
- S’assurer que les utilisateurs sont en mesure de contrôler la manière dont leurs données sont utilisées.
- Chiffrer les données durant leur transfert et au repos et effectuer régulièrement des analyses de données pour détecter toute vulnérabilité.
- Mener régulièrement des audits de données, supprimer les données qui ne sont plus nécessaires et ne collecter que les données qui sont absolument nécessaires.
Fiabilité et sécurité de l’IA
La fiabilité et la sécurité découlent de la cohérence et de la précision. Un des aspects clés consiste à garantir que les modèles d’IA peuvent résister à toute manipulation malveillante, même dans des conditions inattendues. Tenons compte de ceci : Le système d’IA fonctionne-t-il comme prévu lors de sa conception d’origine?
En mettant en œuvre des processus de validation et de vérification rigoureux, un système d’automatismes régulateurs, une surveillance continue et des audits aléatoires, les organisations sont rapidement en mesure de détecter et de corriger les incohérences. Il est important d’appliquer ces mesures en permanence tout au long du cycle de vie d’un outil d’IA pour s’assurer que ses performances demeurent constantes.
L’élément humain est tout aussi important. En intégrant à l’approche des activités de surveillance humaine et des boucles de rétroaction, cela permet de garantir qu’après le lancement, les systèmes d’IA continuent de fonctionner en respectant les limites établies relatives à l’éthique et aux lois.
- Créer un système d’automatismes régulateurs pour minimiser le risque de dysfonctionnements ou d’obtenir des résultats dangereux avant que les utilisateurs y soient exposés.
- Relever, évaluer et atténuer les divers écarts de précision parmi les sous-groupes de données.
- Effectuer une analyse détaillée des erreurs pour comprendre la répartition des échecs à la fois pour l’ensemble et pour chacun des collectifs, ce qui peut aider à diagnostiquer les erreurs de manière exhaustive.
L’entreprise réinventée
Feuille de route tactique pour l’adoption réussie de l’IA générative
En savoir plusRenforcer la résilience grâce à un cadre de gouvernance de l’IA
Si les principes ci-dessus ne sont pas intégrés à l’IA dès le départ, elle peut miner la confiance des utilisateurs.
Un cadre de gouvernance de l’IA de bout en bout, agile et évolutif, est la pierre angulaire qui permet d’atténuer les risques et de garantir que toute solution fondée sur l’IA est élaborée, déployée et exploitée de manière responsable.
Les objectifs ultimes, les indicateurs de réussite et les principes directeurs varient énormément d’un secteur et d’une organisation à l’autre. Élaborer un seul cadre d’IA responsable capable de répondre à tous les besoins est donc impossible. La priorité qu’un établissement financier accorde à la confidentialité des données et à l’atténuation des biais sera probablement différente de celle qu’accorde un prestataire de soins de santé à la transparence et à l’exactitude de son approche axée sur le patient.
Le concept de gouvernance responsable de l’IA nécessite une approche sur mesure qui s’harmonise aux objectifs de votre organisation et aux contextes éthiques, juridiques et techniques dans lesquels la technologie est utilisée.
3 éléments essentiels de la gouvernance de l’IA
Voici, plus bas, une feuille de route vers les trois piliers d’un cadre de gouvernance de l’IA fondé sur les pratiques de pointe de Microsoft et sur notre propre expérience du déploiement de solutions d’IA, acquise au sein de notre entreprise et dans le cadre des travaux effectués chez nos clients.
Politique et surveillance
La première étape de la gouvernance de l’IA consiste à définir clairement la manière dont l’IA appuie votre organisation.
« Lier l’IA aux résultats opérationnels contribue réellement à en favoriser l’adoption et à réaliser un examen complet à 360 degrés de la confiance nécessaire pour appuyer ces capacités », conseille Weigelt.
Une fois établie, cette base contribuera à étayer vos politiques, normes et procédures internes pour garantir que chacune des étapes, dont la conception, la construction, le déploiement, l’exploitation et les étapes subséquentes, mène à une IA responsable. Cela comprend la mise en place de mécanismes de surveillance pour assurer le suivi des activités liées à l’IA, le respect des exigences qui découlent des lois et des règlements et l’établissement d’un cadre qui permet de déterminer s’il convient de signaler un cas d’utilisation de l’IA afin de le soumettre à un examen plus approfondi.
Il est aussi important de soumettre les parties prenantes externes à des contrôles que d’imposer à vos équipes internes les normes élevées nécessaires pour garantir l’excellence et la conformité. Un cadre structuré peut vous aider à contrôler les fournisseurs de manière diligente en vue de comprendre comment ils utilisent les systèmes d’IA et de vous assurer qu’ils respectent vos politiques.
Il faut que la gouvernance de l’IA s’appuie sur une approche axée sur l’humain. Définissez clairement les rôles et les responsabilités de toutes les équipes et parties prenantes qui prennent part à un projet d’IA et faites participer les utilisateurs finaux dès les premières étapes de la conception de l’IA pour gagner leur confiance et leur assentiment.
Il s’agit également de familiarisation et de formation à l’égard de l’IA pour vos employés, et de favoriser une culture de responsabilisation dans votre organisation. Les employés de BDO participent à des séances d’information obligatoires sur la sécurité et la gouvernance des données.
Mettez sur pied un comité chargé d’offrir des conseils relatifs aux questions, défis et possibilités en matière de développement et de déploiement de l’IA. Par exemple, l’équipe Innovation et changement de BDO se consacre à faire progresser notre entreprise en explorant et en mettant en œuvre de nouvelles idées, de manière responsable. Afin de poursuivre nos objectifs particuliers en tant qu’entreprise, cette équipe offre également des conseils sur les projets des clients.
« En mettant sur pied une équipe interfonctionnelle, nous sommes en mesure de concevoir des cadres et des politiques de gouvernance de l’IA qui sont à l’image de nos valeurs organisationnelles et qui nous obligent à respecter les mêmes normes lorsque nous travaillons à concevoir les systèmes de nos clients », explique Edmonds.
Selon Microsoft, il existe trois déclencheurs de cas d’utilisation sensible :
- Le refus d’un service qui pourrait avoir une incidence sur la vie, par exemple, un système d’IA qui traite des demandes de prêt.
- Un risque de préjudice pour l’être humain, par exemple, un système d’IA utilisé pour établir des diagnostics médicaux ou qui fournit des renseignements sur les courants de retour et les courants océaniques.
- Une incidence sur les droits et libertés de la personne, par exemple un système d’IA qui mesure le respect des règles sur le port du masque dans un hôpital. « Il est extrêmement difficile de s’assurer que le système se comporte correctement pour tous les membres d’une collectivité. Si quelqu’un porte une coiffe ou a la peau foncée et porte un masque foncé, il peut être très difficile de s’assurer que l’IA est adaptée à l’objectif fixé », explique Weigelt.
Recherche et développement
Créez un comité de gouvernance et des groupes de travail interfonctionnels sur l’IA pour mener des recherches sur les questions liées à l’IA responsable. Ce comité et ces groupes composés d’experts internes et de membres d’organismes tiers constituent une source d’information sur laquelle vous pouvez compter pour obtenir des conseils, des pratiques exemplaires et des recommandations qui façonnent les politiques et pratiques officielles.
Par exemple, le comité Aether de Microsoft dispose d’un groupe de travail sur chacun des six piliers de l’entreprise sur l’IA responsable, ainsi que d’autres groupes de travail qui étudient la manière dont les gens interagissent avec l’IA, explique Weigel.
Dans son mandat, l’équipe Innovation et changement de BDO est chargée de se tenir au courant des tendances émergentes en matière d’innovation sur le marché. Elle travaille en étroite collaboration avec nos équipes chargées des activités stratégiques et du renseignement sur le marché pour s’assurer que nous demeurons au courant de la dynamique du marché et que nous priorisons, évaluons et commercialisons les innovations pertinentes.
Mise en œuvre
La phase de conception et d’ingénierie est le pilier structurel et technique de l’IA responsable. Les ingénieurs et les concepteurs jouent un rôle crucial en transformant les politiques de gouvernance en exigences techniques réalisables.
Intégrez dans les systèmes d’IA des considérations éthiques et des principes de conception axés sur l’humain dès leur conception. Il est essentiel de définir et de fixer des limites quant à l’utilisation acceptable et inacceptable de l’IA, surtout si l’on tient compte du nombre croissant de règlements qui traitent explicitement de ces distinctions.
Les techniques de surveillance continue et de validation de la sécurité, comme le fuzzing et l’approche de l’équipe rouge, doivent être intégrées à chaque étape de la conception, de la formation, des essais et même après le déploiement afin de bien comprendre le fonctionnement du modèle d’IA et de garantir que les résultats sont toujours explicables, interprétables et transparents.
« Aucun modèle n’étant parfait, en comprendre les limites nous permet d’élaborer des plans d’atténuation », explique Elaraby.
Il est important que le développement se fasse en fonction des besoins et des objectifs de votre organisation. Des organisations réputées et des chefs de file en technologie ont établi des cadres fiables pour guider les pratiques en matière d’IA responsable, et bien que ces cadres puissent constituer de bons points de départ pour de nombreuses entreprises, les modèles qui en découlent risquent de ne pas être parfaitement adaptés à chaque situation ou besoin propre à l’entreprise. Pour orienter les décisions et les pratiques de votre organisation de manière vraiment efficace, évaluez et, si nécessaire, adaptez ces cadres pour combler toute lacune.
« En réalité, lors de la conception, même si bon nombre de ces outils nous aident à travailler plus rapidement, nous intégrons également, pour nos systèmes, des couches de protection supplémentaires », explique Edmonds.
Quelles principales parties prenantes devraient prendre part au processus?
De nombreuses parties prenantes, qu’elles soient internes ou externes, techniques ou non techniques, peuvent jouer un rôle important dans la façon de développer, déployer, utiliser et gérer les systèmes d’IA. La taille d’un comité de gouvernance de l’IA peut varier considérablement entre les grandes et les petites entreprises, en fonction des différences en matière de ressources, de complexité des applications d’IA et de besoins organisationnels.
Qui devrait participer ? Voyons certaines des principales parties prenantes.
Ces parties prenantes se penchent avant tout sur les fonctions de surveillance, de gestion et de conformité des systèmes d’IA.
À l’échelon de la haute direction, toute discussion sur la gouvernance de l’IA devrait se faire en présence du directeur général et du directeur de l’information ou du directeur de la sécurité de l’information, des responsables de la gestion des risques et des représentants des ressources humaines. Votre politique de gouvernance devrait également être examinée et approuvée par le conseil d’administration.
La participation d’autres groupes ou experts pertinents devrait être envisagée selon votre situation particulière. Par exemple, l’équipe Innovation et changement de BDO et les responsables de BDO Digital, qui servent le marché et nos clients, prennent part à ce processus.
Menez des consultations auprès de personnes issues de groupes visés par les principes d’équité, dont les personnes handicapées. Leur point de vue unique et l’expérience qu’elles ont vécue peuvent aider à relever les biais possibles et les problèmes d’accessibilité qui, autrement, pourraient être exclus.
Un champion du changement est une personne qui appuie fondamentalement l’IA et la transformation, qui est un fervent défenseur de l’innovation et qui peut en encourager l’adoption dans l’organisation.
« Cette personne qui se passionne pour les possibilités qu’offre l’IA est motivée par l’idée de la présenter de manière à compléter ce que l’entreprise essaie d’accomplir. Toute personne qui croit vraiment en l’IA et qui pourrait en être le défenseur sera naturellement motivée par certains aspects comme la gouvernance et le rendement du capital investi », déclare Emmanuel Florakas, associé, BDO Digital et chef national, Données et IA, BDO Canada.
L’intelligence artificielle et l’avenir du travail
Dans la ruée pour adopter des solutions d’IA, comment trouver un équilibre entre innovation et responsabilité? De nombreux chefs d’entreprise se posent cette importante question dans le contexte numérique actuel.
« C’est un enjeu dont nous sommes très conscients, alors que nous misons sur l’innovation et le changement pour BDO », déclare Edmonds. « Comme pour toute technologie, l’IA est soumise à un cycle de battage médiatique qui sera bientôt à son apogée quand tout le monde voudra en tirer parti. Et c’est aussi notre cas; nous ne voulons pas faire partie des retardataires. Mais en même temps, nous jugeons qu’il est important de réfléchir aux aspects liés à la gouvernance. »
Se doter d’un cadre de gouvernance rigoureux est important, mais il doit également être suffisamment souple pour favoriser l’innovation et non l’étouffer.
Par-dessus tout, acceptez le changement et réfléchissez à la façon dont l’IA peut accroître les possibilités pour votre entreprise. À vrai dire, les gens vont faire avancer la technologie, que vous en limitiez ou non l’utilisation.
Améliorer l’innovation grâce aux solutions commerciales d’IA
Notre entreprise est particulièrement bien placée pour guider votre organisation dans la mise en œuvre d’une IA responsable, en tirant parti des connaissances approfondies et des partenariats stratégiques de notre équipe interfonctionnelle.
Grâce à ses professionnels en IA qui sont qualifiés dans les domaines de la stratégie numérique, des services-conseils en gestion de risques, de l’accessibilité et d’autres domaines clés, notre équipe peut aider votre organisation à adopter, à tous les échelons, des pratiques en matière d’IA responsable.
De plus, les services et les solutions que nous proposons sont étayés par notre propre expérience. Notre entreprise a été parmi les premières à adopter Microsoft 365 Copilot, ce qui nous a permis de nous placer à l’avant-plan de l’innovation et de la productivité fondées sur l’IA, et nous continuons d’explorer les possibilités qu’offrent les avancées pratiques en matière d’IA qui s’inscrivent dans notre engagement à l’intégrer de manière responsable.
Au cours de notre longue collaboration avec Microsoft qui nous a permis d’obtenir le prix Partenaire de l’année, nous avons acquis une connaissance approfondie de leur technologie et de leurs processus, ce qui a donné lieu au succès des nombreux projets de déploiement chez nos clients.
Communiquez avec nous et demandez une consultation pour discuter de l’état actuel de votre maturité en matière d’IA et déterminer la voie à suivre pour que l’IA responsable ne soit pas seulement un avantage, mais votre gage de succès.
Rishan Lye
Associé et chef, Services-conseils
[email protected]
Emmanuel Florakas
Associé, BDO Digital
[email protected]
Rocco Galletto
Associé et chef national, Services-conseils en cybersécurité
[email protected]
Sam Abdulrrazek
Chef national, Services-conseils en technologies numériques
[email protected]
Mandi Crespo
Directrice, services-conseils en accessibilité
[email protected]
Ziad Akkaoui
Chef national, Services-conseils en risque
[email protected]
Sonia Edmonds
Associée directrice, Innovation et changement
[email protected]
Haya Elaraby
Directrice, Services-conseils en gestion
[email protected]