Suivez nous sur

Des leaders d'opinion

Combler le fossé de confiance en IA

mm
Le kit de préparation mis à jour on

L’adoption de l’IA atteint un point d’inflexion critique. Les entreprises adoptent l’IA avec enthousiasme, motivées par sa promesse d’améliorer considérablement leur efficacité opérationnelle.

Une Enquête Slack ont constaté que l'adoption de l'IA continue de s'accélérer, avec une utilisation de l'IA sur les lieux de travail connaissant une récente augmentation de 24 % et 96 % des dirigeants interrogés estimant qu'« il est urgent d'intégrer l'IA dans toutes leurs opérations commerciales ».

Cependant, il y a un l'élargissement du fossé entre l’utilité de l’IA et l’anxiété croissante quant à ses impacts négatifs potentiels. Seulement 7%des employés de bureau pensent que résultats de l'IA sont suffisamment dignes de confiance pour les aider dans les tâches liées au travail.

Cet écart est évident dans le contraste frappant entre l'enthousiasme des dirigeants pour l'intégration de l'IA et le scepticisme des employés face à des facteurs tels que :

Le rôle de la législation dans l’instauration de la confiance

Pour résoudre ces problèmes de confiance aux multiples facettes, les mesures législatives sont de plus en plus considérées comme une étape nécessaire. La législation peut jouer un rôle central dans la réglementation du développement et du déploiement de l’IA, renforçant ainsi la confiance. Les principales approches législatives comprennent :

  • Lois sur la protection des données et la confidentialité : la mise en œuvre de lois strictes sur la protection des données garantit que les systèmes d'IA traitent les données personnelles de manière responsable. Des réglementations telles que le Règlement général sur la protection des données (RGPD) dans l'Union européenne créent un précédent en exigeant la transparence, la minimisation des données et le consentement des utilisateurs. En particulier, Article 22 du RGPD protège les personnes concernées contre les impacts négatifs potentiels de la prise de décision automatisée. Des décisions récentes de la Cour de justice de l'Union européenne (CJUE) confirment le droit d'une personne de ne pas être soumise à une prise de décision automatisée. Dans le cas d Schufa Holding SA, lorsqu'un résident allemand s'est vu refuser un prêt bancaire sur la base d'un système automatisé de décision de crédit, le tribunal a jugé que l'article 22 exigeait que les organisations mettent en œuvre des mesures pour protéger les droits à la vie privée liés à l’utilisation des technologies d’IA.
  • Règlements sur l'IA : L’Union européenne a ratifié la loi européenne sur l’IA (AIA de l’UE), qui vise à réglementer l’utilisation des systèmes d’IA en fonction de leurs niveaux de risque. La loi comprend des exigences obligatoires pour les systèmes d'IA à haut risque, englobant des domaines tels que la qualité des données, la documentation, la transparence et la surveillance humaine. L’un des principaux avantages de la réglementation sur l’IA est la promotion de la transparence et de l’explicabilité des systèmes d’IA. En outre, l’EU AIA établit des cadres de responsabilité clairs, garantissant que les développeurs, les opérateurs et même les utilisateurs de systèmes d’IA sont responsables de leurs actions et des résultats du déploiement de l’IA. Ceci comprend mécanismes de recours si un système d’IA cause des dommages. Lorsque les individus et les organisations sont tenus responsables, cela renforce la confiance dans le fait que les systèmes d’IA sont gérés de manière responsable.

Initiatives de normes pour favoriser une culture d’IA digne de confiance

Les entreprises n'ont pas besoin d'attendre que de nouvelles lois soient adoptées pour déterminer si leurs processus respectent des directives éthiques et dignes de confiance. Les réglementations en matière d'IA fonctionnent en tandem avec les initiatives émergentes en matière de normes d'IA qui permettent aux organisations de mettre en œuvre une gouvernance responsable de l'IA et les meilleures pratiques tout au long du cycle de vie des systèmes d'IA, englobant la conception, la mise en œuvre, le déploiement et éventuellement le déclassement.

Le National Institute of Standards and Technology (NIST) aux États-Unis a élaboré un Cadre de gestion des risques liés à l'IA pour guider les organisations dans la gestion des risques liés à l’IA. Le cadre est structuré autour de quatre fonctions principales :

  • Comprendre le système d'IA et le contexte dans lequel il fonctionne. Cela inclut la définition de l’objectif, des parties prenantes et des impacts potentiels du système d’IA.
  • Quantifier les risques associés au système d’IA, y compris les aspects techniques et non techniques. Cela implique d'évaluer les performances, la fiabilité et les biais potentiels du système.
  • Mettre en œuvre des stratégies pour atténuer les risques identifiés. Cela comprend l’élaboration de politiques, de procédures et de contrôles pour garantir que le système d’IA fonctionne dans des niveaux de risque acceptables.
  • Établir des structures de gouvernance et des mécanismes de responsabilisation pour superviser le système d’IA et ses processus de gestion des risques. Cela implique des examens et des mises à jour régulières de la stratégie de gestion des risques.

En réponse aux progrès des technologies d’IA générative Le NIST a également publié un cadre de gestion des risques liés à l'intelligence artificielle : profil d'intelligence artificielle générative., qui fournit des conseils pour atténuer les risques spécifiques associés aux modèles fondamentaux. Ces mesures couvrent la protection contre les utilisations néfastes (par exemple, la désinformation, les contenus dégradants, les discours de haine) et les applications éthiques de l'IA qui se concentrent sur les valeurs humaines d'équité, de confidentialité, de sécurité de l'information, de propriété intellectuelle et de durabilité.

En outre, l'Organisation internationale de normalisation (ISO) et la Commission électrotechnique internationale (CEI) ont développé conjointement ISO/CEI 23894, une norme complète pour la gestion des risques liés à l’IA. Cette norme fournit une approche systématique pour identifier et gérer les risques tout au long du cycle de vie de l'IA, y compris l'identification des risques, l'évaluation de la gravité du risque, le traitement pour l'atténuer ou l'éviter, ainsi qu'une surveillance et un examen continus.

L’avenir de l’IA et la confiance du public

À l’avenir, l’avenir de l’IA et la confiance du public dépendront probablement de plusieurs facteurs clés qu’il est essentiel que toutes les organisations suivent :

  • Effectuer une évaluation complète des risques pour identifier les problèmes de conformité potentiels. Évaluez les implications éthiques et les biais potentiels de vos systèmes d’IA.
  • Création d'une équipe interfonctionnelle comprenant des professionnels du droit, de la conformité, de l'informatique et de la science des données. Cette équipe devrait être chargée de surveiller les modifications réglementaires et de garantir que vos systèmes d’IA respectent les nouvelles réglementations.
  • Mettre en œuvre une structure de gouvernance qui comprend des politiques, des procédures et des rôles pour gérer les initiatives d'IA. Garantir la transparence des opérations d’IA et des processus décisionnels.
  • Réaliser des audits internes réguliers pour garantir le respect de la réglementation en matière d'IA. Utilisez des outils de surveillance pour suivre les performances du système d’IA et le respect des normes réglementaires.
  • Former les employés à l’éthique de l’IA, aux exigences réglementaires et aux meilleures pratiques. Proposer des sessions de formation continue pour tenir le personnel informé des changements dans les réglementations en matière d’IA et dans les stratégies de conformité.
  • Tenir des enregistrements détaillés des processus de développement de l'IA, de l'utilisation des données et des critères de prise de décision. Préparez-vous à générer des rapports qui peuvent être soumis aux régulateurs si nécessaire.
  • Établir des relations avec les organismes de réglementation et participer aux consultations publiques. Fournir des commentaires sur les réglementations proposées et demander des éclaircissements si nécessaire.

Contextualiser l'IA pour obtenir une IA digne de confiance 

En fin de compte, une IA digne de confiance dépend de l’intégrité des données. La dépendance de l’IA générative à l’égard de grands ensembles de données n’est pas synonyme d’exactitude et de fiabilité des résultats ; au contraire, c'est contre-intuitif pour les deux normes. La Retrieval Augmented Generation (RAG) est une technique innovante qui « combine des LLM statiques avec des données spécifiques au contexte. Et il peut être considéré comme une aide hautement compétente. Celui qui fait correspondre le contexte de la requête avec des données spécifiques provenant d'une base de connaissances complète.» RAG permet aux organisations de fournir des applications spécifiques au contexte qui respectent les attentes en matière de confidentialité, de sécurité, d'exactitude et de fiabilité. RAG améliore la précision des réponses générées en récupérant les informations pertinentes à partir d'une base de connaissances ou d'un référentiel de documents. Cela permet au modèle de baser sa génération sur des informations précises et à jour.

RAG permet aux organisations de créer des applications d'IA spécialement conçues, hautement précises, contextuelles et adaptables afin d'améliorer la prise de décision, d'améliorer l'expérience client, de rationaliser les opérations et d'obtenir des avantages concurrentiels significatifs.

Combler le fossé de confiance en l’IA implique de garantir la transparence, la responsabilité et l’utilisation éthique de l’IA. Même s’il n’existe pas de solution unique pour maintenir ces normes, les entreprises disposent de stratégies et d’outils. La mise en œuvre de mesures robustes de confidentialité des données et le respect des normes réglementaires renforcent la confiance des utilisateurs. L’audit régulier des systèmes d’IA pour détecter les biais et les inexactitudes garantit l’équité. L'augmentation des grands modèles linguistiques (LLM) avec une IA spécialement conçue renforce la confiance en incorporant des bases de connaissances et des sources de données propriétaires. Engager les parties prenantes sur les capacités et les limites de l’IA favorise également la confiance et l’acceptation.

Une IA digne de confiance n’est pas facile à réaliser, mais elle constitue un engagement vital pour notre avenir.

Andrew Pery est un évangéliste de l'éthique de l'IA au sein d'une entreprise mondiale d'automatisation intelligente. ABBYY. Il est titulaire d'une maîtrise en droit avec distinction de la Pritzker School of Law de l'Université Northwestern et est un professionnel certifié en matière de confidentialité des données. Pery a plus de 25 ans d'expérience dans la direction de programmes de gestion technologique pour de grandes entreprises technologiques mondiales. Son expertise porte sur l'automatisation intelligente des processus documentaires et l'intelligence des processus, avec une expertise particulière dans les technologies d'IA, les logiciels d'application, la confidentialité des données et l'éthique de l'IA.