Suivez nous sur

Cybersécurité

Protéger l'IA des cybermenaces : aperçus de la conférence MWC

mm

Publié le

 on

Panel de sécurité de l'IA - Protéger l'IA des cybermenaces : aperçus de la conférence MWC

Au Mobile World Congress (MWC), des experts se sont réunis pour aborder la question urgente de la « protection de l’IA » contre les cyberattaques ciblées. Cet article synthétise leurs idées, en se concentrant sur les stratégies nécessaires pour protéger les systèmes d’IA à une époque de cybermenaces croissantes. Avec IA profondément intégrée développement divers secteurs, la nécessité de défendre ces systèmes contre les attaques malveillantes est devenue primordiale. Les discussions au MWC ont souligné l'urgence, les défis et les stratégies de collaboration nécessaires pour garantir la sécurité et la fiabilité de l'IA dans le paysage numérique.

Comprendre le paysage des menaces

L’ère numérique a marqué le début de progrès sans précédent en matière d’intelligence artificielle (IA), mais ces progrès s’accompagnent d’une augmentation des vulnérabilités. À mesure que les systèmes d’IA acquièrent des caractéristiques semblables à celles des humains, ils deviennent des cibles et des outils convaincants pour les cybercriminels. Kirsten Nohl Les enseignements de la conférence MWC ont mis en lumière cette réalité à double tranchant, où les capacités de l’IA amplifient non seulement nos forces mais aussi nos vulnérabilités. La facilité avec laquelle l’IA peut être exploitée courriels de phishing et les attaques d’ingénierie sociale mettent en évidence le paysage de menaces sophistiquées dans lequel nous évoluons.

Le problème omniprésent du vol de données exclusives souligne le défi du « Shielding AI ». Alors que les cyberattaquants utilisent l’IA comme copilotes, la course à la sécurisation des technologies d’IA devient plus complexe. L’afflux d’emails de phishing facilité par Grands modèles de langage (LLM) illustre comment l'accessibilité de l'IA peut être exploitée pour compromettre la sécurité. Accepter que les criminels utilisent déjà l’IA pour améliorer leurs capacités de piratage oblige à modifier les stratégies défensives. Le panel a souligné la nécessité d'une approche proactive, axée sur l'exploitation du potentiel de défense de l'IA plutôt que sur la simple réponse aux menaces. Ce pivot stratégique reconnaît le paysage complexe de la sécurité de l’IA, où les outils conçus pour nous propulser vers l’avant peuvent également se retourner contre nous.

Nikesh Arora, PDG de Palo Alto Networks, sur le paysage des cybermenaces et l'impact de l'IA sur la cybersécurité

Le double usage de l’IA dans la cybersécurité

La conversation autour de la « protection de l’IA » contre les cybermenaces implique intrinsèquement de comprendre le rôle de l’IA des deux côtés du champ de bataille de la cybersécurité. La double utilisation de l’IA, à la fois outil de cyberdéfense et arme pour les attaquants, présente un ensemble unique de défis et d’opportunités dans les stratégies de cybersécurité.

Kirsten Nohl a souligné que l'IA n'est pas seulement une cible mais également un participant à la cyberguerre, utilisée pour amplifier les effets des attaques que nous connaissons déjà. Cela va de l’amélioration de la sophistication des attaques de phishing à l’automatisation de la découverte des vulnérabilités des logiciels. Les systèmes de sécurité basés sur l'IA peuvent prédire et contrecarrer les cybermenaces plus efficacement que jamais, en tirant parti de l'apprentissage automatique pour s'adapter aux nouvelles tactiques employées par les cybercriminels.

Mohamed Chowdhuri, le modérateur, a évoqué un aspect important de la gestion du double rôle de l'IA : diviser les efforts de sécurité de l'IA en groupes spécialisés pour atténuer les risques plus efficacement. Cette approche reconnaît que Application de l'IA à la cybersécurité n'est pas monolithique ; différentes technologies d’IA peuvent être déployées pour protéger divers aspects de l’infrastructure numérique, de la sécurité des réseaux à l’intégrité des données.

Le défi consiste à exploiter le potentiel défensif de l’IA sans intensifier la course aux armements avec les cyberattaquants. Cet équilibre délicat nécessite une innovation, une vigilance et une collaboration continues entre les professionnels de la cybersécurité. En reconnaissant la double utilisation de l'IA dans la cybersécurité, nous pouvons mieux gérer les complexités de la « protection de l'IA » contre les menaces tout en exploitant sa puissance pour renforcer nos défenses numériques.

L’IA va-t-elle aider ou nuire à la cybersécurité ? Certainement!

Éléments humains dans la sécurité de l'IA

Robin Bylenga a souligné la nécessité de mesures secondaires non technologiques parallèlement à l’IA pour garantir un plan de sauvegarde solide. Le recours à la seule technologie ne suffit pas ; l’intuition humaine et la prise de décision jouent un rôle indispensable dans l’identification des nuances et des anomalies que l’IA pourrait négliger. Cette approche nécessite une stratégie équilibrée dans laquelle la technologie sert d’outil enrichi par la connaissance humaine, et non de solution autonome.

Taylor Hartley contribution axée sur l’importance de la formation continue et de l’éducation à tous les niveaux d’une organisation. À mesure que les systèmes d’IA sont de plus en plus intégrés aux cadres de sécurité, la formation des employés sur la manière d’utiliser efficacement ces « copilotes » devient primordiale. La connaissance est en effet un pouvoir, en particulier dans le domaine de la cybersécurité, où comprendre le potentiel et les limites de l'IA peut améliorer considérablement les mécanismes de défense d'une organisation.

Les discussions ont mis en évidence un aspect essentiel de la sécurité de l’IA : l’atténuation des risques humains. Cela implique non seulement une formation et une sensibilisation, mais également la conception de systèmes d’IA qui tiennent compte des erreurs humaines et des vulnérabilités. La stratégie de « Shielding AI » doit englober à la fois des solutions technologiques et l’autonomisation des individus au sein d’une organisation pour qu’ils agissent en tant que défenseurs informés de leur environnement numérique.

Approches réglementaires et organisationnelles

Les organismes de réglementation sont essentiels pour créer un cadre qui équilibre l’innovation et la sécurité, visant à se protéger contre les vulnérabilités de l’IA tout en permettant à la technologie de progresser. Cela garantit que l’IA se développe d’une manière à la fois sûre et propice à l’innovation, atténuant ainsi les risques d’utilisation abusive.

Sur le plan organisationnel, il est essentiel de comprendre le rôle spécifique et les risques de l’IA au sein d’une entreprise. Cette compréhension éclaire le développement de mesures de sécurité et de formations sur mesure qui répondent à des vulnérabilités uniques. Rodrigo Brito souligne la nécessité d’adapter la formation à l’IA pour protéger les services essentiels, tout en Daniella Syvertsen souligne l’importance de la collaboration de l’industrie pour anticiper les cybermenaces.

Taylor Hartley défend une approche de « sécurité dès la conception », plaidant pour l'intégration de fonctionnalités de sécurité dès les premières étapes du développement du système d'IA. Ceci, combiné à une formation continue et à un engagement envers les normes de sécurité, permet aux parties prenantes de contrer efficacement les cybermenaces ciblées par l’IA.

Stratégies clés pour améliorer la sécurité de l'IA

Les systèmes d’alerte précoce et le partage collaboratif de renseignements sur les menaces sont cruciaux pour une défense proactive, comme le souligne Kirsten Nohl. Taylor Hartley a préconisé une « sécurité par défaut » en intégrant des fonctionnalités de sécurité dès le début du développement de l'IA afin de minimiser les vulnérabilités. Une formation continue à tous les niveaux organisationnels est essentielle pour s’adapter à la nature évolutive des cybermenaces.

Tor Indstoy a souligné l'importance d'adhérer aux meilleures pratiques établies et aux normes internationales, telles que les directives ISO, pour garantir que les systèmes d'IA sont développés et maintenus en toute sécurité. La nécessité du partage de renseignements au sein de la communauté de la cybersécurité a également été soulignée, renforçant ainsi les défenses collectives contre les menaces. Enfin, se concentrer sur les innovations défensives et inclure tous les modèles d’IA dans les stratégies de sécurité ont été identifiés comme des étapes clés pour construire un mécanisme de défense complet. Ces approches forment un cadre stratégique pour protéger efficacement l’IA contre les cybermenaces.

Comment sécuriser les modèles commerciaux de l'IA

Orientations futures et défis

L’avenir de la « protection de l’IA » contre les cybermenaces dépend de la résolution des principaux défis et de l’exploitation des opportunités d’avancement. La nature à double usage de l’IA, qui remplit à la fois des rôles défensifs et offensifs en matière de cybersécurité, nécessite une gestion prudente pour garantir une utilisation éthique et empêcher son exploitation par des acteurs malveillants. La collaboration mondiale est essentielle, avec des protocoles standardisés et des lignes directrices éthiques nécessaires pour lutter efficacement contre les cybermenaces au-delà des frontières.

La transparence des opérations d’IA et des processus décisionnels est cruciale pour instaurer la confiance dans Mesures de sécurité basées sur l'IA. Cela inclut une communication claire sur les capacités et les limites des technologies d’IA. De plus, il existe un besoin urgent de programmes d'éducation et de formation spécialisés pour préparer les professionnels de la cybersécurité pour lutter contre les menaces émergentes liées à l’IA. L'évaluation continue des risques et l'adaptation aux nouvelles menaces sont essentielles, ce qui oblige les organisations à rester vigilantes et proactives dans la mise à jour de leurs stratégies de sécurité.

Pour relever ces défis, l’accent doit être mis sur la gouvernance éthique, la coopération internationale et la formation continue afin de garantir le développement sûr et bénéfique de l’IA dans le domaine de la cybersécurité.

Jacob Stoner est un écrivain canadien qui couvre les avancées technologiques dans le secteur des technologies d'impression 3D et de drones. Il a utilisé avec succès les technologies d'impression 3D pour plusieurs industries, y compris les services d'arpentage et d'inspection par drones.