Comment l'IA générative peut-elle être utilisée dans la cybersécurité ? 10 exemples concrets

  • May 15, 2024
Author

Anna Fitzgerald

Senior Content Marketing Manager at Secureframe

Dans une enquête récente auprès des cadres et des professionnels de la sécurité réalisée par Splunk Inc., 91 % des répondants ont déclaré utiliser l'IA générative et 46 % ont affirmé que cela sera révolutionnaire pour leurs équipes de sécurité.

Malgré la disponibilité publique relativement récente de l'IA générative, elle change déjà fondamentalement les tâches et les flux de travail des professionnels de la cybersécurité.

Dans cet article, nous explorerons les manières dont l'IA générative impacte l'industrie de la cybersécurité, pour le meilleur et pour le pire. Nous nous concentrerons également sur des cas d'utilisation concrets de l'IA générative dans la cybersécurité aujourd'hui.

Un aperçu de l'IA générative dans la cybersécurité

L'IA générative est devenue une arme à double tranchant dans le domaine de la cybersécurité. D'une part, les acteurs malveillants exploitent de plus en plus sa puissance pour créer des menaces sophistiquées à grande échelle. Ils utilisent des modèles d'IA comme ChatGPT pour générer des malwares, identifier des vulnérabilités dans le code et contourner les contrôles d'accès des utilisateurs. De plus, les ingénieurs sociaux utilisent l'IA générative pour concevoir des arnaques de phishing et des deepfakes plus convaincants, amplifiant ainsi le paysage des menaces. Une part importante des 85 % de professionnels de la sécurité qui ont constaté une augmentation des cyberattaques au cours des 12 derniers mois attribuent cette hausse aux acteurs malveillants utilisant l'IA générative.

Cependant, l'IA générative présente également des opportunités significatives pour renforcer les défenses en cybersécurité. Elle peut aider à identifier les vecteurs d'attaque potentiels, répondre automatiquement aux incidents de sécurité et renforcer les capacités d'intelligence sur les menaces.

Pour comprendre pleinement l'impact de l'IA générative dans la cybersécurité, les DSI et autres responsables de la sécurité et de l'informatique doivent en appréhender les risques et les avantages. Nous allons examiner de plus près ces aspects ci-dessous.

Comment l'IA générative menace la cybersécurité

Les attaquants malveillants saisissent le potentiel de l'IA générative pour lancer des cyberattaques plus difficiles à détecter et à contrer. Examinons ci-dessous certains des risques liés à l'IA générative.

Des attaques de plus en plus sophistiquées

Dans l'enquête EY 2024 sur les risques humains en cybersécurité, 85 % des répondants ont déclaré croire que l'IA a rendu les attaques de cybersécurité plus sophistiquées.

Les hackers utilisent l'IA générative en particulier pour lancer des attaques de plus en plus sophistiquées comme les malwares auto-évolutifs. Ces souches de malwares utilisent l'IA générative pour « s'auto-évoluer » et créer des variations avec des techniques uniques, des charges utiles et des codes polymorphes pour attaquer une cible spécifique et passer inaperçues par les mesures de sécurité existantes.

Volumes plus importants d'attaques

Les hackers utilisent également l'IA générative pour lancer des volumes plus importants d'attaques. Dans un rapport de Deep Instinct, 75% des professionnels de la sécurité ont constaté une augmentation des attaques au cours des 12 derniers mois, 85% attribuant cette hausse aux acteurs malveillants utilisant l'IA générative.

Cela signifie que les cybercriminels utilisent l'IA générative pour créer des cyberattaques plus sophistiquées à grande échelle. Par exemple, l'IBM X-Force Threat Intelligence Index 2024 a révélé que les capacités de l'IA générative facilitent une réduction de plus de 99,5% du temps nécessaire pour rédiger un e-mail de phishing efficace.

Manque de gestion des risques

Bien que l'adoption de l'IA générative augmente, les efforts pour gérer les risques introduits par l'IA générative sont à la traîne. Une étude récente publiée par IBM et Amazon Web Services a révélé que les organisations sécurisent seulement 24% de leurs projets actuels d'IA générative, bien que 82% des répondants affirment que l'IA sécurisée et fiable est essentielle au succès de leur entreprise. En fait, 69% des cadres interrogés disent que l'innovation prime sur la sécurité.

C'est à peine mieux que les résultats d'un rapport de 2023 par Riskconnect dans lequel 93% des entreprises ont reconnu les risques associés à l'utilisation de l'IA générative au sein de l'entreprise, mais seuls 9% ont déclaré être prêts à gérer la menace.

Les organisations qui augmentent leur adoption de l'IA générative sans simultanément mettre à jour et renforcer leur stratégie de gestion des risques augmenteront leur exposition aux risques.

Code non sécurisé

De nombreux développeurs se tournent vers l'IA générative pour améliorer leur productivité. Cependant, une étude de Stanford a révélé que les ingénieurs logiciels qui utilisent des systèmes d'IA générative pour générer du code sont plus susceptibles de causer des vulnérabilités de sécurité dans les applications qu'ils développent. Comme de plus en plus de développeurs manquant d'expertise ou de temps pour repérer et corriger les vulnérabilités de code utilisent l'IA générative, plus de vulnérabilités de code seront introduites, pouvant être exploitées par des hackers.

Comment l'IA générative améliore la cybersécurité

L'IA générative aide également les équipes de sécurité à être plus précises, efficaces et productives dans la défense de leurs organisations. Voyons comment l'IA générative transforme les opérations de sécurité ci-dessous.

Compléter les équipes de sécurité en sous-effectif

L'IA est utilisée pour compléter les équipes de sécurité et améliorer les résultats de sécurité. La plupart des dirigeants informatiques (93%) utilisent déjà ou envisagent de mettre en œuvre l'IA et l'apprentissage automatique pour améliorer leurs capacités de sécurité. Ces adopteurs de l'IA rapportent déjà des améliorations de performance dans le triage des menaces de niveau 1, la détection des attaques et menaces de type zero-day et la réduction des faux positifs et du bruit.

En conséquence de ces premiers indicateurs de succès, plus de la moitié des dirigeants (52%) disent que l'IA générative les aidera à mieux allouer les ressources, les capacités, les talents ou les compétences.

Détection des menaces en temps réel

La détection des menaces est l'un des principaux cas d'utilisation de l'IA générative aujourd'hui. En l'utilisant pour identifier les modèles et anomalies plus rapidement, filtrer plus efficacement les alertes d'incidents et rejeter les faux positifs, les organisations sont en mesure d'accélérer leur capacité à détecter de nouveaux vecteurs de menace.

Amélioration de l'intelligence sur les menaces

L'IA générative est également utilisée pour améliorer l'intelligence sur les menaces. Auparavant, les analystes devaient utiliser des langages de requête complexes, des opérations et de l'ingénierie inverse pour analyser de vastes quantités de données afin de comprendre les menaces. Maintenant, ils peuvent utiliser des algorithmes d'IA générative qui scannent automatiquement le code et le trafic réseau à la recherche de menaces et fournissent des informations riches aidant les analystes à comprendre le comportement des scripts malveillants et autres menaces.

Automatisation du patching de sécurité

L'IA générative peut automatiser l'analyse et l'application des correctifs. En utilisant des réseaux neuronaux, elle peut scanner les bases de code à la recherche de vulnérabilités et appliquer ou suggérer des correctifs appropriés en utilisant le traitement du langage naturel (NLP) et la correspondance de modèles ou un algorithme d'apprentissage automatique connu sous le nom d'algorithme des k plus proches voisins (KNN).

Amélioration de la réponse aux incidents 

Une autre application réussie de l'IA générative en cybersécurité est la réponse aux incidents. L'IA générative peut fournir aux analystes de sécurité des stratégies de réponse basées sur des tactiques réussies utilisées dans des incidents passés, ce qui peut aider à accélérer les flux de travail de réponse aux incidents. L'intelligence artificielle générative peut également continuer à apprendre des incidents pour adapter ces stratégies de réponse au fil du temps. Les organisations peuvent utiliser l'IA générative pour automatiser la création de rapports de réponse aux incidents.

Lors de la conférence RSA 2024, Elie Bursztein, responsable technique et de recherche en IA en cybersécurité chez Google et DeepMind, a déclaré que l'une des applications les plus prometteuses de l'IA générative est l'accélération de la réponse aux incidents. Bien que plus de recherche et d'innovation soient nécessaires, il a déclaré qu'un jour l'IA générative pourrait modéliser un incident ou générer un rapport d'incident en quasi-temps réel pour aider à accélérer considérablement les taux de réponse aux incidents.

Exemples d'IA générative en cybersécurité.

Maintenant que nous comprenons certaines des applications générales de l'IA générative en cybersécurité, examinons quelques outils de cybersécurité spécifiques qui utilisent l'IA générative.

1. Secureframe Comply AI pour la remédiation

Secureframe a lancé Comply AI pour la remédiation afin de fournir une expérience utilisateur plus contextuelle, précise et personnalisée pour remédier aux tests échoués, afin que les organisations puissent rapidement résoudre les problèmes de cybersécurité et accélérer le temps de conformité.

Comply AI pour la remédiation fournit des conseils de remédiation adaptés à l'environnement des utilisateurs afin qu'ils puissent facilement mettre à jour le problème sous-jacent causant la configuration défaillante dans leur environnement. Cela leur permet de corriger les contrôles défaillants pour réussir les tests, se préparer plus rapidement à l'audit et améliorer leur posture globale de sécurité et de conformité.

Les utilisateurs peuvent également poser des questions de suivi à l'aide du chatbot afin d'obtenir des détails supplémentaires sur le code de remédiation ou de fournir des conseils plus personnalisés pour leurs exigences spécifiques en matière de sécurité et de conformité.

2. Google Threat Intelligence

Google a récemment annoncé Google Threat Intelligence, qui combine la puissance de l'expertise de première ligne de Mandiant, les renseignements sur les menaces de VirusTotal, crowdsourcés par plus d'un million d'utilisateurs, et le modèle d'IA Gemini en une seule offre.

Gemini est un agent propulsé par l'IA qui fournit une recherche conversationnelle à travers le vaste dépôt de renseignements sur les menaces de Google, permettant aux utilisateurs d'obtenir des informations sur les menaces et de se protéger plus rapidement. Traditionnellement, l'opérationnalisation du renseignement sur les menaces était laborieuse et lente. Google Threat Intelligence utilise Gemini pour analyser les codes potentiellement malveillants et fournir un résumé de ses conclusions afin d'aider les professionnels de la sécurité à lutter plus efficacement et plus rapidement contre les logiciels malveillants et autres types de menaces.

3. Secureframe Comply AI pour le risque

Secureframe Comply AI pour le risque a été conçu pour automatiser le processus d'évaluation des risques afin de faire gagner du temps et des ressources aux organisations.

En utilisant uniquement une description des risques et des informations sur l'entreprise, Comply AI for Risk produit des informations détaillées sur un risque, y compris la probabilité et l'impact d'un risque avant une réponse, un plan de traitement pour répondre au risque et la probabilité résiduelle et l'impact du risque après traitement. Ces résultats détaillés de Comply AI for Risk aident les organisations à mieux comprendre l'impact potentiel d'un risque et les méthodes de mitigation appropriées, améliorant ainsi leur conscience et leur réponse aux risques.

4. Tenable ExposureAI

Tenable a lancé ExposureAI pour fournir de nouvelles informations riches aux analystes afin de rendre la gestion de l'exposition plus accessible. Ces nouvelles capacités d'IA générative aident les analystes à rechercher, analyser et prendre des décisions sur les expositions plus rapidement en :

  • permettant aux analystes d'utiliser des requêtes de recherche en langage naturel pour rechercher des données spécifiques sur l'exposition et les actifs
  • résumant le chemin d'attaque complet dans un récit écrit afin que les analystes puissent mieux comprendre les expositions
  • permettant aux analystes de poser des questions spécifiques à l'assistant IA de Tenable sur le chemin d'attaque résumé, ainsi que sur chaque nœud le long du chemin d'attaque
  • faisant ressortir les informations sur les expositions à haut risque et recommandant des actions afin que les analystes puissent plus facilement prioriser et remédier aux expositions à haut risque

5. Test de Simulation de Phishing d'Ironscales

Ironscales a lancé un Test de Simulation de Phishing (PST) alimenté par GPT en tant que fonctionnalité bêta. Cet outil utilise le grand modèle linguistique propriétaire d'Ironscales pour générer des campagnes de tests de simulation de phishing personnalisées pour les employés et les attaques avancées de phishing qu'ils peuvent rencontrer.

L'objectif est d'aider les organisations à personnaliser rapidement leur formation de sensibilisation à la sécurité pour lutter contre la montée et la sophistication des attaques d'ingénierie sociale.

6. ZeroFox FoxGPT

ZeroFox a développé FoxGPT, un outil d'IA générative conçu pour accélérer l'analyse et la synthèse des renseignements sur de grands ensembles de données. Il peut aider les équipes de sécurité à analyser et contextualiser du contenu malveillant, des attaques de phishing et des prises de contrôle de compte potentielles.

7. SentinelOne Purple AI

SentinelOne a dévoilé une plateforme de chasse aux menaces alimentée par l'IA générative qui combine des réseaux de neurones embarqués en temps réel et une interface en langage naturel basée sur un grand modèle de langage (LLM) pour aider les analystes à identifier, analyser et atténuer les menaces plus rapidement.

En utilisant le langage naturel, les analystes peuvent poser des questions complexes de chasse aux menaces et aux adversaires et exécuter des commandes opérationnelles pour gérer leur environnement d'entreprise et obtenir des réponses rapides, précises et détaillées en quelques secondes. Purple AI peut également analyser les menaces et fournir des informations sur les comportements identifiés ainsi que les prochaines étapes recommandées.

8. VirusTotal Code Insight

VirusTotal Code Insight utilise Sec-PaLM, l'un des modèles d'IA générative hébergés sur Google Cloud AI, pour produire des résumés en langage naturel de fragments de code. Cela peut aider les équipes de sécurité à analyser et comprendre le comportement de scripts potentiellement malveillants. VirusTotal Code Insight est censé servir d'assistant puissant pour les analystes en cybersécurité, travaillant 24 heures sur 24 pour améliorer leur performance et leur efficacité globale.

9. IBM QRadar Suite

La suite QRadar combine une IA avancée et l'automatisation pour accélérer la détection des menaces et le temps de réponse. IBM a annoncé qu'elle allait lancer des capacités de sécurité d'IA générative début 2024 pour automatiser davantage les tâches manuelles et optimiser le temps et les compétences des équipes de sécurité. Ces tâches incluent :

  • Créer des résumés simples de cas et d'incidents de sécurité qui peuvent être partagés avec divers intervenants en un seul clic
  • Générer automatiquement des recherches pour détecter les menaces sur la base de descriptions en langage naturel du comportement et des modes d'attaque
  • Aider les analystes à comprendre rapidement les données des journaux de sécurité en fournissant des explications simples sur les événements qui se sont déroulés sur un système
  • Interpréter et résumer des renseignements sur les menaces hautement pertinents

10. Automatisation des Questionnaires de Secureframe

Répondre à des questionnaires de sécurité peut être un processus fastidieux et chronophage pour les analystes de sécurité et autres parties prenantes, les questions variant d'un client à l'autre et sans format, ensemble ou ordre de questions standardisé.

L'automatisation des questionnaires de Secureframe utilise l'IA générative pour rationaliser et automatiser le processus. Cet outil suggère des réponses aux questionnaires en utilisant les politiques, les contrôles, les tests et d'autres contextes de la plateforme Secureframe, ainsi que des réponses approuvées antérieurement dans la base de connaissances pour offrir une plus grande précision. Après avoir rapidement examiné les réponses et apporté les ajustements nécessaires, les utilisateurs peuvent ensuite partager les questionnaires complétés avec les prospects et les clients dans leur format original.

Ce que votre organisation peut faire en réponse à l'IA générative en cybersécurité

Voici quelques étapes que votre organisation peut entreprendre dès maintenant pour commencer à se défendre contre les risques liés à l'IA générative.

1. Mettre à jour la formation des employés

Prenez le temps d'évaluer et de mettre à jour la formation des employés concernant l'IA générative. Cette formation devrait refléter la sophistication des cyberattaques utilisant l'IA générative, y compris les courriels d'hameçonnage de plus en plus convaincants et les appels vidéo et audio truqués.

Envisagez d'inclure des garde-fous pour l'utilisation des outils d'IA générative dans la formation des employés également.

2. Définir l'utilisation acceptable de l'IA générative dans les politiques

Alors qu'un rapport récent d'ExtraHop a révélé que 32 % des organisations ont interdit l'utilisation d'outils d'IA générative, des organisations de premier plan comme l'AICPA recommandent aux organisations de mettre à jour leurs politiques de sécurité pour promouvoir une utilisation sûre des outils d'IA puisqu'elle est inévitable. Les considérations clés incluent :

  • fournir des exemples d'utilisation acceptable
  • limiter l'utilisation à un ou deux outils réputés auxquels l'employé a été correctement formé
  • interdire l'utilisation de tout outil de chatbot IA qui n'a pas été préalablement vérifié par le département informatique et approuvé par le superviseur de l'employé

3. Réduire l'IA de l'ombre

À l'instar de l'expansion des produits SaaS rendant de plus en plus populaires et accessibles, l'IA de l'ombre se développe alors que les employés adoptent de plus en plus l'IA pour améliorer leur productivité.

L'IA de l'ombre présente des défis majeurs en termes de sécurité et de gouvernance pour deux principales raisons. Premièrement, les employés peuvent exposer des informations sensibles, privilégiées ou exclusives lorsqu'ils utilisent des produits d'IA. Deuxièmement, l'équipe de sécurité d'une organisation ne peut pas évaluer et atténuer les risques des outils d'IA qu'ils ne connaissent pas.

Pour relever ces défis, les organisations peuvent adopter une approche multi-facettes pour réduire l'informatique de l'ombre. Cela peut inclure l'éducation des employés sur les risques de l'informatique de l'ombre, l'identification des services non autorisés d'IA et d'autres garde-fous dans les politiques, et la mise en œuvre de stratégies de sécurité offensives et défensives telles que la sécurisation du périmètre pour détecter et contrôler le type et la quantité de données circulant au sein de votre organisation.

4. Utiliser l'IA générative pour renforcer vos défenses

Étant donné que l'IA générative est une arme à double tranchant, assurez-vous de l'utiliser à votre avantage. Par exemple, vous pouvez déployer des solutions d'IA générative pour détecter les menaces à la vitesse, à l'échelle et avec la sophistication nécessaires alors que des acteurs malveillants les lancent. Vous pouvez également l'utiliser pour automatiser des tâches de routine qui ne nécessitent pas autant d'expertise ou de jugement humain, comme la chasse aux menaces.

Utilisée de manière stratégique de ces façons, l'IA générative et l'automatisation peuvent aider votre organisation à identifier et à répondre plus rapidement et à grande échelle aux risques et incidents de sécurité.

5. Se conformer aux réglementations et cadres pour une utilisation responsable de l'IA

La réglementation sur l'IA a déjà été adoptée par l'UE, la Chine et certaines parties des États-Unis, et on s'attend à ce qu'elle augmente. Il existe également un nombre croissant de cadres volontaires qui traitent des complexités et des préoccupations éthiques de l'IA et sont conçus pour aider les organisations à atténuer les risques et à améliorer la gouvernance, comme le Cadre de gestion des risques de l'IA de l'NIST (AI RMF) et ISO 42001.

Se conformer à ces réglementations et cadres peut fournir aux organisations une approche structurée pour gérer les systèmes d'IA de manière responsable et efficace, améliorant ainsi la confiance et la fiabilité parmi les développeurs et les utilisateurs d'IA.

Guider la stratégie et la mise en œuvre de l'IA de votre organisation

Suivez ces meilleures pratiques pour mettre en œuvre efficacement l'IA tout en répondant aux préoccupations liées à la transparence, à la confidentialité et à la sécurité.

Comment les capacités d'IA générative de Secureframe peuvent améliorer la cybersécurité de votre organisation

Secureframe continue d'étendre ses capacités d'IA pour aider les clients :

  • Répondre rapidement et précisément aux questionnaires de sécurité et aux RFP pour conclure plus de contrats et augmenter leurs revenus
  • Automatiser le processus d'évaluation des risques pour améliorer leur prise de conscience et leur réponse aux risques
  • Corriger les contrôles défaillants pour réussir les tests et se préparer plus rapidement aux audits

Vous souhaitez explorer davantage Secureframe AI ? Planifiez une démo pour voir comment Secureframe AI peut automatiser les tâches manuelles liées à la sécurité, à la confidentialité et à la conformité.

FAQs

Comment l'IA générative est-elle utilisée en cybersécurité?

L'IA générative est utilisée pour renforcer la posture de sécurité des organisations en augmentant les capacités des équipes de sécurité à détecter, analyser et répondre aux menaces plus rapidement et plus efficacement, et en automatisant les tâches routinières telles que les rapports de réponse aux incidents. L'IA générative est également utilisée par les cybercriminels pour lancer des cyberattaques de plus en plus sophistiquées, telles que les appels vidéo truqués (deepfake).

Qu'est-ce que l'IA générative et un exemple?

L'IA générative est un type d'IA qui utilise des modèles ou des algorithmes d'apprentissage profond pour créer automatiquement des textes, photos, vidéos, codes et autres sorties basées sur les ensembles de données sur lesquels elle a été entraînée. L'exemple le plus connu est ChatGPT, un modèle de langage alimenté par l'IA développé par OpenAI.

La cybersécurité peut-elle être automatisée par l'IA générative?

Les parties de la cybersécurité peuvent être automatisées par l'IA générative, y compris la détection, l'analyse et la réponse aux menaces ; cependant, elle ne peut pas entièrement remplacer les experts humains. Par exemple, bien que les outils d'IA générative puissent identifier des schémas d'attaque connus et prédire de nouveaux, les analystes humains peuvent confirmer les véritables menaces en distinguant les faux positifs, grâce à leur compréhension plus profonde et contextuelle des systèmes, réseaux et environnements opérationnels uniques de leur organisation.