Wie künstliche Intelligenz die Cybersicherheit im Jahr 2024 und darüber hinaus beeinflussen wird

  • December 07, 2023

KI hat bereits begonnen, die Zukunft der Cybersicherheit zu beeinflussen.

Heute manipulieren böswillige Akteure ChatGPT, um Malware zu erzeugen, Schwachstellen im Code zu erkennen und Benutzerzugriffskontrollen zu umgehen. Social Engineers nutzen KI, um präzisere und überzeugendere Phishing-Schemata und Deepfakes zu starten. Hacker verwenden KI-unterstütztes Passwort-Raten und CAPTCHA-Knacken, um unbefugten Zugriff auf sensible Daten zu erlangen.

Tatsächlich geben 85% der Sicherheitsexperten, die in den letzten 12 Monaten eine Zunahme der Cyberangriffe beobachtet haben, an, dass der Anstieg auf die Nutzung generativer KI durch böswillige Akteure zurückzuführen ist.

Dennoch werden KI, maschinelles Lernen, prädiktive Analysen und Verarbeitung natürlicher Sprache auch auf beispiellose Weise genutzt, um die Cybersicherheit zu stärken – versteckte Anomalien werden markiert, Angriffspfade identifiziert und Sicherheitsvorfälle automatisch beantwortet.

Aufgrund dieser Vorteile planen 82% der IT-Entscheider, in den nächsten zwei Jahren in KI-gestützte Cybersicherheit zu investieren, und fast die Hälfte (48%) plant, dies noch vor Ende 2023 zu tun.

Um die Auswirkungen von KI auf die Cybersicherheit vollständig zu erfassen, müssen CISOs und andere Sicherheits- und IT-Leiter die Vorteile und Risiken der künstlichen Intelligenz verstehen. Im Folgenden werfen wir einen genaueren Blick darauf.

Die Vorteile der KI in der Cybersicherheit

Trotz der Schlagzeilen, die von waffenfähiger KI dominiert werden, ist die künstliche Intelligenz ein mächtiges Werkzeug für Organisationen, um ihre Sicherheitslage zu verbessern. Algorithmen, die in der Lage sind, enorme Datenmengen zu analysieren, machen es möglich, Bedrohungen und Schwachstellen schnell zu identifizieren, Risiken zu mindern und Angriffe zu verhindern. Lassen Sie uns diese Anwendungsfälle genauer betrachten.

sechs Vorteile der KI in der Cybersicherheit

1. Erkennung von Angriffsvorläufern

KI-Algorithmen, insbesondere ML und Deep-Learning-Modelle, können riesige Datenmengen analysieren und Muster identifizieren, die menschlichen Analysten möglicherweise entgehen. Diese Fähigkeit wird dazu beitragen, Bedrohungen und Anomalien frühzeitig zu erkennen, Sicherheitsverletzungen zu verhindern und Systeme proaktiv statt reaktiv in der Bedrohungsjagd zu machen.

KI-Systeme können trainiert werden, um Mustererkennung durchzuführen und Ransomware- oder Malware-Angriffe zu erkennen, bevor sie in das System gelangen.

Prädiktive Intelligenz, gepaart mit der Verarbeitung natürlicher Sprache, kann Nachrichten, Artikel und Studien zu neuen Cyber-Bedrohungen und Cyberangriffstrends durchsuchen, um neue Daten zu kuratieren, die Funktionalität zu verbessern und Risiken zu mindern, bevor sie sich zu groß angelegten Angriffen materialisieren.

2. Verbesserung der Bedrohungsinformationen

Generative KI, eine Art von KI, die Deep-Learning-Modelle oder Algorithmen verwendet, um automatisch Text, Fotos, Videos, Code und andere Ausgaben basierend auf den Datensätzen zu erstellen, auf denen sie trainiert wurden, kann Analysten nicht nur helfen, potenzielle Bedrohungen zu identifizieren, sondern sie auch besser zu verstehen.

Früher mussten Analysten ohne KI komplexe Abfragesprachen, Operationen und Reverse Engineering verwenden, um enorme Datenmengen zu analysieren und Bedrohungen zu verstehen. Generative KI-Algorithmen können automatisch Code und Netzwerkverkehr nach Bedrohungen durchsuchen und liefern wertvolle Einblicke, die Analysten helfen, das Verhalten bösartiger Skripte und anderer Bedrohungen zu verstehen.

3. Stärkung der Zugriffskontrolle und Passwortpraktiken

KI verbessert die Zugriffskontrolle und Passwortpraktiken, indem fortschrittliche Authentifizierungsmechanismen eingesetzt werden. Biometrische Authentifizierung wie Gesichtserkennung oder Fingerabdruck-Scanning kann Sicherheitsmaßnahmen stärken, indem die Abhängigkeit von traditionellen Passwörtern reduziert wird.

KI-Algorithmen können auch Anmeldeverhalten und Muster analysieren, um geringfügige Verhaltensanomalien und verdächtige Anmeldeversuche zu erkennen, wodurch Organisationen innere Bedrohungen mindern und potenzielle Sicherheitsverletzungen schneller beheben können.

4. Minimierung und Priorisierung von Risiken

Die Angriffsfläche moderner Unternehmen ist riesig und wächst täglich. Die Fähigkeit, eine solch bedeutende Schwachstellenlandschaft zu analysieren, zu pflegen und zu verbessern, erfordert jetzt mehr, als Menschen allein vernünftigerweise erreichen können.

Da Bedrohungsakteure aufstrebende Technologien nutzen, um zunehmend ausgeklügelte Angriffe zu starten, können herkömmliche Software und manuelle Techniken einfach nicht mithalten.

Künstliche Intelligenz und maschinelles Lernen werden schnell zu unverzichtbaren Werkzeugen für Informationssicherheitsteams, um das Risiko von Sicherheitsverletzungen zu minimieren und die Sicherheit zu stärken, indem Schwachstellen in Systemen und Netzwerken identifiziert werden. Maschinelle Lernmodelle können Infrastrukturen, Code und Konfigurationen scannen, um Schwachstellen aufzudecken, die von Angreifern ausgenutzt werden könnten. Durch die proaktive Identifizierung und Behebung von Schwachstellen können Organisationen das Risiko erfolgreicher Cyberangriffe erheblich reduzieren.

Durch den Einsatz von maschinellen Lernalgorithmen können Organisationen Risikoanalysen automatisieren und Ressourcen effektiv zuweisen. KI kann Einblicke in die Wahrscheinlichkeit und Folgen verschiedener Angriffstypen geben, sodass Cybersicherheitsteams Abminderungsmaßnahmen effizient priorisieren können.

Mit anderen Worten, KI-basierte Cybersicherheitssysteme können Risiken nicht nur basierend auf dem priorisieren, was Cyberkriminelle nutzen könnten, um Ihre Systeme anzugreifen, sondern auch basierend auf dem, was sie höchstwahrscheinlich nutzen werden, um Ihre Systeme anzugreifen. Sicherheits- und IT-Leitungen können Ressourcen besser priorisieren und den höchsten Schwachstellen zuweisen.

5. Automatisierung der Bedrohungserkennung und -reaktion

Mit KI können Cybersicherheitssysteme Bedrohungen nicht nur identifizieren, sondern auch automatisch darauf reagieren.

  • Bösartige IP-Adressen können automatisch blockiert werden.
  • Kompromittierte Systeme oder Benutzerkonten können sofort abgeschaltet werden.
  • ML-Algorithmen können E-Mails und Webseiten analysieren, um potenzielle Phishing-Versuche zu identifizieren und zu blockieren.

KI-gesteuerte Systeme automatisieren Prozesse der Bedrohungserkennung und bieten Echtzeitüberwachung und schnelle Reaktionszeiten. Maschinelle Lernalgorithmen analysieren kontinuierlich Netzwerkverkehr, Benutzerverhalten und Systemprotokolle, um verdächtige Aktivitäten zu identifizieren.

Durch die Nutzung der Fähigkeit von KI, massive Datenmengen zu verarbeiten und zu analysieren, können Organisationen Bedrohungen sofort erkennen und darauf reagieren und so das Zeitfenster minimieren, in dem Angreifer Schwachstellen ausnutzen können.

Intelligente Algorithmen können Sicherheitswarnungen analysieren, Ereignisse korrelieren und Einblicke geben, um die Entscheidungsfindung während eines Vorfalls zu unterstützen. KI-gestützte Vorfallsreaktionsplattformen können Untersuchungsabläufe automatisieren, die Hauptursache eines Vorfalls schnell identifizieren und geeignete Korrekturmaßnahmen vorschlagen. Diese Fähigkeiten befähigen Sicherheitsteams, schnell zu reagieren und die Auswirkungen von Sicherheitsverletzungen zu minimieren.

6. Erhöhung der Effizienz und Effektivität des Menschen

82 % der Sicherheitsverletzungen beinhalten menschliches Versagen. Durch die Automatisierung routinemäßiger manueller Aufgaben kann KI eine entscheidende Rolle bei der Reduzierung der Wahrscheinlichkeit von Fehlkonfigurationen, unbeabsichtigten Datenlecks und anderen versehentlichen Fehlern spielen, die die Sicherheit gefährden könnten.

KI stattet Cybersicherheitsteams auch mit leistungsstarken Tools und Erkenntnissen aus, die ihre Effizienz und Effektivität verbessern. Maschinelle Lernmodelle können riesige Mengen an Bedrohungsdaten analysieren, um Teams zu helfen, die Bedrohungslandschaft besser zu verstehen und neuen Bedrohungen voraus zu sein.

KI-gestützte Plattformen für Sicherheits- und Compliance-Automatisierung rationalisieren Arbeitsabläufe und ermöglichen es den Teams, schneller und präziser auf Vorfälle zu reagieren. Indem zeitaufwändige manuelle Aufgaben ausgelagert werden, können sich Cybersicherheitsprofis auf strategische Initiativen und höherstufige Bedrohungsanalysen konzentrieren.

Von prädiktiven Analysen bis hin zur automatisierten Bedrohungserkennung und Vorfallsreaktion erweitert KI die Fähigkeiten der Cybersicherheitsteams und ermöglicht proaktive Verteidigungsmaßnahmen. Der Einsatz von KI-Technologie befähigt Organisationen, in der Cybersicherheitslandschaft die Nase vorn zu haben und ihre wertvollen Vermögenswerte zu schützen.

Die Nachteile der KI in der Cybersicherheit

Cybersicherheitsleiter, die KI implementieren möchten, um ihre Sicherheitslage zu verbessern, müssen zunächst eine Reihe von Herausforderungen und Risiken angehen, die sich auf Transparenz, Privatsphäre und Sicherheit beziehen.

Vier Nachteile der KI in der Cybersicherheit

Datenschutzbedenken

KI-Systeme erfordern oft große Datenmengen, was zu Datenschutzrisiken führen kann. Wenn KI beispielsweise für die Analyse des Benutzerverhaltens verwendet wird, benötigt sie möglicherweise Zugang zu sensiblen persönlichen Daten.

Wo befinden sich die KI-Daten? Wer kann darauf zugreifen? Was passiert, wenn die Daten nicht mehr benötigt werden? Immer mehr Unternehmen balancieren auf einem schmalen Grat, um die Privatsphäre der Nutzer mit dem Nutzen der Daten in Einklang zu bringen.

Eine ordnungsgemäße KI-Governance ist grundlegend, um finanzielle und reputationsbezogene Risiken zu minimieren. In den kommenden Jahren wird die Nachfrage nach effektiven Methoden zur Überwachung der KI-Leistung, zur Erkennung veralteter Modelle oder voreingenommener Ergebnisse und zur Durchführung der entsprechenden Anpassungen steigen.

Organisationen müssen einen KI-Governance-Ansatz übernehmen, der den gesamten Datenlebenszyklus von der Datenerfassung über die Verarbeitung, den Zugriff und die Entsorgung umfasst. Privacy by Design muss in den KI-Lebenszyklus und in KI-Governancestrategien stärker integriert werden, einschließlich Techniken zur Datenanonymisierung, die die Privatsphäre der Nutzer wahren, ohne die Nützlichkeit der Daten für AI-Anwendungen zu beeinträchtigen.

Zuverlässigkeit und Genauigkeit

Während KI-Systeme große Datenmengen schnell verarbeiten können, sind sie nicht perfekt. Es können falsche Positive und Negative auftreten, was möglicherweise zu verschwendeten Anstrengungen und Zeit oder übersehenen Bedrohungen führt.

Da KI- und ML-Algorithmen nur so gut sind wie die Daten, die sie verarbeiten, müssen Organisationen in Datenvorbereitungsprozesse investieren, um Datenmengen zu organisieren und aufzubereiten, um Zuverlässigkeit und Genauigkeit zu gewährleisten.

Dies wird zunehmend wichtig, da Datenvergiftung häufiger vorkommt. Datenvergiftung bedeutet, das Trainingsdaten eines prädiktiven KI-Modells hinzugefügt oder manipuliert werden, um das Ergebnis zu beeinflussen. In einer wegweisenden Forschungsstudie wurde gezeigt, dass die Genauigkeit der KI um bis zu 75% abnahm, indem 8% „giftige“ oder fehlerhafte Trainingsdaten injiziert wurden.

Mangel an Transparenz

KI-Systeme, insbesondere Deep-Learning-Modelle, funktionieren oft als Blackboxen, was es schwierig macht zu verstehen, wie sie zu bestimmten Entscheidungen oder Vorhersagen kommen. Dieser Mangel an Transparenz stellt eine Barriere für Cybersicherheitsexperten dar, die die Gründe hinter den Ausgaben eines KI-Systems verstehen müssen, insbesondere wenn es darum geht, Sicherheitsbedrohungen zu identifizieren und zu mindern. Ohne Transparenz wird es schwierig, den Entscheidungen der KI-Systeme zu vertrauen und ihre Genauigkeit zu validieren.

Darüber hinaus können KI-Systeme falsche Positive generieren, die Sicherheitsteams überwältigen, indem sie ständig Brände löschen. Falsch Negative können zu verpassten Bedrohungen und kompromittierter Sicherheit führen. Der Mangel an Transparenz über die Gründe für diese Fehler erschwert die Feinabstimmung von KI-Modellen, die Verbesserung der Genauigkeit und die Behebung tatsächlicher Probleme. Cybersicherheitsexperten müssen in der Lage sein, die Entscheidungen der KI-Systeme zu verstehen und zu validieren, um wirksam gegen sich entwickelnde Cyber-Bedrohungen zu verteidigen.

Trainingsdaten und Algorithmus-Bias

Es gibt verschiedene Arten von Bias, die ein KI-System beeinflussen können. Zwei wichtige sind Trainingsdaten-Bias und algorithmischer Bias. Lassen Sie uns diese im Folgenden genauer betrachten.

Trainingsdaten-Bias

Wenn die Daten, die zur Schulung von KI- und maschinellen Lernalgorithmen (ML) verwendet werden, nicht vielfältig oder repräsentativ für die gesamte Bedrohungslandschaft sind, können die Algorithmen Fehler machen, wie z. B. bestimmte Bedrohungen übersehen oder harmloses Verhalten als bösartig identifizieren. Dies ist oft das Ergebnis von Vorurteilen bei den KI-Entwicklern, die den Trainingsdatensatz erstellt haben.

Angenommen, ein KI-Entwickler glaubt, dass Hacker aus Russland die größte Bedrohung für US-Unternehmen darstellen. Infolgedessen würde das KI-Modell mit Daten trainiert, die auf Bedrohungen aus dieser geografischen Region ausgerichtet sind, und könnte Bedrohungen aus anderen Regionen, insbesondere inländische Bedrohungen, übersehen.

Dasselbe gilt, wenn der KI-Entwickler glaubt, dass ein Angriffsvektor, z. B. Social-Engineering-Angriffe, häufiger vorkommt als andere. Infolgedessen kann das KI-Modell effektiv gegen diesen Angriffsvektor sein, aber andere prominente Bedrohungstypen wie Anmeldeinformationsdiebstahl oder Schwachstellenausnutzung nicht erkennen können.

Algorithmische Voreingenommenheit

Die KI-Algorithmen selbst können ebenfalls Voreingenommenheit einbringen. Beispielsweise nimmt ein System an, dass Bedrohungen durch Mustererkennung erkannt werden. Es kann zu Fehlalarmen kommen, wenn eine harmlose Aktivität mit einem Muster übereinstimmt, z. B. wenn jede E-Mail mit Abkürzungen oder Slang als potentieller Phishing-Angriff gekennzeichnet wird. Ein Algorithmus, der auf diese Weise Fehlalarme begünstigt, kann zu Alarmmüdigkeit führen. Ein KI-System, das Mustererkennung verwendet, kann umgekehrt subtile Variationen bekannter Bedrohungen möglicherweise nicht erkennen, was zu Fehlalarmen und übersehenen Bedrohungen führen kann.

Wenn nicht darauf eingegangen wird, können beide Arten von Voreingenommenheit zu einem falschen Sicherheitsgefühl, ungenauer Bedrohungserkennung, Alarmmüdigkeit, Anfälligkeit für neue und sich entwickelnde Bedrohungen sowie rechtlichen und regulatorischen Risiken führen.

Wie Cybersicherheitsleiter KI erfolgreich in ihre Sicherheitsprogramme integrieren können

Da die Nutzung von KI in der Cybersicherheit weiter zunimmt, werden CISOs und andere Cybersicherheitsleiter eine Schlüsselrolle dabei spielen, das Potenzial von KI zu nutzen, während sie deren sichere und effektive Implementierung sicherstellen. Durch Beachtung dieser bewährten Verfahren können diese Leiter KI effektiv implementieren und gleichzeitig Bedenken hinsichtlich Transparenz, Datenschutz und Sicherheit berücksichtigen.

1. KI-Strategie mit Geschäfts- und Sicherheitszielen ausrichten

Bevor Cybersicherheitsleiter mit der Umsetzung von KI beginnen, müssen sie die KI-Strategie mit den breiteren Geschäfts- und Sicherheitszielen der Organisation in Einklang bringen. Definieren Sie klar die gewünschten Ergebnisse, identifizieren Sie die spezifischen Cybersicherheitsherausforderungen, die KI bewältigen kann, und stellen Sie sicher, dass KI-Initiativen mit der gesamten Sicherheitsstrategie der Organisation übereinstimmen.

2. In qualifiziertes KI-Personal investieren

Während KI ein Cybersicherheitssystem erheblich verbessern kann, sollte sie menschliches Fachwissen nicht ersetzen. Der Aufbau eines KI-bereiten Cybersicherheitsteams ist entscheidend.

Investieren Sie in die Rekrutierung von Information Security Professionals, die KI-Technologien verstehen. Mit einem Team mit dem richtigen Fachwissen können Sie KI-Lösungen effektiv bewerten, implementieren und deren Leistung kontinuierlich optimieren. Cybersicherheitsleiter sollten die KI-Kompetenz innerhalb ihrer Organisation fördern, damit Teammitglieder KI-Tools effektiv nutzen und ihre Einschränkungen verstehen können.

3. KI-Lösungen gründlich bewerten

Nehmen Sie einen sorgfältigen Ansatz bei der Bewertung von KI-Lösungen. Bewerten Sie den Ruf des Anbieters, die Robustheit seiner KI-Modelle und sein Engagement für Cybersicherheit und Datenschutz. Führen Sie gründliche Proof-of-Concept-Tests durch und bewerten Sie, wie gut die Lösung in die bestehende Cybersicherheitsinfrastruktur integriert wird. Stellen Sie sicher, dass die KI-Lösung mit den Sicherheitsanforderungen und regulatorischen Verpflichtungen Ihrer Organisation übereinstimmt.

Sie sollten auch die präventiven Maßnahmen bewerten, die sie ergreifen, um Vorurteile in ihren Lösungen zu minimieren. Der Einsatz robuster Datenerfassungs- und Vorverarbeitungsverfahren, Diversität in den Entwickler- und Bereitstellungsteams für KI, Investitionen in kontinuierliches Monitoring und der Einsatz mehrerer Schichten von KI sind nur einige Möglichkeiten, um Vorurteile zu mindern und das Potenzial und die Effektivität von KI in der Cybersicherheit zu maximieren.

4. Etablieren Sie ein robustes Daten-Governance-Framework

KI ist auf hochwertige, diverse und gut kuratierte Daten angewiesen. Etablieren Sie ein robustes Daten-Governance-Framework, das die Datenqualität, Integrität und Privatsphäre sicherstellt. Entwickeln Sie Prozesse für das Sammeln, Speichern und Kennzeichnen von Daten unter Einhaltung der relevanten Vorschriften. Implementieren Sie Maßnahmen zum Schutz von Daten während ihres gesamten Lebenszyklus und halten Sie strenge Zugangskontrollen ein, um sensible Informationen zu schützen.

Wählen Sie schließlich KI-Modelle, die erklärbar und interpretierbar sind und Einblicke in ihre Entscheidungsprozesse geben können.

5. Implementieren Sie starke Sicherheitsmaßnahmen für KI-Infrastrukturen

Stellen Sie die Sicherheit der KI-Infrastruktur sicher, indem Sie robuste Sicherheitsmaßnahmen implementieren. Wenden Sie Verschlüsselung auf sensible KI-Modellparameter und Daten während des Trainings, der Bereitstellung und der Inferenz an. Schützen Sie KI-Systeme vor unbefugtem Zugriff und Manipulation, indem Sie starke Authentifizierungsmechanismen, sichere APIs und Zugangskontrollen implementieren. Patches und Updates für KI-Frameworks und Abhängigkeiten regelmäßig durchführen, um Sicherheitslücken zu schließen.

2024 KI-Cybersicherheit-Checkliste

Laden Sie diese Checkliste herunter, um detailliertere Anleitungen zu erhalten, wie Sie das Potenzial von KI in Ihrem Cybersicherheitsprogramm im Jahr 2024 und darüber hinaus nutzen können.

Wie Secureframe die Zukunft der KI in der Cybersicherheit anwendet

Künstliche Intelligenz wird in der Cybersicherheit eine zunehmend zentrale Rolle spielen, mit dem Potenzial, IT- und Infosec-Profis zu unterstützen, Fortschritte zu erzielen und die Informationssicherheitspraktiken von Organisationen aller Größen zu verbessern.

Secureframe bringt weiterhin neue KI-Funktionen auf den Markt, um Kunden bei der Automatisierung von Aufgaben im Zusammenhang mit Sicherheit, Risiko und Compliance zu unterstützen. Zu den neuesten KI-Innovationen gehören:

  • Comply AI für Behebung: Verbessern Sie die Leichtigkeit und Geschwindigkeit der Behebung fehlerhafter Kontrollen in Ihrer Cloud-Umgebung, um die Testbestehensquote zu erhöhen und auditbereit zu sein.
  • Comply AI für Risiko: Automatisieren Sie den Risikobewertungsprozess, um Zeit und Ressourcen zu sparen und Ihr Risikobewusstsein und Ihre Reaktion zu verbessern.
  • Comply AI für Richtlinien: Nutzen Sie generative KI, um Stunden beim Schreiben und Verfeinern von Richtlinien zu sparen.
  • Fragebogen-Automatisierung: Verwenden Sie maschinelles Lernen, um Hunderte von Stunden beim Beantworten von RFPs und Sicherheitsfragebögen zu sparen.

Vertrauen nutzen, um Wachstum zu beschleunigen

Fordern Sie eine Demo anangle-right
cta-bg

FAQs

Wird KI die Cybersicherheit übernehmen?

Nein, KI wird die Cybersicherheit nicht vollständig übernehmen. Andere Technologien (wie Verhaltensbiometrie, Blockchain und Quantenmechanik) werden weiterhin verbreitet sein und menschliches Fachwissen wird für komplexere Entscheidungsprozesse und Problemlösungen, einschließlich der Entwicklung, Schulung, Implementierung und Sicherstellung von KI, weiterhin kritisch sein. Allerdings wird KI wahrscheinlich zu neuen Cybersicherheitslösungen und Karrieren führen.

Kann KI Cyberangriffe vorhersagen?

Ja, KI kann helfen, Cyberangriffe vorherzusagen, indem sie den Netzwerkverkehr und Systemanmeldungen überwacht, um ungewöhnliche Muster zu erkennen, die auf bösartige Aktivitäten und Bedrohungsakteure hinweisen könnten. Damit dies effektiv funktioniert, muss das KI-Modell mit einem großen Datensatz trainiert werden, der die Bedrohungslandschaft umfassend abbildet, sowohl in ihrer aktuellen Form als auch in ihrer zukünftigen Entwicklung.

Was ist ein Beispiel für KI in der Cybersicherheit?

Ein Beispiel für KI in der Cybersicherheit ist die automatische Cloud-Remediation. Wenn beispielsweise ein Test auf der Secureframe-Plattform fehlschlägt, kann Comply AI zur Remediation schnell eine erste Anleitung zur Fehlerbehebung als Code generieren, sodass Benutzer die zugrunde liegende Konfiguration oder das Problem, das den fehlgeschlagenen Test verursacht, in ihrer Cloud-Umgebung leicht korrigieren können. Dies stellt sicher, dass sie die erforderlichen Kontrollen haben, um die Anforderungen an die Informationssicherheit zu erfüllen.