Wie kann generative KI in der Cybersicherheit eingesetzt werden? 10 Praxisbeispiele

  • May 15, 2024
Author

Anna Fitzgerald

Senior Content Marketing Manager at Secureframe

In einer aktuellen Umfrage von Sicherheitsexperten und Fachleuten von Splunk Inc. gaben 91% der Befragten an, dass sie generative KI nutzen, und 46% sagten, dass sie für ihre Sicherheitsteams bahnbrechend sein wird.

Trotz der relativ neuen öffentlichen Verfügbarkeit von generativer KI verändert sie bereits grundlegend die Aufgaben und Arbeitsabläufe von Cybersicherheitsfachleuten.

In diesem Artikel werden wir die positiven und negativen Auswirkungen der generativen KI auf die Cybersicherheitsbranche untersuchen. Wir werden uns auch auf reale Anwendungsfälle der generativen KI in der heutigen Cybersicherheit konzentrieren.

Ein Überblick über generative KI in der Cybersicherheit

Generative KI ist im Bereich der Cybersicherheit zu einem zweischneidigen Schwert geworden. Einerseits nutzen böswillige Akteure zunehmend ihre Kraft, um groß angelegte, ausgeklügelte Bedrohungen zu schaffen. Sie nutzen KI-Modelle wie ChatGPT, um Malware zu erstellen, Schwachstellen im Code zu identifizieren und Benutzerauthentifizierungen zu umgehen. Darüber hinaus setzen Social Engineers generative KI ein, um überzeugendere Phishing-Betrügereien und Deepfakes zu entwickeln, was die Bedrohungslage verstärkt. Eindrucksvolle 85% der Cybersicherheitsexperten, die in den letzten 12 Monaten einen Anstieg der Cyberangriffe beobachteten, führen diesen Anstieg auf böswillige Akteure zurück, die generative KI nutzen.

Generative KI bietet jedoch auch bedeutende Chancen zur Stärkung der Cybersicherheitsabwehr. Sie kann bei der Identifizierung potenzieller Angriffsvektoren helfen, automatisch auf Sicherheitsvorfälle reagieren und die Bedrohungsaufklärung verbessern.

Um die Auswirkungen der generativen KI auf die Cybersicherheit vollständig zu erfassen, müssen CISOs und andere Sicherheits- und IT-Führungskräfte die Risiken und Vorteile verstehen, die sie bietet. Im Folgenden betrachten wir diese genauer.

Wie generative KI die Cybersicherheit bedroht

Böswillige Angreifer nutzen das Potenzial der generativen KI, um Cyberangriffe zu starten, die schwerer zu erkennen und zu verteidigen sind. Werfen wir einen Blick auf einige der Risiken der generativen KI.

Immer ausgefeiltere Angriffe

In der EY-Umfrage 2024 zu menschlichen Risiken in der Cybersicherheit gaben 85% der Befragten an, dass sie glauben, dass KI Cyberangriffe ausgefeilter gemacht hat.

Hacker nutzen insbesondere generative KI, um immer ausgefeiltere Angriffe wie sich selbst entwickelnde Malware zu starten. Diese Malware-Arten nutzen generative KI, um sich selbst zu

Größere Angriffsvolumen

Hacker nutzen auch generative KI, um größere Mengen an Angriffen zu starten. In einem Bericht von Deep Instinct haben 75 % der Sicherheitsexperten in den letzten 12 Monaten einen Anstieg der Angriffe festgestellt, wobei 85 % diesen Anstieg auf böse Akteure zurückführen, die generative KI verwenden.

Das bedeutet, dass Cyberkriminelle generative KI nutzen, um ausgefeiltere Cyberangriffe in großem Maßstab zu erstellen. Zum Beispiel hat der IBM X-Force Threat Intelligence Index 2024 festgestellt, dass generative KI-Fähigkeiten die Zeit, die für die Erstellung einer effektiven Phishing-E-Mail benötigt wird, um mehr als 99,5 % reduzieren.

Mangelndes Risikomanagement

Während die Anwendung von generativer KI zunimmt, hinken die Bemühungen zur Bewältigung der durch generative KI eingeführten Risiken hinterher. Eine jüngste Studie von IBM und Amazon Web Services ergab, dass Organisationen nur 24 % ihrer aktuellen generativen KI-Projekte absichern – trotz der Tatsache, dass 82 % der Befragten sagen, dass sichere und vertrauenswürdige KI entscheidend für den Erfolg ihres Geschäfts ist. Tatsächlich sagen 69 % der befragten Führungskräfte, dass Innovation Vorrang vor Sicherheit hat.

Dies ist nur geringfügig besser als die Ergebnisse eines Berichts von Riskconnect aus dem Jahr 2023, in dem 93 % der Unternehmen die Risiken anerkennen, die mit der Verwendung von generativer KI innerhalb des Unternehmens verbunden sind, aber nur 9 % sagen, dass sie vorbereitet sind, die Bedrohung zu bewältigen.

Organisationen, die ihre Anwendung von generativer KI erhöhen, ohne gleichzeitig ihre Risikomanagementstrategie zu aktualisieren und zu verstärken, werden ihr Risikopotenzial erhöhen.

Unsicherer Code

Viele Entwickler wenden sich der generativen KI zu, um ihre Produktivität zu steigern. Eine Stanford-Studie ergab jedoch, dass Softwareingenieure, die KI-Systeme zur Codegenerierung verwenden, mit größerer Wahrscheinlichkeit Sicherheitslücken in den von ihnen entwickelten Anwendungen verursachen. Je mehr Entwickler, die nicht die Expertise oder Zeit haben, um Code-Schwachstellen zu erkennen und zu beheben, generative KI verwenden, desto mehr Code-Schwachstellen werden eingeführt, die von Hackern ausgenutzt werden können.

Wie generative KI die Cybersicherheit verbessert

Generative KI hilft auch dabei, Sicherheitsteams genauer, effizienter und produktiver zu machen, um ihre Organisationen zu verteidigen. Werfen wir einen Blick darauf, wie generative KI die Sicherheitsoperationen transformiert.

Unterstützung unterbesetzter Sicherheitsteams

KI wird eingesetzt, um Sicherheitsteams zu unterstützen und die Sicherheitsresultate zu verbessern. Die meisten IT-Führungskräfte (93%) nutzen oder erwägen bereits den Einsatz von KI und maschinellem Lernen, um ihre Sicherheitsfähigkeiten zu verbessern. Diese KI-Nutzer berichten bereits von Leistungsverbesserungen bei der Triage von Bedrohungen der Stufe 1, der Erkennung von Zero-Day-Angriffen und Bedrohungen sowie der Reduzierung von Fehlalarmen und Rauschen.

Aufgrund dieser frühen Erfolgsmeldungen sagen mehr als die Hälfte der Führungskräfte (52%), dass ihnen generative KI helfen wird, Ressourcen, Kapazitäten, Talente oder Fähigkeiten besser zuzuordnen.

Erkennung von Bedrohungen in Echtzeit

Die Bedrohungserkennung ist heute eines der wichtigsten Anwendungsgebiete von generativer KI. Durch die Nutzung zur schnelleren Identifizierung von Mustern und Anomalien, effizienteren Filterung von Zwischenfallwarnungen und Ablehnung von Fehlalarmen können Organisationen ihre Fähigkeit zur Erkennung neuer Bedrohungsvektoren erheblich beschleunigen.

Verbesserung der Bedrohungsintelligenz

Generative KI wird auch zur Verbesserung der Bedrohungsintelligenz eingesetzt. Früher mussten Analysten komplexe Abfragesprachen, Operationen und Reverse Engineering verwenden, um große Mengen an Daten zu analysieren und Bedrohungen zu verstehen. Jetzt können sie generative KI-Algorithmen verwenden, die automatisch Code und Netzwerkverkehr nach Bedrohungen durchsuchen und reichhaltige Einblicke bieten, die Analysten helfen, das Verhalten bösartiger Skripts und anderer Bedrohungen zu verstehen.

Automatisierung von Sicherheitspatches

Generative KI kann die Analyse und Anwendung von Patches automatisieren. Mithilfe neuronaler Netze kann sie Codebasen auf Schwachstellen durchsuchen und geeignete Patches vorschlagen oder anwenden, indem sie Mustererkennung in natürlicher Sprache (NLP) oder einen als K-nearest neighbors (KNN) bekannten maschinellen Lernalgorithmus verwendet.

Verbesserung der Vorfallreaktion

Eine weitere erfolgreiche Anwendung generativer KI in der Cybersicherheit ist in der Vorfallreaktion. Generative KI kann Sicherheitsanalysten Reaktionsstrategien basierend auf erfolgreichen Taktiken aus früheren Vorfällen bereitstellen, was zur Beschleunigung der Vorfallreaktionsabläufe beitragen kann. Gen KI kann auch weiterhin aus Vorfällen lernen, um diese Reaktionsstrategien im Laufe der Zeit anzupassen. Organisationen können generative KI auch nutzen, um die Erstellung von Vorfallreaktionsberichten zu automatisieren.

Während der RSA-Konferenz 2024 sagte Elie Bursztein, Leiter der technischen und forschungsbezogenen Cybersicherheit bei Google und DeepMind, dass eine der vielversprechendsten Anwendungen generativer KI die Beschleunigung der Vorfallreaktion ist. Er sagte, obwohl mehr Forschung und Innovation erforderlich seien, könnte Gen KI eines Tages in der Lage sein, einen Vorfall zu modellieren oder einen nahezu Echtzeit-Vorfallbericht zu erstellen, um die Vorfallreaktionszeiten drastisch zu verkürzen.

Beispiele für generative KI in der Cybersicherheit

Da wir nun einige allgemeine Anwendungen generativer KI in der Cybersicherheit verstehen, lassen Sie uns einen Blick auf einige spezifische Cybersicherheits-Tools werfen, die generative KI verwenden.

1. Secureframe Comply AI für Remediation

Secureframe hat Comply AI für Remediation gestartet, um eine kontextuellere, genauere und maßgeschneiderte Benutzererfahrung für die Behebung fehlgeschlagener Tests zu bieten, damit Organisationen Cybersicherheitsprobleme schnell beheben und die Compliance-Zeit verkürzen können.

Comply AI für Remediation bietet Korrekturrichtlinien, die auf die Umgebung der Benutzer zugeschnitten sind, sodass sie das zugrunde liegende Problem, das die fehlerhafte Konfiguration in ihrer Umgebung verursacht, leicht aktualisieren können. Dies ermöglicht es ihnen, fehlerhafte Kontrollen zu beheben, Tests zu bestehen, schneller auditbereit zu werden und ihre allgemeine Sicherheits- und Compliance-Position zu verbessern.

Benutzer können auch Nachfragen über den Chatbot stellen, um zusätzliche Details zum Korrekturcode zu erhalten oder um maßgeschneidertere Richtlinien für ihre spezifischen Sicherheits- und Compliance-Anforderungen zu erhalten.

2. Google Threat Intelligence

Google hat kürzlich Google Threat Intelligence angekündigt, das die Leistung der Mandiant-Expertise an vorderster Front, die von über 1 Million Nutzern gesammelten VirusTotal-Bedrohungsinformationen und das Gemini-AI-Modell zu einem Angebot kombiniert.

Gemini ist ein KI-gesteuerter Agent, der eine konversationelle Suche in Googles umfassendem Bedrohungsinformations-Repository ermöglicht, sodass Benutzer Einblicke in Bedrohungen gewinnen und sich schneller schützen können. Traditionell war die Operationalisierung von Bedrohungsinformationen arbeitsintensiv und langsam. Google Threat Intelligence verwendet Gemini, um potenziell bösartigen Code zu analysieren und eine Zusammenfassung seiner Ergebnisse bereitzustellen, um Sicherheitsexperten effizienter und effektiver bei der Bekämpfung von Malware und anderen Bedrohungen zu unterstützen.

3. Secureframe Comply AI für Risiko

Secureframe Comply AI für Risiko wurde entwickelt, um den Risikobewertungsprozess zu automatisieren und Organisationen Zeit und Ressourcen zu sparen.

Mithilfe einer Risikoerklärung und Unternehmensinformationen erstellt Comply AI for Risk detaillierte Einblicke in ein Risiko, einschließlich der Wahrscheinlichkeit und Auswirkungen eines Risikos vor einer Reaktion, eines Behandlungsplans zur Reaktion auf das Risiko und der verbleibenden Wahrscheinlichkeit und Auswirkungen des Risikos nach der Behandlung. Diese detaillierten Ausgaben von Comply AI for Risk helfen Organisationen, die potenziellen Auswirkungen eines Risikos und geeignete Minderungstechniken besser zu verstehen, was ihr Risikobewusstsein und ihre Reaktionsfähigkeit verbessert.

4. Tenable ExposureAI

Tenable hat ExposureAI eingeführt, um Analysten neue und umfassende Einblicke zu bieten und das Exposure-Management zugänglicher zu machen. Diese neuen generativen KI-Fähigkeiten helfen Analysten, schneller nach Exposures zu suchen, sie zu analysieren und Entscheidungen darüber zu treffen, indem sie:

  • Analysten die Verwendung von Befehlen in natürlicher Sprache ermöglichen, um spezifische Exposures und Asset-Daten zu suchen
  • Den gesamten Angriffsweg in einer geschriebenen Erzählung zusammenfassen, damit Analysten Exposures besser verstehen
  • Analysten die Möglichkeit geben, spezifische Fragen zu dem zusammengefassten Angriffsweg sowie jedem Knotenpunkt entlang des Angriffswegs an Tenables KI-Assistenten zu stellen
  • Einblicke in hochriskante Exposures zu bieten und Handlungsempfehlungen abzugeben, damit Analysten hochriskante Exposures leichter priorisieren und beheben können

5. Ironscales Phishing Simulation Testing

Ironscales hat durch GPT unterstützte Phishing-Simulationstests (PST) als Betafunktion eingeführt. Dieses Tool verwendet das proprietäre große Sprachmodell von Ironscales, um Phishing-Simulationstest-Kampagnen zu erstellen, die auf Mitarbeiter und die fortgeschrittenen Phishing-Angriffe, denen sie begegnen könnten, zugeschnitten sind.

Das Ziel ist es, Organisationen zu helfen, ihre Sicherheitsbewusstseinsschulungen schnell zu personalisieren, um dem Anstieg und der Raffinesse sozialer Ingenieurangriffe entgegenzuwirken.

6. ZeroFox FoxGPT.

ZeroFox hat FoxGPT entwickelt, ein generatives KI-Tool zur Beschleunigung der Analyse und Zusammenfassung von Informationen über große Datensätze hinweg. Es kann Sicherheitsteams dabei helfen, bösartigen Inhalt, Phishing-Angriffe und potenzielle Kontoübernahmen zu analysieren und in Kontext zu setzen.

7. SentinelOne Purple AI

SentinelOne hat eine generative KI-gestützte Threat-Hunting-Plattform vorgestellt, die Echtzeit-Embedded-Neuronale-Netzwerke und eine auf einem großen Sprachmodell (LLM) basierende natürliche Sprachschnittstelle kombiniert, um Analysten zu helfen, Bedrohungen schneller zu identifizieren, zu analysieren und zu mindern.

Mithilfe von natürlicher Sprache können Analysten komplexe Fragen zur Bedrohungs- und Gegnerjagd stellen und operative Befehle ausführen, um ihr Unternehmensumfeld zu verwalten und schnelle, präzise und detaillierte Antworten in Sekunden zu erhalten. Purple AI kann auch Bedrohungen analysieren und Einblicke in das identifizierte Verhalten sowie empfohlene nächste Schritte bieten.

8. VirusTotal Code Insight

VirusTotal Code Insight nutzt Sec-PaLM, eines der generativen KI-Modelle, die auf Google Cloud AI gehostet werden, um natürliche Sprachzusammenfassungen von Code-Snippets zu erstellen. Dies kann Sicherheitsteams dabei helfen, das Verhalten potenziell bösartiger Skripte zu analysieren und zu verstehen. VirusTotal Code Insight soll als leistungsstarker Assistent für Cybersecurity-Analysten dienen und rund um die Uhr arbeiten, um ihre Gesamtleistung und Effektivität zu verbessern.

9. IBM QRadar Suite

Die QRadar-Suite kombiniert fortschrittliche KI und Automatisierung, um die Bedrohungserkennungs- und Reaktionszeit zu beschleunigen. IBM hat angekündigt, dass es Anfang 2024 generative KI-Sicherheitsfunktionen einführen wird, um manuelle Aufgaben weiter zu automatisieren und die Zeit und das Talent von Sicherheitsteams zu optimieren. Diese Aufgaben umfassen:

  • Erstellen einfacher Zusammenfassungen von Sicherheitsfällen und -vorfällen, die mit einer Vielzahl von Stakeholdern mit einem einzigen Klick geteilt werden können
  • Automatisches Generieren von Suchanfragen zur Bedrohungserkennung basierend auf natürlichen Sprachbeschreibungen von Angriffsverhalten und Mustern
  • Analysten schnell zu helfen, Sicherheitsprotokolldaten zu verstehen, indem einfache Erklärungen der auf einem System stattgefundenen Ereignisse bereitgestellt werden
  • Interpretation und Zusammenfassung hochrelevanter Bedrohungsinformationen

10. Secureframe-Fragebogen-Automatisierung

Das Beantworten von Sicherheitsfragebögen kann für Sicherheitsanalysten und andere Stakeholder ein mühsamer und zeitraubender Prozess sein, mit Fragen, die von Kunde zu Kunde variieren und keinem standardisierten Format, Satz oder Reihenfolge der Fragen folgen.

Secureframes Fragebogenautomatisierung nutzt generative KI, um den Prozess zu rationalisieren und zu automatisieren. Dieses Tool schlägt Fragebogenantworten vor, indem es Richtlinien, Kontrollen, Tests und andere Kontexte von der Secureframe-Plattform sowie genehmigte frühere Antworten in der Wissensdatenbank verwendet, um eine höhere Genauigkeit zu erzielen. Nach einer schnellen Überprüfung der Antworten und gegebenenfalls Anpassungen können Benutzer die ausgefüllten Fragebögen dann in ihrem ursprünglichen Format mit Interessenten und Kunden teilen.

Was Ihre Organisation als Reaktion auf generative KI in der Cybersicherheit tun kann

Im Folgenden sind einige Schritte aufgeführt, die Ihre Organisation sofort unternehmen kann, um sich gegen Risiken durch generative KI zu verteidigen.

1. Mitarbeiterschulungen aktualisieren

Nehmen Sie sich die Zeit, die Schulungen für Mitarbeiter zu bewerten und zu aktualisieren, die sich mit generativer KI befassen. Diese Schulungen sollten die Raffinesse von Cyberangriffen widerspiegeln, die generative KI nutzen, einschließlich zunehmend überzeugender Phishing-E-Mails sowie Deepfake-Anrufen und -Videos.

Erwägen Sie, in Mitarbeiterschulungen auch Leitplanken für die Nutzung von generativen KI-Tools einzubeziehen.

2. Definieren Sie akzeptable Nutzung von generativer KI in Richtlinien

Während ein aktueller Bericht von ExtraHop ergab, dass 32 % der Organisationen die Nutzung von generativen KI-Tools verboten haben, empfehlen führende Organisationen wie die AICPA, dass Organisationen ihre Sicherheitsrichtlinien aktualisieren, um eine sichere Nutzung von KI-Tools zu fördern, da dies unvermeidlich ist. Wichtige Überlegungen umfassen:

  • Beispiele für akzeptable Nutzung bereitzustellen
  • die Nutzung auf ein oder zwei seriöse Tools zu beschränken, bei denen der Mitarbeiter ordnungsgemäß geschult wurde
  • die Nutzung eines KI-Chatbot-Tools zu verbieten, das nicht zuvor von der IT-Abteilung überprüft und vom Vorgesetzten des Mitarbeiters genehmigt wurde

3. Schatten-KI reduzieren

Ähnlich wie sich Schatten-IT erhöhte, als SaaS-Produkte beliebter und zugänglicher wurden, wächst auch die Schatten-KI, da Mitarbeiter zunehmend KI verwenden, um ihre Produktivität zu steigern.

Schatten-KI stellt aus zwei Hauptgründen große Herausforderungen in Bezug auf Sicherheit und Governance dar. Erstens können Mitarbeiter beim Einsatz von KI-Produkten sensible, privilegierte oder proprietäre Informationen preisgeben. Zweitens kann das Sicherheitsteam einer Organisation die Risiken von KI-Tools, die ihnen nicht bekannt sind, nicht bewerten und mindern.

Um diese Herausforderungen anzugehen, können Organisationen einen mehrgleisigen Ansatz verfolgen, um die Schatten-IT zu reduzieren. Dies kann Schulungen der Mitarbeiter zu den Risiken der Schatten-IT, die Identifizierung nicht genehmigter KI-Dienste und andere Leitplanken in Richtlinien umfassen sowie die Implementierung offensiver und defensiver Sicherheitsstrategien wie Sicherheitszäunen zur Erkennung und Kontrolle, welche Art und wie viele Daten innerhalb Ihrer Organisation fließen.

4. Nutzen Sie generative KI, um Ihre Abwehr zu stärken

Da generative KI ein zweischneidiges Schwert ist, stellen Sie sicher, dass Sie sie zu Ihrem Vorteil nutzen. Zum Beispiel können Sie generative KI-Lösungen einsetzen, um Bedrohungen mit der gleichen Geschwindigkeit, Skalierbarkeit und Raffinesse zu erkennen, mit der böswillige Akteure sie starten. Sie können sie auch verwenden, um Routineaufgaben zu automatisieren, die nicht so viel menschliche Fachkenntnis oder Urteil erfordern, wie die Bedrohungssuche.

Wenn generative KI und Automatisierung auf diese Weise strategisch eingesetzt werden, können sie Ihrer Organisation helfen, Sicherheitsrisiken und Vorfälle schneller und in größerem Umfang zu identifizieren und darauf zu reagieren.

5. Einhaltung von Vorschriften und Rahmenwerken für verantwortungsbewusste KI-Nutzung

Die KI-Regulierung wurde bereits von der EU, China und Teilen der USA verabschiedet und wird voraussichtlich zunehmen. Es gibt auch eine zunehmende Anzahl freiwilliger Rahmenwerke, die die Komplexitäten und ethischen Bedenken der KI ansprechen und entwickelt wurden, um Organisationen zu helfen, Risiken zu mindern und die Governance zu verbessern, wie das NIST AI Risk Management Framework (AI RMF) und ISO 42001.

Die Einhaltung dieser Vorschriften und Rahmenwerke kann Organisationen einen strukturierten Ansatz zur verantwortungsvollen und effektiven Verwaltung von KI-Systemen bieten und somit das Vertrauen und die Zuverlässigkeit unter KI-Entwicklern und -Nutzern stärken.

Leiten Sie die KI-Strategie und Implementierung Ihrer Organisation

Befolgen Sie diese Best Practices, um KI effektiv einzusetzen und gleichzeitig Bedenken hinsichtlich Transparenz, Datenschutz und Sicherheit zu berücksichtigen.

Wie die generativen KI-Fähigkeiten von Secureframe die Cybersicherheit in Ihrer Organisation verbessern können

Secureframe erweitert kontinuierlich seine KI-Fähigkeiten, um Kunden zu helfen:

  • Sicherheitsfragebögen und RFPs schnell und genau zu beantworten, um mehr Geschäfte abzuschließen und ihren Umsatz zu steigern
  • Den Risikobewertungsprozess zu automatisieren, um ihr Risikobewusstsein und ihre Reaktion zu verbessern
  • Fehlgeschlagene Kontrollen zu beheben, um Tests zu bestehen und schneller bereit für Audits zu sein

Möchten Sie Secureframe AI weiter erkunden? Vereinbaren Sie eine Demo, um zu sehen, wie Secureframe AI manuelle Aufgaben im Zusammenhang mit Sicherheit, Datenschutz und Compliance automatisieren kann.

FAQs

Wie wird generative KI in der Cybersicherheit eingesetzt?

Generative KI wird eingesetzt, um die Sicherheitslage von Organisationen zu stärken, indem sie die Fähigkeiten von Sicherheitsteams verbessert, Bedrohungen schneller und effizienter zu erkennen, zu analysieren und darauf zu reagieren, und indem sie Routineaufgaben wie die Berichterstattung über Vorfallreaktionen automatisiert. Generative KI wird auch von Cyberkriminellen verwendet, um zunehmend raffiniertere Cyberangriffe zu starten, wie z. B. Deepfake-Videoanrufe.

Was ist generative KI und ein Beispiel?

Generative KI ist eine Art von KI, die Deep-Learning-Modelle oder -Algorithmen verwendet, um automatisch Text, Fotos, Videos, Code und andere Ausgaben basierend auf den Datensätzen zu erstellen, auf denen sie trainiert wurden. Das bekannteste Beispiel ist ChatGPT, ein KI-gesteuertes Sprachmodell, das von OpenAI entwickelt wurde.

Kann Cybersicherheit durch generative KI automatisiert werden?

Teile der Cybersicherheit können durch generative KI automatisiert werden, einschließlich Bedrohungserkennung, Analyse und Reaktion; es kann jedoch menschliche Experten nicht vollständig ersetzen. Zum Beispiel können generative KI-Tools bekannte Angriffsmuster identifizieren und neue vorhersagen, menschliche Analysten können jedoch echte Bedrohungen von falschen Positiven unterscheiden, basierend auf ihrem tieferen, kontextuellen Verständnis der einzigartigen Systeme, Netzwerke und Betriebsumgebungen ihrer Organisation.