Trace Id is missing

Cyberbedrohungen verstehen und Ausbau der Abwehrmaßnahmen im Zeitalter der KI

Eine Gruppe von Personen, die auf Blocks stehen

Cyber Signals Ausgabe 6

Jeden Tag schützen mehr als 2,5 Milliarden cloudbasierte, KI-gesteuerte Erkennungen Microsoft-Kunden.

Heute unterzieht sich die Welt der Cybersicherheit einer massiven Transformation. Künstliche Intelligenz (KI) ist der Anführer dieser Veränderung, und stellt sowohl eine Bedrohung als auch eine Chance dar. Obwohl KI das Potential besitzt, Unternehmen gegen Angriffe mit Maschinengeschwindigkeit zu verteidigen und Innovation und Effizienz bei der Bedrohungserkennung, der Suche und der Vorfallsreaktion anzutreiben, können Widersacher KI jedoch zu Gunsten ihres Missbrauchs nutzen. Der sichere Entwurf, Bereitstellung und Nutzung von KI ist wichtiger denn je.

Bei Microsoft untersuchen wir das Potential von KI zur Verbesserung unserer Sicherheitsmaßnahmen, der Erschließung von neuen und fortgeschrittenen Sicherheitsmaßnahmen und der Erstellung besserer Software. KI gibt uns die Möglichkeit uns anzupassen und Anomalien während sich entwickelnden Bedrohungen sofort zu erkennen, schnell zu reagieren, um Risiken zu neutralisieren und Abwehrstrategien an die Bedürfnissen einer Organisation anzupassen.

KI kann uns außerdem dabei behilflich sein, ein weiteres großes Problem der Branche zu beheben. Angesichts des globalen Arbeitskräftemangels im Bereich Cybersicherheit mit circa4 Millionen Cybersicherheitsexperten, die weltweit gebraucht werden, stellt KI das Potential für ein ausschlaggebendes Werkzeug dar, um die Lücke der Arbeitskräfte zu schließen, und Verteidigern dabei zu helfen, produktiver zu sein.

Wir konnten bereits in einerStudiebeobachten, wie Copilot für Security Sicherheitsanalysten mit unterschiedlichen Erfahrungen helfen kann. Bei allen Aufgaben erwiesen sich Teilnehmer 44% akkurater und 26% schneller.

In Hinblick auf eine sichere Zukunft, müssen wir gewährleisten, dass wir uns sicher auf KI vorbereiten und gleichzeitig die Vorteile davon wirksam einsetzen, da KI die Fähigkeit besitzt, menschliches Potential zu steigern und einige unserer größten Herausforderungen zu bewältigen.

Eine sicherere Zukunft mit KI erfordert fundamentale Fortschritte in der Softwareentwicklung. Es erfordert, dass wir KI-gesteuerte Bedrohungen verstehen und ihnen als essentielle Komponenten jeder Sicherheitsstrategie entgegenwirken. Wir müssen zusammenarbeiten, um starke Kollaborationen und Partnerschaften in sowohl öffentlichen als auch privaten Bereichen zu bilden, und so Akteure mit schlechten Motiven zu bekämpfen.

Als Teil dieses Einsatzes, und unserer eigenenInitiative für eine sichere Zukunft, veröffentlichen OpenAI und Microsoft heute neue Versuche von Bedrohungsakteuren mit Intelligenzdetails, um den Nutzen von großen Sprachmodellen (Large Language Models, LLMs) in Bedrohungstechniken auszutesten und zu erkunden.

Wir hoffen, dass diese Informationen für alle Branchen bei der Arbeit an einer sichereren Zukunft nützlich sein werden. Schlussendlich sind wir alle Verteidiger.

Bret Arsenault, 
CVP, Chief Cybersecurity Advisor

Sehen Sie sich das digitale Briefing von Cyber Signals an, in dem Vasu Jakkal, Corporate Vice President von Microsoft Security Business die wichtigsten Bedrohungsintelligenzexperten zu Cyberbedrohungen im Zeitalter von KI befragt, danach fragt, wie Microsoft KI wir eine erhöhte Sicherheit einsetzt, und welche Maßnahmen Unternehmen ergreifen können, um Verteidigungen zu stärken.

Angreifer, die KI-Technologien erforschen

Die Cyberbedrohungslandschaft stellt uns vor immer größere Herausforderungen durch motiviertere, schlauere und besser ausgestattete Angreifer. Bedrohungsakteure und Verteidiger wenden sich an KI, inklusive LLMs, um ihre Produktivität zu steigern und zugängliche Plattformen auszunutzen, die möglicherweise ihren Motiven und Angriffstechniken entsprechen.

Aufgrund der sich schnell entwickelnden Bedrohungslandschaft kündigen wir heute die Prinzipien von Microsoft an, die unser Vorgehen bestimmen, das Risiko von Bedrohungsakteuren, inklusive fortgeschrittenen hartnäckigen Bedrohungen (Advanced Persistent Threats, APTs), fortgeschrittenen hartnäckigen Manipulatoren (Advanced Persistent Manipulators, APMs) und cyberkriminellen Konsortien, die KI-Plattformen und APIs verwenden zu mildern. Diese Prinzipien beinhalten die Identifikation und das Vorgehen gegen den böswilligen Nutzen von KI durch Bedrohungsakteure, die Benachrichtigung von anderen KI-Dienstanbietern, die Zusammenarbeit mit anderen Stakeholders, und Transparenz.

Obwohl die Motive und die Raffinesse von Bedrohungsakteuren variieren, teilen sie jedoch dieselben gängigen Aufgaben bei der Bereitstellung von Angriffen. Dazu gehören Aufdeckung, wie zum Beispiel die Recherche der Branche von potentiellen Opfern, Standorte, und Beziehungen, Coding, inklusive dem Verbessern von Softwareskripts und Malware-Entwicklung, sowie Hilfestellung beim Lernen und der Verwendung von menschlichen und maschinellen Sprachen.

Nationalstaaten versuchen, KI wirksam einzusetzen

In Zusammenarbeit mit OpenAI teilen wir Bedrohungsintelligenz mit erkannten staatszugehörigen Widersachern, die als Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon, und Salmon Typhoon identifiziert werden, und LLMs verwenden, um Cybervorgänge anzureichern.

Das Ziel der Forschungspartnerschaft von Microsoft und OpenAI besteht darin, die sichere und verantwortungsvolle Nutzung von KI-Technologien wie ChatGPT sicherzustellen, und die höchsten Standards von ethischen Anwendungen einzuhalten, um die Gesellschaft vor potentiellen Missbräuchen zu schützen.

E-Mail-Benachrichtigung: Dokument zur Überprüfung und Unterschrift am 7. November 2023
Forest Blizzard (STRONTIUM), ein höchst effektiver russischer Militärintelligenzakteur, der mit dem Hauptgeneraldirektionsstaab der russischen Streitkräfte bzw. der GRU-Einheit 26165 in Verbindung steht, hat Opfer, die im taktischen und strategischen Interesse der russischen Regierung sind, anvisiert. Die Aktivitäten umfassen eine Breite an Sektoren, von Verteidigung, Transport/Logistik, über Regierung, Stromversorgung und NGOs bis hin zu Informationstechnologie
Emerald Sleet (Velvet Chollima) ist ein nordkoreanischer Bedrohungsakteur, dessen Vorgehen laut Microsoft darin besteht, sich als seriöse akademische Einrichtungen und Nichtregierungsorganisationen ausgeben, um ihre Opfer – Expertinnen und Experten – dazu zu bringen, mit Wissen und Kommentaren in Bezug auf Nordkorea zu antworten.

Die Verwendung von LLMs durch Emerald Sleet erforderte Recherche zu Think Tanks, Nordkorea-Experten sowie Inhaltsgenerierung, die häufig in Spear-Phishing-Kampagnen verwendet wird. Emerald Sleet interagierte mit LLMs, um öffentlich bekannte Schwachstellen einzuordnen, technische Probleme zu behandeln, und Unterstützung mit der Verwendung von verschiedenen Web-Technologien zu erhalten.

Crimson Sandstorm (CURIUM) ist ein iranischer Bedrohungsakteur, der auf die Verbindung mit dem Korps der Iranischen Revolutionsgarden (IRGC) untersucht wird. Die Verwendung von LLMs beinhaltet Support-Anfragen im Bereich Social Engineering, Unterstützung bei Fehlern in der Problembehandlung, .NET-Entwicklung, und Möglichkeiten, wie ein Angreifer Erkennung umgehen kann, wenn ein kompromittiertes Gerät verwendet wird.
Charcoal Typhoon (CHROMIUM) ist ein mit China in Verbindung stehender Bedrohungsakteur, der sich hauptsächlich auf die Nachverfolgung von Gruppen in Taiwan, Thailand, der Mongolei, Malaysia, Frankreich, Nepal, und Individuen auf der ganzen Welt, die Chinas Richtlinien entgegenstehen konzentriert. In aktuellen Vorgängen wurde Charcoal Typhoon bei der Verwendung von LLMs beobachtet, um Einblicke in Forschungserkenntnisse zu erhalten, und spezifische Technologien, Plattformen, Schwachstellen zu verstehen, die auf vorläufige Informationsgewinnungsstadien hindeuten.

Eine weitere von China unterstützte Gruppe, Salmon Typhoon, hat die Effektivität der Verwendung von LLMs in 2023 untersucht, um Informationen zu potentiell sensiblen Themen, bekannten Persönlichkeiten, regionaler Geopolitik, US-Einfluss und internen Angelegenheiten zu sammeln. Die vorläufige Bindung mit LLMs kann sowohl für eine Erweiterung des Intelligenzsammlungs-Toolkits stehen, als auch eine experimentelle Phase der Beurteilung der Fähigkeiten von neuen Technologien darstellen.

Unsere Recherche mit OpenAI hat keine signifikanten Angriffe identifiziert, bei denen die LLMs bereitgestellt wurden, die wir stark überwachen.

Wir haben Maßnahmen ergriffen, um Ressourcen und Konten, die mit diesen Bedrohungsakteuren in Verbindung stehen, zu unterbinden und die Schutzwände und Sicherheitsmechanismen in unseren Modellen zu formen.

Andere KI-Bedrohungen entstehen

KI-gesteuerter Betrug ist ein weiteres wichtiges Problem. Die Sprachsynthese ist ein Beispiel davon, wie ein drei Sekunden langes Sprach-Sample ein Modell so trainieren kann, dass es sich anhört wie jede mögliche Person. Sogar etwas unverfängliches wie Ihre Voicemail-Begrüßung kann verwendet werden, um ein ausreichendes Sampling zu erhalten.

Ein großer Anteil davon, wie wir miteinander umgehen, und Geschäfte abwickeln basiert auf Identitätssicherungwie zum Beispiel dem Erkennen der Stimme, des Gesichts, der E-Mail-Adresse oder dem Schreibstil einer Person.

Es ist wichtig, zu verstehen, wie böswillige Akteure KI verwenden, um seit Langem bestehende Identitätssicherungssysteme zu beeinträchtigen, damit wir komplexe Betrugsvorfälle und andere neu entstehende Social Engineering-Bedrohungen bewältigen können, die Identitäten verschleiern.

KI kann auch verwendet werden, um Unternehmen dabei zu helfen, Betrugsversuche zu unterbinden. Obwohl Microsoft unsere Arbeit mit einem Unternehmen in Brasilien eingestellt hatte, erkannten unsere KI-Systeme Versuche des Unternehmens sich selbst in unserem Ökosystem wiedereinzugliedern.

Die Gruppe versuchte kontinuierlich ihre Informationen zu verschleiern, Besitzerursprünge zu verdecken, und erneut Zugang zu erlangen. Unsere KI-Detektoren verwendeten fast ein Dutzend Risikosignale, um die betrügerische Firma zu melden, und ein vorheriges verdächtiges Verhalten mit ihr zu verknüpfen, um damit Versuche der Firma zu blockieren.

Microsoft verpflichtet sich verantwortungsvoller von Menschen gesteuerter KI mit Privatsphäre und Sicherheit durch menschliche Überwachung, dem Auswerten von Beschwerden und Interpretieren von Richtlinien und Regelungen.

Informieren Sie Mitarbeiter und die Öffentlichkeit über Cyberrisiken:
  • Verwenden Sie bedingte Zugriffsrichtlinien: Diese Richtlinien bieten einen klaren Selbstbereitstellungsleitfaden, um Ihren Sicherheitsstatus zu stärken, der Mandanten automatisch basierend auf Risikosignalen, Lizenzen und Nutzung schützt. Richtlinien für den bedingten Zugriff sind anpassbar und passen sich der sich ändernden Cyberbedrohungslandschaft an.
  • Trainieren und Neu trainieren von Mitarbeitern zu Social Engineering-Taktiken: Klären Sie Mitarbeiter und die Öffentlichkeit über die Erkennung und Reaktion auf Phishing-E-Mails, Vishing (Voicemail), Smishing (SMS/Nachricht), Social Engineering-Angriffe auf, und darüber, wie man bewährte Sicherheitsmethoden für Microsoft Teams anwendet.
  • Rigoroses Schützen von Daten: Stellen Sie sicher, dass Daten von einem Endpunkt zum Anderen privat und kontrolliert bleiben.
  • Wirksames Einsetzen von generativen KI-Tools: Tools wie Microsoft Copilot für Security können Fähigkeiten erweitern und den Sicherheitsstatus des Unternehmens verbessern.
  • Multi-Faktor-Authentifizierung aktivieren: Multi-Faktor-Authentifizierung für alle Benutzer aktivieren, insbesondere für Administratorfunktionen, da dies das Risiko eines Kontoübergriffs um über 99% reduziert.

Abwehr von Angriffen

Microsoft ist mit umfassender Sicherheit und generativer KI immer einen Schritt voraus

Microsoft erkennt eine unwahrscheinlich große Anzahl an böswilligem Verkehr – mehr als 65 Billionen Cybersicherheitssignale pro Tag. KI steigert unsere Fähigkeit, diese Informationen zu analysieren und stellt sicher, dass die wertvollsten Erkenntnisse bekannt gemacht werden, um an dem Unterbinden von Bedrohungen mitzuwirken. Wir verwenden diese Signalintelligenz, um generative KI für fortgeschrittenen Bedrohungsschutz, Datensicherheit und Identitätssicherheit zu nutzen, und Verteidiger dabei zu unterstützen, die Dinge einzufangen, die sonst übersehen werden.

Microsoft verwendet mehrere Methoden, um sich selbst und Kunden vor Cyberbedrohungen zu schützen, inklusive KI-fähiger Bedrohungserkennung, um Änderungen in der Verwendung von Ressourcen und Verkehr im Netzwerk festzustellen; Verhaltensanalysen, um riskante Anmeldungen und anomales Verhalten zu erkennen; Modelle zum maschinellen Lernen (ML), um riskante Anmeldungen und Malware zu erkennen; Zero Trust-Modelle, bei denen jede Zugriffsanforderung gänzlich authentifiziert, autorisiert und verschlüsselt sein muss; und Geräteintegrationsverifizierung bevor ein Gerät mit einem Geschäftsnetzwerk verbunden werden kann.

Da Bedrohungsakteure wissen, dass Microsoft rigoros Multi-Faktor-Authentifizierung (MFA) verwendet, um sich selbst zu schützen. Deshalb werden alle unsere Mitarbeiter mit MFA oder kennwortlosem Schutz ausgestattet. Wir haben Angreifer dabei beobachtet, wie sie sich an Social Engineering bedienen, und damit versuchen, unsere Mitarbeiter zu kompromittieren.

Begehrte Angriffspunkte sind dabei Bereiche, in denen Dinge mit Wert übertragen werden wie zum Beispiel kostenlose Testversionen oder Angebotspreise für Dienste oder Produkte. In diesen Bereichen lohnt es sich für Angreifer nicht, immer nur ein einzelnes Abonnement zu stehlen. Sie versuchen deshalb diese Angriffe zu operationalisieren und zu vergrößern ohne erkannt zu werden.

Aus diesem Grund erschaffen wir KI-Modelle, um diese Angriffe für Microsoft und unsere Kunden zu erkennen. Wir erkennen gefälschte Studenten- und Schulkonten, gefälschte Firmen oder Organisationen, die ihre Firmendaten verändert, oder ihre echten Identitäten verschleiert haben, um Sanktionen zu entgehen, Kontrollen zu umgehen oder frühere kriminelle Vorfälle wie Korruptionsverurteilungen, Diebstahlversuche etc. zu verstecken.

Die Verwendung von GitHub Copilot, Microsoft Copilot für Security und anderen Copilot-Chatfunktionen, die in unsere interne Entwicklungs- und Betriebsinfrastruktur integriert sind, hilft dabei, Vorfällen vorzubeugen, die Geschäftsbetriebe beeinträchtigen können.

Abstimmungsergebnisse zu GenAI-Risiken: Große Sorgen um Datenprivatsphäre: 42%

Um gegen E-Mail-Bedrohungen anzugehen, verbessert Microsoft die Fähigkeiten, Signale außerhalb von E-Mail-Strukturen zu erfassen, und damit einzuordnen, ob es böswillig ist. Mit KI in den Händen von Bedrohungsakteuren entstand ein Zustrom an perfekt verfassten E-Mails, in denen offensichtliche sprachliche und grammatikalische Fehler verbessert wurden, welche oft bei der Aufdeckung von Phishing-Versuchen halfen, und es nun schwieriger macht, Phishing-Versuche zu erkennen.

Es sind fortlaufende Mitarbeiterkampagnen und Kampagnen für das öffentliche Bewusstsein nötig, um Social Engineering zu bekämpfen, welches ein Druckmittel darstellt, das voll und ganz auf menschliche Fehler angewiesen ist. Die Geschichte hat bewiesen, dass effektive Kampagnen für das öffentliche Bewusstsein Verhalten verändern können.

Microsoft erwartet, dass KI Social Engineering-Taktiken verbessern wird, und komplexere Angriffe mit Deepfakes und Stimmklonen kreieren wird, insbesondere wenn Angreifer KI-Technologien finden, die ohne verantwortungsvolle Methoden und integrierte Sicherheitskontrollenarbeiten.

Vorbeugung ist der Schlüssel zum Kampf gegen alle Cyberbedrohungen, sowohl traditionelle als auch KI-fähige.

Empfehlungen:

Wenden Sie Händler-KI-Kontrollen an, um deren Eignung kontinuierlich zu überprüfen: Prüfen Sie jede KI, die in Ihr Unternehmen eingeführt wird, auf entsprechende integrierte Funktionen, um den KI-Zugriff für Mitarbeiter und Teams einzuordnen, mithilfe der Technologie, um eine sichere und konforme KI-Integration zu unterstützen. Bringen Sie Cyberrisiko-Anteilhaber in dem gesamten Unternehmen zusammen, um sich auf feste KI-Mitarbeiterverwendungsfälle und Zugriffssteuerung zu einigen. Risikoleiter und CISOs sollten regelmäßig feststellen, ob Anwendungsfälle und Richtlinien angebracht sind, oder ob diese geändert werden müssen, weil sich Ziele und Erkenntnisse weiterentwickelt haben.
Schützen Sie sich gegen Eingabeaufforderungsinjektionen:  Implementieren Sie strenge Eingabevalidierung und -bereinigung für von Benutzern bereitgestellte Eingabeaufforderungen. Verwenden Sie kontextbewusstes Filtern und Ausgabecodierung, um Eingabeaufforderungsmanipulation vorzubeugen. Aktualisieren und verfeinern Sie LLMs regelmäßig, um dessen Verständnis von böswilligen Eingaben und Edge-Fällen zu verbessern. Überwachen und protokollieren Sie LLM-Interaktionen, um potentielle Injektionsversuche für Eingabeaufforderungen zu erkennen und zu analysieren.
Ordnen Sie Transparenz in der gesamten KI-Lieferkette an: Bewerten Sie durch klare und offene Abläufe alle Bereiche, in denen KI mit den Daten Ihres Unternehmens in Kontakt kommt inklusive durch Drittanbieterpartner und -lieferanten. Verwenden Sie Partnerbeziehungen und funktionsübergreifende Cyberrisikoteams, um Erkenntnisse zu erforschen und daraus resultierende Lücken zu schließen. Das Instandhalten von aktuellen Zero Trust- und Data Governance-Programmen ist im Zeitalter von KI wichtiger denn je.
Konzentrieren Sie sich auf Kommunikation: Cyberrisiko-Leader müssen erkennen, dass Mitarbeiter den Einfluss von KI und die Vorteile im Privatleben erleben, und dadurch natürlich auch den Einsatz ähnlicher Technologien in hybriden Arbeitsumgebungen erkunden möchten. CISOs und andere Führungskräfte, die an Cyberrisiken arbeiten, können vorbeugend die Richtlinien des Unternehmens in Bezug auf die Verwendung und die Risiken von KI verbreiten und hervorheben, inklusive welche bestimmten KI-Tools für das Unternehmen zugelassen sind und welche Kontaktpersonen für Zugriff und Informationen zur Verfügung stehen. Vorbeugende Kommunikation hilft dabei, Mitarbeiter zu informieren und zu bestärken und gleichzeitig das Risiko zu mindern, unkontrollierte KI in Kontakt mit Unternehmens-IT-Ressourcen zu bringen.

Traditionelle Tools können den Bedrohungen durch Cyberkriminelle nicht mehr standhalten. Die zunehmende Geschwindigkeit, das Ausmaß und die Komplexität von aktuellen Cyberangriffen erfordern einen neuen Sicherheitsansatz. Angesichts dem Mangel an Cybersicherheitskräften und der Zunahme an Häufigkeit und Schweregrad von Cyberbedrohungen, stellt die Schließung der Qualifikationslücke zusätzlich eine dringende Notwendigkeit dar.

KI kann für Verteidiger ausschlaggebend sein. Eine vor kurzem durchgeführte Studie über Microsoft Copilot für Security (momentan in der Vorschautestphase für Kunden) zeigte erhöhte Geschwindigkeit und Genauigkeit von Sicherheitsanalytikern, unabhängig ihrer Erfahrungsebene bei gängigen Aufgaben wie der Identifizierung von Skripts, die von Angreifern verwendet werden, dem Erstellen von Vorfallberichten und dem Identifizieren von angemessenen Wartungsschritten.1

  • 44% akkurater in allen Aufgaben für Copilot für Security-Benutzer1
  • 26% schneller bei allen Aufgaben für Copilot für Security-Benutzer1
  • 90% sagten, dass sie Copilot beim nächsten Durchführen derselben Aufgabe verwenden möchten1
  1. [1]

    Methodologie:1 Daten der Momentaufnahme stellen eine zufällige kontrollierte Testversion dar (Randomized Controlled Trial, RCT), bei dem der Produktivitätseinfluss von 149 Leuten durch die Verwendung von Microsoft Copilot für Security gemessen wurde. In diesem RCT gaben wir einigen durch Zufall ausgewählten Analytikern Copilot und anderen nicht. Wir zogen dann ihre Leistung und ihre Meinung ab, um den Effekt von Copilot unabhängig von einem Ausgangseffekt zu erhalten. Die Testpersonen besaßen grundlegende IT-Fertigkeiten, waren jedoch Neulinge im Bereich Sicherheit, damit wir austesten konnten, wie Copilot Neuanalytiker hilft. Das Microsoft Copilot für Security RCT wurde von Microsoft Office des Chief Economists im November 2023 durchgeführt.  Microsoft Entra ID lieferte anonymisierte Daten zu Bedrohungsaktivitäten wie bösartige E-Mail-Konten, Phishing-E-Mails und Angreiferbewegungen in Netzwerken. Weitere Erkenntnisse stammen aus den 65 Milliarden Sicherheitssignalen, die Microsoft täglich erfasst. Diese stammen unter anderem aus der Cloud, von Endpunkten, von Intelligent Edge sowie von unseren Compromise Security Recovery Practice- und Detection and Response-Teams, Telemetrie von Microsoft-Plattformen und -Diensten wie Microsoft Defender und dem in 2023 veröffentlichen Microsoft-Bericht über digitale Abwehr.

Verwandte Artikel

Bedrohungsakteuren im Zeitalter von KI einen Schritt voraus sein

Microsoft veröffentlicht in Zusammenarbeit mit OpenAI Forschungsergebnisse zu neuen Bedrohungen im Zeitalter von KI. Der Fokus liegt hierbei auf identifizierten Aktivitäten, die bekannten Bedrohungsakteuren wie Forest Blizzard, Emerald Sleet, Crimson Sandstorm und anderen zugeordnet werden. Die beobachtete Aktivität beinhaltet Eingabeaufforderungsinjektionen, versuchter Missbrauch von großen Sprachmodellen (LLMs) und Betrug.

Expertenprofil: Homa Hayatyfar

Homa Hayatyfar, Principal Data and Applied Science Manager, beschreibt die Verwendung von Machine Learning-Modellen zur Stärkung der Verteidigung – eine weitere Möglichkeit, die Sicherheit mit KI zu verbessern.

Sicherheit ist nur so gut wie Ihre Threat Intelligence

Weitere Verstärkung ist eingetroffen. John Lambert, Threat Intelligence-Experte, erläutert, wie KI die Threat Intelligence-Community erweitert.