Trace Id is missing

Je weg vinden door cyberbedreigingen en de verdediging verstevigen in het AI-tijdperk

Een groep mensen die op blokken staan

Cyber Signals - Editie 6

Elke dag beschermen meer dan 2,5 miljard cloudgebaseerde, AI-gestuurde detecties Microsoft-klanten.

Vandaag de dag ondergaat de wereld van cyberbeveiliging een enorme transformatie. Kunstmatige intelligentie (AI) staat vooraan bij deze verandering en vormt zowel een bedreiging als een kans. Hoewel AI het potentieel heeft om organisaties in staat te stellen cyberaanvallen met de snelheid van een machine te verslaan en innovatie en efficiëntie te stimuleren bij het opsporen van bedreigingen, jagen en reageren op incidenten, kunnen vijandige partijen AI gebruiken als onderdeel van hun aanvallen. Het is nog nooit zo belangrijk geweest om AI veilig te ontwerpen, in te zetten en te gebruiken.

Bij Microsoft onderzoeken we het potentieel van AI om onze beveiligingsmaatregelen te verbeteren, nieuwe en geavanceerde beveiligingen en beter software te ontwikkelen. Met AI kunnen we ons aanpassen aan steeds veranderende bedreigingen, afwijkingen direct detecteren, snel reageren om risico's te neutraliseren en de verdediging afstemmen op de behoeften van een organisatie.

AI kan ons ook helpen om een van de andere grootste uitdagingen in de sector te overwinnen. Gezien het wereldwijde tekort aan cyberbeveiligingspersoneel, van ongeveer 4 miljoen cyberbeveiligingsprofessionals wereldwijd, heeft AI de potentie om een cruciaal hulpmiddel te zijn om het tekort aan talent te dichten en beschermers te helpen productiever te zijn.

We hebben in een onderzoek al gezien hoe Copilot voor Beveiliging beveiligingsanalisten kan helpen, ongeacht hun kennisniveau - bij alle taken waren de deelnemers 44 procent nauwkeuriger en 26 procent sneller.

Als we de toekomst veilig willen stellen, moeten we ervoor zorgen dat we een balans vinden tussen het veilig voorbereiden op AI en het benutten van de voordelen ervan, want AI heeft het vermogen om het menselijk potentieel te verhogen en een aantal van onze grootste uitdagingen op te lossen.

Een veiligere toekomst met AI vereist fundamentele vooruitgang in software engineering. Dit vereist dat we AI-gestuurde bedreigingen begrijpen en tegengaan als essentiële onderdelen van elke beveiligingsstrategie. Bovendien moeten we samenwerken om diepgaande samenwerking en partnerschappen tussen de publieke en private sector op te bouwen om kwaadwillenden te bestrijden.

Als onderdeel van deze inspanning en ons eigen Secure Future-initiatief, publiceren OpenAI en Microsoft vandaag nieuwe informatie over pogingen van bedreigingsactoren om de bruikbaarheid van grote taalmodellen (LLM's) in aanvalstechnieken te testen en te onderzoeken.

We hopen dat deze informatie nuttig zal zijn voor alle sectoren in ons streven naar een veiligere toekomst. Want uiteindelijk zijn we allemaal beschermers.

Bret Arsenault, 
CVP, Chief Cybersecurity Advisor

Bekijk de digitale briefing van Cyber Signals waarin Vasu Jakkal, Corporate Vice President van Microsoft Beveiliging voor bedrijven, belangrijke experts op het gebied van bedreigingsinformatie interviewt over cyberbedreigingen in het tijdperk van AI, manieren waarop Microsoft AI gebruikt voor verbeterde beveiliging en wat organisaties kunnen doen om de bescherming te helpen versterken.

Aanvallers verkennen AI-technologieën

Het landschap van cyberbedreigingen is steeds uitdagender geworden met aanvallers die gemotiveerder en geavanceerder zijn en over steeds meer middelen beschikken. Zowel bedreigingsactoren als verdedigers kijken naar AI, waaronder LLM's, om hun productiviteit te verhogen en te profiteren van toegankelijke platforms die mogelijk bij hun doelen en aanvalstechnieken passen.

Gezien het snel evoluerende landschap van bedreigingen kondigen we vandaag de principes van Microsoft aan die als leidraad dienen voor onze acties om het risico te beperken dat bedreigingsactoren, waaronder APT's (advanced persistent threats), APM's (advanced persistent manipulators) en cybercriminele syndicaten, AI-platforms en API's gebruiken. Deze principes bestaan onder andere uit identificatie van en actie tegen het gebruik van AI door kwaadwillende bedreigingsactoren, kennisgeving aan andere AI-dienstverleners, samenwerking met andere belanghebbenden en transparantie.

Ook al variëren de motieven en geavanceerdheid van bedreigingsactoren, toch hebben ze gemeenschappelijke taken bij het inzetten van aanvallen. Hieronder vallen verkenningen, zoals het onderzoeken van de industrieën, locaties en relaties van potentiële slachtoffers; codering, waaronder het verbeteren van softwarescripts en het ontwikkelen van malware; en hulp bij het leren en gebruiken van zowel menselijke als machinetalen.

Natiestaten proberen gebruik te maken van AI

In samenwerking met OpenAI delen we bedreigingsinformatie over gedetecteerde, aan de staat gelieerde aanvallers - getraceerd als Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon en Salmon Typhoon - die LLM's gebruiken om cyberoperaties uit te breiden.

Het doel van de samenwerking van Microsoft met OpenAI is om te zorgen voor een veilig en verantwoord gebruik van AI-technologieën zoals ChatGPT, waarbij de hoogste normen voor ethische toepassing worden gehandhaafd om de gemeenschap te beschermen tegen mogelijk misbruik.

E-mailmelding: Document ter beoordeling en ondertekening op 7 november 2023
Forest Blizzard (STRONTIUM), een zeer effectieve Russische militaire inlichtingendienst gelinkt aan GROe eenheid 26165, heeft zich gericht op slachtoffers van tactisch en strategisch belang voor de Russische overheid. Hun activiteiten strekken zich uit over verschillende sectoren, waaronder defensie, transport/logistiek, overheid, energie, NGO's en informatietechnologie
Emerald Sleet (Velvet Chollima) is een Noord-Koreaanse bedreigingsactor waarvan Microsoft heeft ontdekt dat deze zich als gerenommeerde academische instellingen en NGO's voordoet zodat slachtoffers antwoord geven met deskundige inzichten en informatie over buitenlands beleid in verband met Noord-Korea.

Emerald Sleet maakte gebruik van LLM's door onderzoek te doen naar denktanks en experts op het gebied van Noord-Korea, maar ook door inhoud te genereren die waarschijnlijk gebruikt zou worden in spear phishing campagnes. Emerald Sleet had ook contact met LLM's om inzicht te krijgen in openbaar bekende kwetsbaarheden, om technische problemen op te lossen en voor hulp bij het gebruik van verschillende webtechnologieën.

Crimson Sandstorm (CURIUM) is een Iraanse bedreigingsactor die banden heeft met de Islamitische Revolutionaire Garde (IRGC). Het gebruik van LLM's betreft verzoeken om ondersteuning op het gebied van social engineering, hulp bij het oplossen van fouten, .NET-ontwikkeling en manieren waarop een aanvaller detectie kan omzeilen wanneer hij zich op een gecompromitteerde machine bevindt.
Charcoal Typhoon (CHROMIUM) is een aan China gelieerde bedreigingsactor die zich voornamelijk richt op het opsporen van groepen in Taiwan, Thailand, Mongolië, Maleisië, Frankrijk, Nepal en individuen wereldwijd die zich verzetten tegen het beleid van China. Bij recente operaties heeft Charcoal Typhoon LLM's ingeschakeld om inzicht te krijgen in onderzoek om specifieke technologieën, platforms en kwetsbaarheden te begrijpen, wat duidt op een voorbereidende fase van gegevensverzameling.

Een andere door China gesteunde groep, Salmon Typhoon, heeft in 2023 de effectiviteit onderzocht van het gebruik van LLM's om informatie te verkrijgen over mogelijk gevoelige onderwerpen, belangrijke personen, regionale geopolitiek, de invloed van de VS en interne aangelegenheden. Deze voorlopige betrokkenheid bij LLM's kan zowel duiden op een verbreding van de hulpmiddelen voor het verzamelen van inlichtingen als op een experimentele fase in het beoordelen van de mogelijkheden van opkomende technologieën.

Ons onderzoek met OpenAI heeft geen significante aanvallen geïdentificeerd die gebruik maken van de LLM's die we nauwlettend in de gaten houden.

We hebben maatregelen genomen om bedrijfsmiddelen en accounts die in verband worden gebracht met deze bedreigingsactoren te verstoren en de veiligheidsmaatregelen en -mechanismen rond onze modellen vorm te geven.

Andere AI-bedreigingen duiken op

AI-gestuurde fraude is een ander belangrijk aandachtspunt. Spraaksynthese is hier een voorbeeld van, waarbij een stemvoorbeeld van drie seconden een model kan trainen om te klinken als wie dan ook. Zelfs iets onschuldigs als je voicemail begroeting kan voldoende zijn.

Veel van de manier waarop we met elkaar communiceren en zaken doen is afhankelijk van identiteitscontrole, zoals het herkennen van iemands stem, gezicht, e-mailadres of schrijfstijl.

Het is van cruciaal belang dat we begrijpen hoe kwaadwillende actoren AI gebruiken om bestaande systemen voor identiteitscontrole te ondermijnen, zodat we complexe fraudegevallen en andere opkomende social engineering-bedreigingen die identiteiten verbergen, kunnen aanpakken.

AI kan ook worden gebruikt om bedrijven te helpen bij het verstoren van fraudepogingen. Hoewel Microsoft de samenwerking met een bedrijf in Brazilië verbrak, detecteerden onze AI-systemen pogingen van het bedrijf om zichzelf opnieuw samen te stellen en opnieuw ons ecosysteem binnen te komen.

De groep probeerde voortdurend hun gegevens te verbergen, eigendomsverhoudingen te verhullen en opnieuw binnen te komen, maar onze AI-detecties gebruikten bijna een dozijn risicosignalen om het frauduleuze bedrijf te markeren en het te associëren met eerder herkend verdacht gedrag, waardoor de pogingen werden geblokkeerd.

Microsoft zet zich in voor verantwoordelijke, door mensen geleide AI met aandacht voor privacy en beveiliging, waarbij mensen toezicht houden, bezwaren evalueren en beleid en regelgeving interpreteren.

Informeer werknemers en het publiek over cyberrisico's:
  • Gebruik beleid voor voorwaardelijke toegang: dit beleid biedt duidelijke, zelf uit te voeren richtlijnen om je beveiligingspostuur te versterken die tenants automatisch beschermen op basis van risicosignalen, licenties en gebruik. Beleid voor voorwaardelijke toegang is aanpasbaar en past zich aan het veranderende landschap van cyberbedreigingen aan.
  • Medewerkers trainen en bijscholen over social engineering-tactieken: leer medewerkers en het publiek om phishing e-mails, vishing (voicemail), smishing, (sms/text) social engineering aanvallen te herkennen en erop te reageren, en pas de best practices voor beveiliging van Microsoft Teams toe.
  • Gegevens zorgvuldig beschermen: zorg ervoor dat gegevens van begin tot eind privé blijven en worden beheerd.
  • Maak gebruik van generatieve AI-beveiliginghulpmiddelen: hulpmiddelen zoals Microsoft Copilot voor Beveiliging kunnen de mogelijkheden uitbreiden en de beveiligingspostuur van de organisatie verbeteren.
  • Schakel meervoudige verificatie in: schakel meervoudige verificatie in voor alle gebruikers, vooral voor beheerdersfuncties, omdat dit het risico op accountovername met meer dan 99 procent vermindert.

Verdedigen tegen aanvallen

Microsoft blijft koploper met uitgebreide beveiliging in combinatie met generatieve AI

Microsoft detecteert een enorme hoeveelheid kwaadaardig verkeer - meer dan 65 biljoen cyberbeveiligingssignalen per dag. AI vergroot ons vermogen om deze informatie te analyseren en ervoor te zorgen dat de meest waardevolle inzichten aan het licht komen om bedreigingen te stoppen. We gebruiken deze signaalinformatie ook om Generative AI aan te sturen voor geavanceerde bescherming tegen bedreigingen, gegevensbeveiliging en identiteitsbeveiliging om beschermers te helpen detecteren wat anderen missen.

Microsoft gebruikt verschillende methoden om zichzelf en klanten te beschermen tegen cyberbedreigingen, waaronder AI-gebaseerde bedreigingsdetectie om veranderingen te ontdekken in hoe bronnen of verkeer op het netwerk worden gebruikt; gedragsanalyse om riskante aanmeldingen en afwijkend gedrag te detecteren; machine learning (ML) modellen om riskante aanmeldingen en malware te detecteren; Zero Trust modellen waarbij elk verzoek om toegang volledig moet worden geverifieerd, geautoriseerd en versleuteld; en verificatie van de conditie van apparaten voordat een apparaat verbinding kan maken met een bedrijfsnetwerk.

Omdat bedreigingsactoren begrijpen dat multifactor authenticatie (MFA) rigoureus wordt gebruikt door Microsoft om zichzelf te beschermen - zijn al onze medewerkers ingesteld op MFA of wachtwoordloze beveiliging - we hebben ingezien dat aanvallers social engineering toepassen in een poging onze medewerkers te compromitteren.

Hot spots hiervoor zijn gebieden waar dingen van waarde worden overgebracht, zoals gratis proefprojecten of promotieprijzen van diensten of producten. In deze gebieden is het niet winstgevend voor aanvallers om één abonnement per keer te stelen, dus proberen ze deze aanvallen operationeel uit te voeren en op te schalen zonder ontdekt te worden.

Natuurlijk bouwen we AI-modellen om deze aanvallen te detecteren voor Microsoft en onze klanten. We detecteren valse studenten en schoolaccounts, valse bedrijven of organisaties die hun firmografische gegevens hebben gewijzigd of hun ware identiteit hebben verborgen om sancties te omzeilen, controles te omzeilen of eerdere criminele overtredingen zoals veroordelingen voor corruptie, pogingen tot diefstal, enz. te verbergen.

Het gebruik van GitHub Copilot, Microsoft Copilot voor Beveiliging en andere copilot chatfuncties die geïntegreerd zijn in onze interne technische en operationele infrastructuur, helpt incidenten te voorkomen die mogelijk van invloed zijn op onze activiteiten.

Pollresultaten over de risico's van GenAI: Privacy van gegevens een belangrijk probleem, 42%

Om e-mailbedreigingen tegen te gaan, verbetert Microsoft de mogelijkheden om signalen te verzamelen naast de samenstelling van een e-mail om te begrijpen of deze kwaadaardig is. Nu AI in handen is van bedreigingsactoren, is er een toevloed van perfect geschreven e-mails die verbeteringen aanbrengen in de voor de hand liggende taal- en grammaticafouten die phishingpogingen vaak duidelijk maken, waardoor phishingpogingen moeilijker te detecterenzijn.

Voortdurende educatie van werknemers en campagnes om het publiek bewust te maken zijn nodig om social engineering te bestrijden, de enige invloed die voor 100 procent afhankelijk is van menselijke fouten. De geschiedenis heeft ons geleerd dat effectieve campagnes om het publiek bewust te maken gedrag veranderen.

Microsoft verwacht dat de social engineering-tactieken door AI zullen evolueren, waardoor geavanceerdere aanvallen ontstaan, waaronder deepfakes en het klonen van stemmen, vooral als aanvallers merken dat AI-technologieën werken zonder verantwoorde praktijken en ingebouwde beveiligingscontroles.

Preventie is essentieel bij het bestrijden van alle cyberbedreigingen, of ze nu van traditionele of AI-gebaseerde aard zijn.

Aanbevelingen:

Pas AI-controles van leveranciers toe en beoordeel hun geschiktheid constant: kijk voor elke AI die in je bedrijf wordt geïntroduceerd naar de ingebouwde functies van de respectievelijke leveranciers om AI-toegang te beperken tot werknemers en teams die de technologie gebruiken om een veilige implementatie van AI te garanderen. Breng belanghebbenden op het gebied van cyberrisico's in de hele organisatie bij elkaar om af te stemmen op gedefinieerde gebruiksscenario's voor AI-medewerkers en toegangscontroles. Risicobeheerders en CISO's moeten regelmatig bepalen of use cases en beleidsregels adequaat zijn, of dat deze moeten veranderen naarmate doelstellingen en kennis zich ontwikkelen.
Bescherm tegen prompt injecties:  Implementeer strikte invoervalidatie en zuivering voor door de gebruiker ingegeven prompts. Gebruik contextuele filtering en uitvoercodering om manipulatie van prompts te voorkomen. Werk LLM's regelmatig bij en verfijn ze om het begrip van kwaadaardige invoer en randgevallen te verbeteren. Monitor en log LLM interacties om potentiële prompt injectiepogingen te detecteren en analyseren.
Verplicht transparantie in de hele toeleveringsketen van AI: beoordeel door middel van duidelijke en open praktijken alle gebieden waar AI in contact kan komen met de gegevens van je organisatie, inclusief via externe partners en leveranciers. Gebruik relaties met partners en multifunctionele cyberrisicoteams om leerervaringen te onderzoeken en eventuele tekortkomingen op te lossen. Het bijhouden van de huidige Zero Trust en gegevensbeheerprogramma's is in het AI-tijdperk belangrijker dan ooit.
Focus op communicatie: leiders op het gebied van cyberrisico's moeten inzien dat werknemers de impact en voordelen van AI in hun privéleven zien en uiteraard de toepassing van soortgelijke technologieën in hybride werkomgevingen zullen willen verkennen. CISO's en andere leiders die cyberrisico's beheren, kunnen het beleid van hun organisaties over het gebruik en de risico's van AI proactief delen en versterken, inclusief welke aangewezen AI-hulpmiddelen zijn goedgekeurd voor de onderneming en contactpunten voor toegang en informatie. Proactieve communicatie helpt om werknemers op de hoogte te houden en in staat te stellen het heft in eigen handen te nemen, terwijl het risico wordt verkleind dat onbeheerde AI in contact komt met IT-bedrijfsmiddelen.

Traditionele hulpmiddelen kunnen de bedreigingen van cybercriminelen niet meer bijhouden. De toenemende snelheid, schaal en geavanceerdheid van recente cyberaanvallen vragen om een nieuwe benadering van beveiliging. Bovendien is het, gezien het tekort aan cyberbeveiligingspersoneel en de toenemende frequentie en ernst van cyberbedreigingen, van groot belang om deze vaardigheidskloof te overbruggen.

AI kan de balans laten omslaan voor beschermers. Een recent onderzoek naar Microsoft Copilot voor Beveiliging (momenteel in previewtests bij klanten) liet zien dat beveiligingsanalisten sneller en nauwkeuriger werken, ongeacht hun expertiseniveau, bij veelvoorkomende taken zoals het identificeren van scripts die door aanvallers worden gebruikt, het maken van incidentrapporten en het identificeren van de juiste herstelstappen.1

  • 44 procent nauwkeuriger over alle taken voor gebruikers van Copilot voor Beveiliging1
  • 26 procent sneller over alle taken voor gebruikers van Copilot voor Beveiliging1
  • 90 procent zegt dat ze Copilot willen gebruiken als ze dezelfde taak de volgende keer uitvoeren1
  1. [1]

    Methodologie:1 Snapshot-gegevens vertegenwoordigen een gerandomiseerde gecontroleerde trial (RCT), waarbij we 149 mensen hebben getest om de productiviteitseffecten te meten van het gebruik van Microsoft Copilot voor Beveiliging. In deze RCT gaven we Copilot willekeurig aan sommige analisten en niet aan anderen, en vervolgens hebben we hun prestaties en sentimenten daarvan afgeleid om het effect van Copilot te bepalen, los van een eventueel basiseffect. De proefpersonen hadden basis IT-vaardigheden, maar waren nieuwelingen op het gebied van beveiliging, zodat we konden testen hoe Copilot "beginnende" analisten helpt. De RCT van Microsoft Copilot voor Beveiliging is in november 2023 uitgevoerd door het Office of the Chief Economist van Microsoft. Daarnaast leverde Microsoft Entra ID geanonimiseerde gegevens over bedreigingsactiviteiten zoals schadelijke e-mailaccounts, phishing-e-mails en bewegingen van aanvallers binnen netwerken. Aanvullende inzichten zijn afkomstig van de 65 biljoen beveiligingssignalen die Microsoft dagelijks verzamelt (van onder andere de cloud, eindpunten, de intelligente rand, onze Compromise Security Recovery Practice- en Detection and Response-teams, telemetrie van Microsoft-platformen en -services, waaronder Microsoft Defender) en het Microsoft Digital Defense Report van 2023.

Verwante artikelen

Bedreigingsactoren voorblijven in het tijdperk van AI

Microsoft publiceert in samenwerking met OpenAI een onderzoek naar opkomende bedreigingen in het tijdperk van AI, waarbij de nadruk ligt op geïdentificeerde activiteiten die in verband worden gebracht met bekende bedreigingsactoren Forest Blizzard, Emerald Sleet, Crimson Sandstorm en anderen. De waargenomen activiteit bestaat uit prompt-injecties, pogingen tot misbruik van grote taalmodellen (LLM) en fraude.

Expertprofiel: Homa Hayatyfar

Homa Hayatyfar, Principal Data and Applied Science Manager, beschrijft het gebruik van Machine Learning-modellen om de verdediging te versterken. Dit is slechts één van de vele manieren waarop AI de aanblik van beveiliging wijzigt.

Beveiliging is zo goed als je informatie over bedreigingen

Meer versterkingen zijn gearriveerd. John Lambert, Bedreigingsinformatie-leider, legt uit hoe AI de community van bedreigingsinformatie versterkt.