Trace Id is missing

Navigation i cybertrusler og styrkelse af forsvar i den kunstige intelligens' tidsalder

En gruppe personer, der står på blokke

Cyber Signals Issue 6

Hver dag beskytter mere end 2,5 milliarder cloud-baserede, AI-drevne registreringer Microsofts kunder.

I dag undergår cybersikkerhed en massiv transformation. Kunstig intelligens (AI) står i spidsen for denne forandring og udgør både en trussel og en mulighed. Selvom kunstig intelligens har potentiale til at hjælpe organisationer med at bekæmpe cyberangreb i maskinel hastighed og fremme innovation og effektivitet inden for trusselsregistrering, jagt og hændelsesrespons, kan modstandere også bruge kunstig intelligens som en del af deres udnyttelse. Det har aldrig været vigtigere for at os at designe, udrulle og bruge kunstig intelligens sikkert.

Hos Microsoft udforsker vi potentialet i kunstig intelligens for at forbedre vores sikkerhedsforanstaltninger, skabe ny og mere avanceret beskyttelse og udvikle bedre software. Med kunstig intelligens har vi mulighed for at tilpasse os de udviklende trusler, registrere udsædvanlige hændelser med det samme, reagere hurtigt for at neutralisere risici og skræddersy forsvar til en organisations behov.

Kunstig intelligens kan også hjælpe os med at håndtere en anden af branchens største udfordringer. Globalt har vi mangel på fagpersoner, der arbejder med cybersikkerhed, hvor behovet på verdensplan er cirka 4 millioner. Kunstig intelligens har potentiale til at være et afgørende værktøj til at løse problemet med de manglende fagpersoner og hjælpe forsvarere til at blive mere produktive.

Vi har allerede set i én undersøgelse, hvordan Copilot til Security kan hjælpe sikkerhedsanalytikere uanset deres erfaringsniveau – på tværs af alle opgaver var deltagerne 44 procent mere nøjagtige og 26 procent hurtigere.

Når vi forsøger at sikre fremtiden, skal vi sørge for at balancere sikker forberedelse til kunstig intelligens og udnytte dets fordele, for kunstig intelligens har styrken til at øge det menneskelige potentiale og løse nogle af vores mest alvorlige udfordringer.

En mere sikker fremtid med kunstig intelligens vil kræve fundamentale fremskridt inden for softwareudvikling. Det vil kræve, at vi forstår og modvirker AI-drevne trusler som grundlæggende komponenter i enhver sikkerhedsstrategi. Og vi skal arbejde sammen for at skabe dybe samarbejder og partnerskaber på tværs af offentlige og private sektorer for at bekæmpe uønskede aktører.

Som en del af denne indsats og vores eget Secure Future Initiative offentliggør OpenAI og Microsoft i dag nye oplysninger, der beskriver trusselsaktørers forsøg for at teste og udnytte gavnlige store sprogmodeller (LLM'er) i angrebsteknikker.

Vi håber, at disse oplysninger vil være nyttige på tværs af brancher, når vi alle arbejder mod en mere sikker fremtid. For i sidste ende er vi alle forsvarere.

Bret Arsenault, 
CVP, Chief Cybersecurity Advisor

Se Cyber Signals' digitale orientering, hvor Vasu Jakkal, Corporate Vide President of Microsoft Security Business interviewer fremtrædende eksperter i trusselsefterretning om cybertrusler i den kunstige intelligens' tidsalder, hvordan Microsoft bruger kunstig intelligens til at forbedre sikkerhed, og hvad organisationer kan gøre for at styrke deres forsvar.

Personer med ondsindede hensigter udnytter teknologier med kunstig intelligens

Cybertrusselslandskabet er blevet mere og mere udfordrende, hvor personerne med ondsindede hensigter bliver mere motiverede, mere avancerede og mere ressourcerige. Både trusselsaktører og forsvarere bruger kunstig intelligens, herunder LLM'er, til at øge deres produktivitet og drage fordel af tilgængelige platforme, der passer til deres mål og angrebsteknikker.

Grundet det hastigt udviklende trusselslandskab annoncerer vi i dag Microsofts principper, der guider vores handlinger, som begrænser risikoen for, at trusselsaktører, herunder avancerede, vedvarende trusler (APT'er), avancerede, vedvarende manipulatorer (APM'er) og cyberkriminelle syndikater, bruger platforme og API'er med kunstig intelligens. Disse principper inkluderer identifikation og handling mod ondsindede trusselsaktørers brug af kunstig intelligens, oplysning til andre udbydere af AI-tjenester, samarbejde med andre interessenter og transparens.

Selvom trusselsaktørers motiver og avanceringsgrad varierer, deler de nogle fælles opgaver, når de udruller angreb. Disse inkluderer rekognoscering, f.eks. research af potentielle ofres brancher, placeringer og relationer; kodning, herunder forbedring af softwarescripts og malwareudvikling; og hjælp til læring, og bruger både menneskeligt og maskinelt sprog.

Nationstaters forsøg på at udnytte kunstig intelligens

I samarbejde med OpenAI deler vi trusselsefterretning, der viser registrerede statsstøttede modstandere – sporet som Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon og Salmon Typhoon – der bruger LLM'er til at udføre cyberoperationer.

Målet med Microsofts research-partnerskab med OpenAI er at sørge for en sikker og ansvarlig brug af AI-teknologier såsom ChatGPT og opretholdelse af de højeste standarder for etisk anvendelse for at beskytte samfundet mod potentielt misbrug.

E-mailnotifikation: Dokument, du skal gennemse og underskrive, den 7. november 2023
Forest Blizzard (STRONTIUM), en meget effektiv, russisk militærefterretningsaktør, der er knyttet til The Main Directorate of the General Staff of the Armed Forces of the Russian or GRU Unit 26165, har målrettet ofre af taktisk og strategisk interesse for den russiske regering. Deres aktiviteter spænder over en lang række sektorer, herunder forsvar, transport/logistik, offentlige myndigheder, energi, NGO'er og informationsteknologi
Emerald Sleet (Velvet Chollima) er en nordkoreansk trusselsaktør, som Microsoft har registreret har udgivet sig for at være anerkendte akademiske institutioner og NGO'er for at lokke ofre til at svare med ekspertindsigter og -kommentarer om udenrigspolitikker, der er relateret til Nordkorea.

Emerald Sleets brug af LLM'er involverede research af tænketanke og eksperter i Nordkorea samt indholdsgenerering, der sandsynligvis bruges i spydphishing-kampagner. Emerald Sleet interagerede også med LLM'er for at forstå offentligt kendte sårbarheder, fejlfinde tekniske problemer og for at få hjælp til brug af forskellige webteknikker.

Crimson Sandstorm (CURIUM) er en iransk trusselsaktør, der vurderes at være knyttet til Islamic Revolutionary Guard Corps (IRGC). Brugen af LLM'er har involveret anmodninger om support til social engineering, hjælp til løsning af fejl, .NET-udvikling og måder, hvorpå en person med ondsindede hensigter kan omgå registrering, når vedkommende befinder sig på en kompromitteret maskine.
Charcoal Typhoon (CHROMIUM) er en Kina-tilknyttet trusselsaktør, der hovedsageligt fokuserede på at spore grupper i Taiwan, Thailand, Mongoliet, Malaysia, Frankrig, Nepal og enkeltpersoner i hele verden, der er modstandere af Kinas politikker. I nylige operationer er det observeret, at Charcoal Typhoon har anvendt LLM'er til at få indsigt i research for at forstå specifikke teknologier, platforme og sårbarheder, hvilket indikerer indledende faser med indhentning af oplysninger.

En anden Kina-støttet gruppe, Salmon Typhoon, har vurderet effektiviteten af at bruge LLM'er i hele 2023 for at skaffe oplysninger om potentielt følsomme emner, højprofilerede enkeltpersoner, regionale geopolitikker, amerikansk indflydelse og interne anliggender. Denne foreløbige brug af LLM'er kan både afspejle en udvidelse af deres værktøjssæt til at indhente oplysninger og en eksperimenterende fase i vurderingen af udviklende teknologiers funktionalitet.

Vores research sammen med OpenAI har ikke identificeret væsentlige angreb, der anvendte de LLM'er, vi overvåger tæt.

Vi har truffet foranstaltninger for at forstyrre aktiver og konti, der er knyttet til disse trusselsaktører, og former værnet omkring vores sikkerhedsmekanismer ud fra disse modeller.

Andre AI-trusler udvikler sig

Svindel, der er drevet af kunstig intelligens, er en anden væsentlig bekymring. Stemmesyntese er et eksempel på dette, hvor en stemmeprøve på tre sekunder kan træne en model til at lyde som hvem som helst. Selv noget så harmløst som din telefonsvarerhilsen kan bruges til at få tilstrækkeligt prøvemateriale.

Meget af måden, vi interagerer med hinanden og laver forretninger på, afhænger af identitetsbekræftelse, f.eks. genkendelse af en persons stemme, ansigt, mailadresse eller skrivestil.

Det er afgørende, at vi forstår, hvordan ondsindede aktører bruger kunstig intelligens til at underminere mangeårige systemer til identitetsbekræftelse, så vi kan håndtere komplekse svindelsager og andre social engineering-trusler, der slører identiteter.

Kunstig intelligens kan også bruges til at hjælpe virksomheder med at stoppe forsøg på svindel. Selvom Microsoft ophørte vores aftale med en virksomhed i Brasilien, registrerede vores AI-systemer deres forsøg på at genoprette sig selv for igen at få adgang til vores økosystem.

Gruppen forsøgte kontinuerligt at sløre deres oplysninger, skjule ejerskabsrødder og få adgang igen, men vores AI-registreringer brugte mange risikosignaler til at markere det svigagtige firma med flag og forbinde det med tidligere registreret mistænkelig adfærd og blokerede derved deres forsøg.

Microsoft er engageret i ansvarlig menneskeledet kunstig intelligens , der indeholder beskyttelse af personlige oplysninger og sikkerhed, hvor mennesker leverer oversigter, evaluerer appeller og fortolker politikker og regulativer.

Undervis medarbejdere og offentligheden i cyberrisici:
  • Brug politikker for betinget adgang: Disse politikker giver tydelig, selvudrullende vejledning i at styrke dit sikkerhedsniveau, som automatisk vil beskytte lejere baseret på risikosignaler, licensering og brug. Politikker for betinget adgang kan brugerdefineres og vil tilpasse sig det skiftende cybertrusselslandskab.
  • Oplær og genoplær medarbejderne i social engineering-taktikker: Undervis medarbejderne og offentligheden i at genkende og reagere på social engineering-angreb såsom phishing-mails, vishing (telefonsvarer), sms-phishing (sms) og anvende de bedste sikkerhedspraksisser for Microsoft Teams.
  • Beskyt data rigoristisk: Sørg for, at data forbliver private og kontrollerede fra slutpunkt til slutpunkt.
  • Udnyt Generativ AI-sikkerhedsværktøjer: Værktøjer som Microsoft Copilot til Security kan udvide funktionaliteter og forbedre organisationens sikkerhedsniveau.
  • Aktivér multifaktorgodkendelse: Aktivér multifaktorgodkendelse for alle brugere, særligt for administratorfunktioner, da det reducerer risikoen for kontoovertagelse med over 99 procent.

Forsvar mod angreb

Microsoft holder sig på forkant med omfattende sikkerhed kombineret med generativ AI

Microsoft registrerer en enorm mængde skadelig trafik – over 65 billioner cybersikkerhedssignaler pr. dag. Kunstig intelligens styrker vores evne til at analysere disse oplysninger og sikrer, at de mest værdifulde indsigter, der kan hjælpe med at stoppe trusler, findes. Vi bruger også disse signaloplysninger til at styrke generativ AI for at få avanceret trusselsbeskyttelse, datasikkerhed og identitetssikkerhed, der kan hjælpe forsvarere med at fange, hvad andre overser.

Microsoft bruger flere forskellige metoder til at beskytte sig selv og deres kunder mod cybertrusler, herunder AI-aktiveret trusselsregistrering til at opdage ændringer i, hvordan ressourcer eller trafik på netværket bruges; adfærdsanalyse til at registrere risikable logons og unormal adfærd; modeller til maskinel indlæring (ML) til at registrere risikable logons og malware; Nul tillid-modeller, hvor enhver adgangsanmodning skal godkendes, autoriseres og krypteres fuldt ud; og verificering af enhedstilstand, før en enhed kan oprette forbindelse til et virksomhedsnetværk.

Da trusselsaktører forstår, at Microsoft bruger multifaktorgodkendelse (MFA) rigoristisk for at beskytte sig selv – alle vores medarbejdere er konfigureret til MFA eller adgangskodefri beskyttelse – har vi set personer med ondsindede hensigter gå i retning af social engineering i et forsøg på at kompromittere vores medarbejdere.

Hotspots for dette inkluderer områder, hvor ting af værdi videregives, f.eks. gratis prøveversioner eller tjenester eller produkter til kampagnepriser. På disse områder er det ikke rentabelt for personer med ondsindede hensigter at stjæle ét abonnement ad gangen, så de forsøger at operationalisere og skalere disse angreb uden at blive registreret.

Vi bygger naturligvis AI-modeller for at registrere disse angreb for Microsoft og vores kunder. Vi registrerer falske studerende og skolekonti, falske virksomheder og organisationer, der har ændret deres firmografiske data eller skjult deres sande identiteter for at undgå sanktioner, omgås kontroller eller skjule tidligere overtrædelser såsom korruptionsdomme, tyveriforsøg osv.

Brugen af GitHub Copilot, Microsoft Copilot til Security og andre Copilot-chatfunktioner, der er integreret i vores interne infrastruktur for teknologi og drift, hjælper med at undgå hændelser, der kan påvirke driften.

Afstemningsresultater om GenAI-risici: Beskyttelse af personlige data, stor bekymring, 42 %

For at håndtere mailtrusler forbedrer Microsoft sine funktionaliteter til at samle signaler udover en mails sammensætning for at forstå, om den er skadelig. Med kunstig intelligens i hænderne på trusselsaktører har der været en strøm af perfekt skrevne mails, der er forbedret i forhold til de åbenlyse sprog- og grammatikfejl, som ofte afslører phishingangreb, hvilket gør phishingangreb sværere at registrere.

Fortsat medarbejderuddannelse og offentlige kendskabskampagner er nødvendige for at hjælpe med at bekæmpe social engineering, som er det eneste instrument, der afhænger 100 procent af menneskelige fejl. Historien har lært os, at effektive offentlige kendskabskampagner virker i forhold til at ændre folks adfærd.

Microsoft forventer, at kunstig intelligens vil udvikle social engineering-taktikker, hvilket vil skabe mere avancerede angreb, herunder deepfakes og stemmekloning, særligt hvis personer med ondsindede hensigter finder AI-teknologier, der kører uden ansvarlige praksisser og indbyggede sikkerhedskontroller.

Forebyggelse er nøglen til at bekæmpe alle cybertrusler, uanset om de er traditionelle eller AI-aktiverede.

Anbefalinger:

Anvend kontroller for leverandør-AI, og vurder kontinuerligt, om de er et godt match: For enhver AI, der introduceres i din virksomhed, skal du se efter den respektive leverandørs indbyggede funktioner til at give AI adgang til medarbejdere og teams ved hjælp af teknologien, for at fremme en sikker ibrugtagning af AI, der overholder angivne standarder. Saml interessenter i cyberrisici på tværs af en organisation for at blive enige om definerede AI-brugseksempler for medarbejdere og adgangskontroller. Risikoledere og CISO'er skal jævnligt afgøre, om brugseksempler og politikker er tilstrækkelige, eller om de skal ændres, efterhånden som målsætninger og læring udvikler sig.
Beskyt mod prompt-injektioner:  Implementer streng inputvalidering og rensning for brugerleverede prompts. Brug kontekstbevidst filtrering og output-kodning for at undgå prompt-manipulation. Opdater og finjuster jævnligt LLM'er for at forbedre deres forståelse af skadelige inputs og grænsesager. Overfør og log LLM-interaktioner for at registrere og analysere potentielle forsøg på prompt-injektion.
Gør transparens på tværs af AI-forsyningskæden obligatorisk: Gennem tydelige og åbne praksisser skal du vurdere alle områder, hvor AI kan komme i kontakt med din organisations data, herunder via tredjepartspartnere og leverandører. Brug partnerrelationer og krydsfunktionelle cyberrisikoteams til at udforske læring, og luk eventuelle resulterende huller. Opretholdelse af aktuelle programmer for Nul tillid og datastyring er vigtigere end nogensinde før i den kunstige intelligens' tidsalder.
Hold fokus på kommunikation: Cyberrisikoledere skal anerkende, at medarbejderne oplever betydningen af og fordelene ved kunstig intelligens i deres privatliv og vil naturligt ønske at udforske anvendelsen af lignende teknologier på tværs af hybride arbejdsmiljøer. CISO'er og andre ledere, der administrerer cyberrisici, kan proaktivt dele og forstærke deres organisations politikker for brugen af og risikoen ved kunstig intelligens, herunder hvilke angivne AI-værktøjer, der er godkendt til virksomheder og kontaktpunkter for adgang og oplysninger. Proaktiv kommunikation hjælper med at holde medarbejderne informerede og styrkede, samtidig med at deres risiko for at sætte uadministreret kunstig intelligens i kontakt med virksomhedens it-aktiver reduceres.

Traditionelle værktøjer holder ikke længere trit med de trusler, der kommer fra cyberkriminelle. De seneste cyberangrebs stigende hastighed, skalering og avancering kræver en ny tilgang til sikkerhed. Med tanke på manglen på fagpersoner, der arbejder med cybersikkerhed, og med cybertruslers øgede frekvens og alvorsgrad er det et presserende behov at få lukket dette kompetencehul.

Kunstig intelligens kan vippe vægtskålen for forsvarere. En nylig undersøgelse fra Microsoft Copilot til Security (i øjeblikket i kundetest af prøveversion) viste en øget hastighed og nøjagtighed af sikkerhedsanalyse, uanset folks ekspertiseniveau, på tværs af almindelige opgaver såsom at identificere scripts, der er brugt af personer med ondsindede hensigter, oprettelse af hændelsesrapporter og identifikation af passende skridt til afhjælpning.1

  • 44 procent mere nøjagtig på tværs af alle opgaver for Copilot til Security-brugere1
  • 26 procent hurtigere på tværs af alle opgaver for Copilot til Security-brugere1
  • 90 procent sagde, at vil bruge Copilot næste gang, de udfører den samme opgave1
  1. [1]

    Metodologi:1 Snapshotdata, der repræsenterer et randomiseret, kontrolleret studie (RCT), hvor vi testede 149 personer for at måle betydningen for produktiviteten af at bruge Microsoft Copilot til Security. I dette RCT gav vi tilfældigt Copilot til nogle analytikere og ikke andre og subtraherede derefter deres ydeevne og synspunkter for at få effekten af Copilot adskilt fra andre grundeffekter. Testpersonerne havde grundlæggende it-færdigheder, men var nybegyndere inden for sikkerhed, så vi kunne teste, hvordan Copilot hjalp nye analytikere. Microsoft Copilot til Security-RCT'et blev udført af Microsofts Office of the Chief Economist i november 2023. Endvidere leverede Microsoft Entra ID anonymiserede data om trusselsaktivitet, f.eks. skadelige mailkonti, phishing-mails og bevægelser i netværk fra personer med ondsindede hensigter. Yderligere indsigter kommer fra de 65 billioner daglige sikkerhedssignaler, som er registreret på tværs af Microsoft, herunder cloudmiljøet, slutpunkter, den intelligente kant, vores Compromise Security Recovery Practice and Detection and Response-teams, telemetri fra Microsoft-platforme og -tjenester, herunder Microsoft Defender, og 2023-udgaven af Microsofts rapport over digitalt forsvar.

Relaterede artikler

At være på forkant med trusselsaktører i den kunstige intelligens' tidsalder

Microsoft offentliggør i samarbejde med OpenAI research om fremspirende trusler i kunstig intelligens' tidsalder, som fokuserer på identificeret aktivitet, der er knyttet til de kendte trusselsaktører Forest Blizzard, Emerald Sleet, Crimson Sandstorm med flere. Den observerede aktivitet omfatter prompt-injektioner, forsøg på misbrug af store sprogmodeller (LLM) og svindel.

Ekspertprofil: Homa Hayatyfar

Principal Data and Applied Science Manager Homa Hayatyfar beskriver brugen af modeller til maskinel indlæring til at styrke forsvar, som blot er en af mange måder, kunstig intelligens ændrer, hvordan sikkerhed kan se ud.

Sikkerheden er ikke bedre end dine oplysninger om trusler

Flere forstærkninger er ankommet. John Lambert, trusselsefterretningsleder, forklarer, hvordan kunstig intelligens forbedrer community'et for trusselsefterretning.