Trace Id is missing

Innovation inden for sikkerhed og robusthed

I takt med at cybersikkerhedsbranchen står over for en paradigmeskift, tilbyder kunstig intelligens potentialet til at øge robustheden og styrke forsvarernes færdigheder, hastighed og viden.

En mandlig computer programmør arbejder sent på kontoret.
“Selvom menneskelig intelligens og ekspertise altid vil være en værdifuld og uerstattelig komponent i cyberbeskyttelse, har teknologien potentiale til at forbedre disse unikke funktioner med færdigheder, behandlingshastigheder og hurtig læring af moderne kunstig intelligens.” 
 
 - Bret Arsenault, Microsoft Chief Information Security Officer 

Reaktion med banebrydende innovation

I forhold til et stadig mere komplekst cyberøkosystem giver kunstig intelligens (AI) mulighed for at ændre sikkerhedslandskabet ved at forbedre færdigheder, hastighed og viden om defenders.   

Kunstig intelligens kan også aktivere nye funktioner, f.eks. brug af store sprogmodeller (LLM'er) til at generere indsigt i naturligt sprog og anbefalinger fra komplekse data og give analytikere nye muligheder for at lære. 

I Microsoft-rapporten over digitalt forsvar fra 2023 udforsker vi nogle af de AI-gennembrud, der transformerer cybersikkerhed, risici, der er forbundet med kunstig intelligens og LLM'er, og hvordan vi kan sikre, at de bruges til at skabe en mere sikker og robust digital fremtid.  

Dekorative: Abstrakt design med søjler af blåt og grønt lys.

Hvordan kan vi udnytte LLM'er til cyberbeskyttelse?

LLM'er har potentiale til at forbedre cyberbeskyttelse i stor omfang. Microsofts forskere og anvendte forskere udforsker og eksperimenterer med disse og andre scenarier:
  • Trusselsintelligens og -analyse

    LLM'er kan hjælpe forsvarer mod cybertrusler med at indsamle og analysere data for at finde mønstre og tendenser i cybertrusler. De kan også føje kontekst til trusselsintelligens ved hjælp af oplysninger fra forskellige kilder og udføre tekniske opgaver som reverse engineering og malwareanalyse. 

  • Reaktion på og genoprettelse af sikkerhedshændelser

    LLM'er kan hjælpe cyberforsvarere med at understøtte og automatisere svar og genoprettelse af sikkerhedshændelser, herunder prioritering, opbevaring, analyse og genoprettelse af hændelser. De kan opsummere hændelser og generere scripts til automatisering af svar, koordinere teams og dokumentere og kommunikere hændelsesdetaljerne og handlingerne. LLM'er kan også hjælpe os med at lære af hændelser og komme med forslag til forbedringer til forebyggelse og afhjælpning. 

  • Sikkerhedsovervågning og -registrering

    LLM'er kan overvåge og registrere sikkerhedshændelser og hændelser på tværs af netværk, systemer, programmer og data. De kan analysere data, generere prioriterede beskeder og levere kontekstafhængige oplysninger til undersøgelse og svar. LLM'er kan også analysere multicloudmiljøernes tilstand, oprette omfattende kort over ressourcer, estimere potentielle indvirkninger og komme med forslag til risikoafhjælpning. De kan være nyttige til registrering af phishing ved at analysere mailindhold og identificere tekstmønstre, uregelmæssigheder og mistænkelige sprog, der indikerer forsøg på phishing. 

  • Sikkerhedstest og -validering

    LLM'er kan automatisere og forbedre sikkerhedstest og validering, herunder indtrængningstest, scanning af sikkerhedsrisici, kodeanalyse og konfigurationsovervågning. De genererer og udfører testcases, evaluerer og rapporterer resultater og tilbyder afhjælpningsforslag. LLM'er kan oprette brugerdefinerede apps og værktøjer til bestemte scenarier, automatisere gentagne opgaver og håndtere lejlighedsvise eller ad hoc-opgaver, der kræver manuel indgriben. 

  • Sikkerhedstilgængelighed og uddannelse

    LLM'er kan hjælpe cyber defenders med at skabe engagerende og personligt tilpasset indhold og scenarier til sikkerhedstilgængelighed og uddannelse. De kan vurdere niveauet af sikkerhedsindsigt og færdigheder hos en målgruppe, give feedback og vejledning og generere realistiske og tilpassede cyberøvelser og -simuleringer til træning og test. 

  • Sikkerhedsstyring, risiko og overholdelse af angivne standarder

    LLM'er kan hjælpe med at automatisere aktiviteter inden for sikkerhedsstyring, risiko og overholdelse af angivne standarder, herunder udvikling og håndhævelse af politikker, risikovurdering/-styring, overvågning og forsikring samt overholdelse og rapportering. De kan justere aktiviteter i forhold til forretningsmål og levere sikkerhedsmålepunkter og dashboards til måling af ydeevne. De kan også identificere huller og problemer og komme med anbefalinger til at forbedre organisationens sikkerhedstilstand, prioritere sikkerhedsrisici og identificere forslag til afhjælpning. 

Kvinde iført beskyttelsesbriller holder en tabletcomputer.

Sænkning af indgangslinjen for brug af moderne AI-innovationer

LLM-baserede løsninger viser et stort potentiale for cybersikkerhed, men de er ikke en erstatning for eksperter inden for cybersikkerhed. Det er vigtigt at have den rette ekspertise, når det drejer sig om at kombinere LLM'er og cybersikkerhed. En løsning er at forene AI-teknikeres og cybersikkerhedseksperters færdigheder for at øge produktiviteten.  

Heldigvis er brugen af LLM'er i cybersikkerhedshandlinger ikke begrænset til store organisationer med store ressourcer. Disse modeller er blevet oplært i enorme mængder data, hvilket giver dem en allerede eksisterende forståelse af cybersikkerhed. 

LLM'er excellerer ved at synkronisere komplekse oplysninger og præsentere dem på et klart og præcist sprog – hvilket hjælper analytikere med at vælge den bedste cyberanalyse til forskellige scenarier. I takt med at trusselslandskabet udvikler sig, og analyseteknikerne udvides, kan selv erfarne analytikere have svært ved at følge med, og LLM'er kan fungere som personlige assistenter og foreslå analyse- og afhjælpningsmuligheder.  

Samarbejde om at designe ansvarlig kunstig intelligens

Computersoftwareudvikler kigger på to skærme.

Ansvarlig kunstig intelligens tilsigtet

Med AI-teknologi, der lover at transformere samfundet, er vi nødt til at sikre en fremtid med ansvarlig kunstig intelligens tilsigtet. Ansvarlig praksis for kunstig intelligens er afgørende for at opretholde brugertillid, beskytte personlige oplysninger og skabe langsigtede fordele for samfundet.

Fastholdelse af vores egne etiske standarder inden for kunstig intelligens

Vi må være eksemplariske og investere i forskning og udvikling for at være på forkant med nye sikkerhedstrusler. Microsoft er forpligtet til at sikre, at alle sine AI-produkter og -tjenester udvikles og bruges på en måde, der overholder vores principper for kunstig intelligens.

Kvinde tænker under et møde.

10 år med aktive politikker for kunstig intelligens

Microsoft er forpligtet til at sikre, at alle vores AI-produkter og -tjenester udvikles og bruges på en måde, der overholder vores principper for kunstig intelligens. Samtidig arbejder vi sammen med branchepartnere om at udvikle standarder og teknologier, der muliggør gennemsigtige og kontrollerbare oplysninger om oprindelsen og ægtheden af digitalt indhold for at øge tilliden online.  

I hele verden vokser ønsket om lovgivningsmæssig retningslinjer for ansvarlig udvikling og brug af kunstig intelligens, og mange lande udarbejder dokumentation, der tilbyder retningslinjer for administration af nye risici, der er knyttet til AI-teknologier. Denne tendens har udviklet sig i mere end ti år, og den har kun fået momentum.  

An infographic displaying numbers of AI policies by country since 2014, and still active as of July 2023.
Aktive politikker efter enhed og implementeringsår. Kilde: OECD's overvågningscenter for AI-politikker (OECD.AI) og Microsofts interne registrering i 2023, januar-juni.

Udforsk andre kapitler i Microsoft-rapporten over digitalt forsvar

Introduktion

Styrken ved partnerskaber er nøglen til at overvinde modgang ved at styrke forsvaret og holde cyberkriminelle ansvarlige.

Status for cyberkriminalitet

Mens cyberkriminelle stadig arbejder hårdt, går de offentlige og private sektorer sammen om at forstyrre deres teknologier og støtte ofrene for cyberkriminalitet.

Nation-stat-trusler

Nation-stat-cyberaktiviteter bringer regeringer og teknologibranchens spillere sammen for at opbygge modstandsdygtighed over for trusler mod onlinesikkerheden.

Kritiske udfordringer i forbindelse med cybersikkerhed

Når vi navigerer i det stadigt skiftende cybersikkerhedslandskab, er holistisk forsvar et must for robuste organisationer, forsyningskæder og infrastruktur.

Innovation inden for sikkerhed og robusthed

I takt med at moderne kunstig intelligens tager et enormt spring fremad, vil den spille en afgørende rolle i forsvar og sikring af robustheden i virksomheder og i samfundet.

Kollektivt forsvar

I takt med at cybertrusler udvikler sig, styrker samarbejdet viden og afhjælpning på tværs af det globale sikkerhedsøkosystem.

Mere om sikkerhed

Vores forpligtelse til at opnå tillid

Microsoft er forpligtet til ansvarlig brug af kunstig intelligens, beskyttelse af personlige oplysninger og fremme af digital sikkerhed og cybersikkerhed.

Cyber Signals

Et kvartalsvis resumé om intelligens om cybertrusler, der er baseret på de seneste Microsoft-trusselsdata og -undersøgelser. Cyber Signals giver tendensanalyse og vejledning til at hjælpe med at styrke den første forsvarslinje.

Nation-stat-rapporter

Halvårlige rapporter om bestemte nation-stat-faktorer, der advarer vores kunder og det globale community om trusler, der skyldes indflydelseshandlinger og cyberaktivitet, og identificerer bestemte sektorer og områder med øget risiko.

Arkiv med Microsoft-rapporter over digitalt forsvar

Udforsk tidligere Microsoft-rapporter over digitalt forsvar, og se, hvordan trusselslandskabet og onlinesikkerheden har ændret sig på bare nogle få år.

Følg Microsoft