Trace Id is missing

Obvladovanje kibernetskih groženj in krepitev obrambe v dobi umetne inteligence

Skupina ljudi stoji na kockah

Cyber Signals – 6. izdaja:

Microsoftove stranke vsak dan ščiti več kot 2,5 milijarde zaznavanj v oblaku, ki temeljijo na umetni inteligenci.

Svet kibernetske varnosti se v današnjem času močno spreminja. V samem ospredju teh sprememb je umetna inteligenca (UI), ki pa je hkrati grožnja in priložnost. Medtem ko umetna inteligenca organizacijam omogoča preprečevanje kibernetskih napadov s strojno hitrostjo ter spodbuja inovacije in učinkovitost pri odkrivanju groženj, lovu ter odzivanju na dogodke, pa lahko napadalci umetno inteligenco uporabijo kot del svojih izkoriščanj. Še nikoli ni bilo tako pomembno, da zagotovimo varno ustvarjanje uvajanje in uporabo umetne inteligence.

Pri Microsoftu raziskujemo možnosti umetne inteligence za izboljšanje naših varnostnih ukrepov, odkrivanje novih in naprednih zaščit ter ustvarjanje boljše programske opreme. Z umetno inteligenco se lahko prilagodimo razvijajočim se grožnjam, takoj zaznamo anomalije, se hitro odzovemo in nevtraliziramo tveganja ter prilagodimo obrambo potrebam organizacije.

Z umetno inteligenco lahko premagamo še enega od največjih izzivov v panogi. Zaradi globalnega manjka zaposlenih na področju kibernetske varnosti, ki po svetu zahteva približno 4 milijone strokovnjakov za kibernetsko varnost, lahko umetna inteligenca postane ključno orodje za zapolnitev manjka talentov in izboljšanje storilnosti strokovnjakov za varnost.

V eni od študij je razvidno, kako lahko varnostni analitiki izkoristijo zmogljivosti rešitve Copilot za varnost, ne glede na raven njihovega strokovnega znanja – pri vseh opravilih so bili udeleženci za 44 odstotkov natančnejši in 26 odstotkov hitrejši.

Pri zagotavljanju varnosti v prihodnosti moramo poskrbeti za usklajenost med pripravo na umetno inteligenco in izkoriščanjem njenih prednosti, saj lahko umetna inteligenca poveča človeški potencial in zagotovi rešitve za nekatere največje izzive.

Za zagotovitev varnejše prihodnosti z umetno inteligenco bo potreben temeljni napredek na področju inženiringa programske opreme. Razumeti bomo morali grožnje, ki jih povzroča umetna inteligenca, kot osnovno komponento vsake varnostne strategije. Skupaj moramo vzpostaviti tesno sodelovanje in partnerstva med javnimi in zasebnimi sektorji za boj proti akterjem groženj.

V okviru teh prizadevanj in lastne pobude Secure Future Initiative sta OpenAI in Microsoft danes objavila nove, podrobne podatke obveščanja glede poskusov akterjev groženj, da bi preskusili in raziskali uporabnost velikih jezikovnih modelov (LLM) na področju tehnik napadov.

Upamo, da bodo te informacije uporabne v različnih panogah, saj si vsi prizadevamo za varnejšo prihodnost. Kajti na koncu smo vsi strokovnjaki za varnost.

Bret Arsenault, 
CVP, glavni svetovalec za kibernetsko varnost

Oglejte si digitalni pregled oddaje Cyber Signals, kjer se Vasu Jakkal, podpredsednica Microsoftove varnosti za podjetja, pogovarja s priznanimi strokovnjaki za obveščanje o kibernetskih grožnjah v dobi umetne inteligence, načinih, kako Microsoft uporablja umetno inteligenco za izboljšanje varnosti, in ukrepih, s katerimi lahko organizacije okrepijo obrambo.

Napadalci raziskujejo tehnologije umetne inteligence

Okolje kibernetskih groženj postaja čedalje bolj zapleteno, saj so napadalci bolj motivirani, uporabljajo dovršene tehnike in imajo na voljo več sredstev. Tako akterji groženj kot tudi strokovnjaki za varnost uporabljajo umetno inteligenco, vključno z modeli LLM, za izboljšanje storilnosti in izkoriščanje zmogljivosti dostopnih platform, ki bi lahko ustrezale njihovim ciljem in tehnikam napadov.

Zaradi hitro razvijajočega se okolja groženj danes objavljamo Microsoftova načela, ki so vodilo naših ukrepov za ublažitev tveganja akterjev groženj, vključno z naprednimi dolgotrajnimi grožnjami (APT), naprednimi dolgotrajnimi manipulatorji (APM) ter kibernetskimi kriminalnimi združbami, ki uporabljajo platforme UI in vmesnike API. Ta načela vključujejo prepoznavanje zlonamerne uporabe umetne inteligence s strani akterjev groženj in ustrezno ukrepanje, obveščanje drugih ponudnikov storitev umetne inteligence, sodelovanje z drugimi zainteresiranimi skupinami in preglednost.

Čeprav se motivi in spretnosti akterjev groženj razlikujejo, njihovi postopki izvajanja napadov zajemajo podobna opravila. Ta vključuje izvidništvo, kot je raziskovanje panog, lokacij in odnosov morebitnih žrtev, kodiranje, vključno z izboljšanjem programskih skript in razvojem zlonamerne programske opreme, ter pomoč pri učenju in uporabi človeških in strojnih jezikov.

Države poskušajo izkoristiti zmogljivosti umetne inteligence

V sodelovanju z OpenAI posredujemo podatke obveščanja o grožnjah, kjer so navedeni zaznani državi pridruženi napadalci – spremljani kot Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Tajfun in Salmon Tajfun – ki uporabljajo model LLM za razširitev kibernetskih postopkov.

Cilj Microsoftovega raziskovalnega partnerstva z OpenAI je zagotoviti varno in odgovorno uporabo tehnologij umetne inteligence, kot je ChatGPT, ter spoštovati najvišje standarde etične uporabe za zaščito skupnosti pred morebitnimi zlorabami.

E-poštna obvestilo: Dokument za pregled in podpis dne 7. novembra 2023
Forest Blizzard (STRONTIUM), zelo učinkovit ruski vojaški akter groženj, povezan z Glavnim direktoratom generalštaba ruskih oboroženih sil ali enoto GRU 26165, je ciljal žrtve, ki so taktično in strateško pomembne za rusko vlado. Dejavnosti tega akterja zajemajo različne sektorje, vključno z obrambnim, transportnim/logističnim, vladnim, energetskim, nevladnim in informacijskim sektorjem.
Emerald Sleet (Velvet Chollima) je severnokorejski akter groženj, za katerega je Microsoft ugotovil, da se izdaja za ugledne akademske ustanove in nevladne organizacije, da bi od žrtev pridobil odgovore s strokovnimi vpogledi in komentarji o zunanjih politikah, povezanih s Severno Korejo.

Akter Emerald Sleet je uporabljal model LLM za raziskovanje možganskih trustov in strokovnjakov za Severno Korejo ter ustvarjal vsebine za morebitne napade s ciljanim lažnim predstavljanjem. Emerald Sleet je uporabljal modele LLM tudi za razumevanje javno znanih ranljivosti, odpravljanje tehničnih težav in pomoč pri uporabi različnih spletnih tehnologij.

Crimson Sandstorm (CURIUM) je iranski akter groženj, za katerega se predvideva, da je povezan z Islamsko revolucionarno gardo (IRGC). Uporaba modelov LLM je vključevala zahteve za podporo za socialni inženiring, pomoč pri odpravljanju napak, razvoj programske opreme .NET in načine, s katerimi se lahko napadalec izogne zaznavanju, ko pridobi dostop do ogroženega računalnika.
Charcoal Typhoon (CHROMIUM) je kitajski pridruženi akter groženj, ki je osredotočen predvsem na sledenje skupin na Tajvanu, Tajskem, v Mongoliji, Maleziji, Franciji in Nepalu ter posameznikov po svetu, ki nasprotujejo kitajski politiki. V nedavnih operacijah je bilo zaznano, da je Charcoal Typhoon vključil modele LLM, da bi pridobil vpoglede v raziskave za razumevanje določenih tehnologij, platform in ranljivosti, kar kaže na predhodne faze zbiranja informacij.

Druga skupina, ki jo podpira Kitajska, Salmon Typhoon, je leta 2023 ocenjevala učinkovitost uporabe modelov LLM za pridobivanje informacij o morebitno občutljivih temah, pomembnih posameznikih, regionalni geopolitiki, vplivu ZDA in notranjih zadevah. Ta poskusna uporaba modelov LLM odraža tako razširitev kompleta orodij za zbiranje podatkov obveščanja kot tudi eksperimentalno fazo pri ocenjevanju zmogljivosti novih tehnologij.

Naše raziskave , ki jih izvajamo skupaj z OpenAI, niso pokazale pomembnih napadov z uporabo modelov LLM, ki jih pozorno spremljamo.

Sprejeli smo ukrepe za onemogočanje sredstev in računov, povezanih s temi akterji groženj, ter ustvarili varovala in varnostne mehanizme za zaščito naših modelov.

Pojav drugih groženj umetne inteligence

Druga zaskrbljujoča težava so goljufije, ki uporabljajo umetno inteligenco. Primer tega je sinteza glasu, kjer lahko na podlagi trisekundnega glasovnega vzorca naučimo model, da zveni kot kdor koli. Za pridobitev zadostnega vzorca lahko uporabite celo nekaj tako osnovnega, kot je pozdrav v glasovni pošti.

Velik del naše medsebojne komunikacije in poslovanja temelji na preverjanju identitete, kot je prepoznavanje glasu, obraza, e-poštnega naslova ali sloga pisanja osebe.

Ključnega pomena je, da razumemo, kako zlonamerni akterji uporabljajo umetno inteligenco za oslabitev dolgotrajnih sistemov za preverjanje identitete, da se lahko spopademo z zapletenimi primeri goljufij in drugimi novimi grožnjami socialnega inženiringa, ki prikrivajo identitete.

Z umetno inteligenco lahko podjetja onemogočijo poskuse goljufije. Čeprav je Microsoft prekinil sodelovanje s podjetjem v Braziliji, so naši sistemi umetne inteligence zaznali, da je podjetje poskušalo znova vzpostaviti povezavo in vstopiti v naš ekosistem.

Skupina je nenehno poskušala prikriti svoje podatke in lastniške korene ter izvesti ponovni vstop, vendar so naša zaznavanja z UI na podlagi skoraj ducata signalov tveganja označila goljufivo podjetje z zastavico in ga povezala s predhodno prepoznanim sumljivim vedenjem ter tako preprečila njegove poskuse.

Microsoft se zavzema za odgovorno umetno inteligenco, ki jo upravlja človek in zagotavlja zasebnost ter varnost, kjer imajo ljudje glavno vlogo nadzornika, ocenjevalca pritožb ter tolmača pravilnikov in predpisov.

Izobražujte zaposlene in javnost o kibernetskih tveganjih:
  • Uporabljajte pravilnike o pogojnem dostopu: ti pravilniki zagotavljajo jasna, samodejno uvedena navodila za krepitev stanja varnosti, ki samodejno ščitijo najemnike na podlagi signalov tveganja, licenciranja in uporabe. Pravilnike o pogojnem dostopu lahko prilagodite glede na spreminjajoče se okolje kibernetskih groženj.
  • Usposabljajte zaposlene o taktikah socialnega inženiringa in jim zagotovite najnovejše vpoglede: izobražujte zaposlene in javnost, da prepoznajo e-poštna sporočila z lažnim predstavljanjem, glasovno lažno predstavljanje (glasovna pošta), sporočila SMS z lažnim predstavljanjem (SMS/besedilo), napade s socialnim inženiringom in se odzovejo nanje ter uporabijo najboljše varnostne prakse za Microsoft Teams.
  • Zanesljivo zaščitite podatke: zagotovite celovito zasebnost in nadzorovanost podatkov.
  • Izkoristite zmogljivosti varnostnih orodij generativne umetne inteligence: z orodji, kot je Microsoft Copilot za varnost, lahko razširite zmogljivosti in izboljšate stanje varnosti organizacije.
  • Omogočite večkratno preverjanje pristnosti: omogočite večkratno preverjanje pristnosti za vse uporabnike, zlasti za skrbniške funkcije, saj lahko s tem zmanjšate tveganje prevzema računa za več kot 99 odstotkov.

Obramba pred napadi

Microsoft ostaja korak pred konkurenco zahvaljujoč združitvi celovite varnosti z generativno umetno inteligenco

Microsoft zazna ogromne količine zlonamernega prometa – več kot 65 bilijonov signalov kibernetske varnosti na dan. Z umetno inteligenco lahko lažje analiziramo te informacije in zagotovimo najpomembnejše vpoglede za zaustavitev groženj. To inteligenco signalov uporabljamo tudi za izkoriščanje zmogljivosti generativne UI za namene zagotavljanja napredne zaščite pred grožnjami, varnosti podatkov in varnosti identitete, s čimer pomagamo strokovnjakom za varnost ujeti tisto, kar drugi spregledajo.

Microsoft uporablja več metod za lastno zaščito in zaščito strank pred kibernetskimi grožnjami, vključno z odkrivanjem groženj na podlagi umetne inteligence za zaznavanje sprememb v načinih uporabe virov ali prometa v omrežju; analizo vedenja za zaznavanje tveganih vpisov in neobičajnega vedenja; modeli strojnega učenja (ML) za zaznavanje tveganih vpisov in zlonamerne programske opreme; modeli Ničelnega zaupanja, kjer mora imeti vsaka zahteva za dostop v celoti preverjeno pristnost ter biti odobrena in šifrirana; ter preverjanjem ustreznosti stanja naprave, preden naprava lahko vzpostavi povezavo s poslovnim omrežjem.

Ker akterji groženj vedo, da Microsoft za svojo zaščito uporablja strogo večkratno preverjanje pristnosti (MFA) – za vse naše zaposlene je nastavljeno večkratno preverjanje pristnosti ali zaščita brez gesla – so se napadalci začeli posluževati socialnega inženiringa za namene ogrožanja naših zaposlenih.

Najpogostejše tarče so področja, ki vključujejo posredovanje pomembnih vsebin, kot so brezplačne preskusne različice ali promocijske cene storitev oziroma izdelkov. Na teh področjih kraja posameznih naročnin ni donosna za napadalce, zato poskušajo optimizirati in prilagoditi te napade, ne da bi jih odkrili.

Seveda za Microsoft in naše stranke gradimo modele umetne inteligence za zaznavanje teh napadov. Zaznavamo lažne študentske in šolske račune, lažna podjetja ali organizacije, ki so spremenili svoje firmografske podatke ali prikrili svojo pravo identiteto, da bi se izognili ukrepom, zaobšli nadzor ali pa prikrili pretekla kazniva dejanja, kot so obsodbe zaradi korupcije, poskusi kraje itd.

Z uporabo storitev GitHub Copilot, Microsoft Copilot za varnost in drugih funkcij klepeta v storitvi Copilot, ki so integrirane v našo notranjo inženirsko in operativno infrastrukturo, lahko preprečite dogodke, ki bi lahko vplivali na delovanje.

Rezultati ankete o tveganjih generativne UI: Zasebnost podatkov je glavna skrb, 42 %

Microsoft je za namene obravnavanja e-poštnih groženj izboljšal zmogljivosti pridobivanja sestave in signalov e-poštnih sporočil za ugotavljanje njihove morebitne zlonamernosti. Ker je umetna inteligenca na voljo akterjem groženj smo lahko priča porastu e-poštnih sporočil, napisanih brez kakršnih koli očitnih jezikovnih in slovničnih napak, ki pogosto nakazujejo na poskuse lažnega predstavljanja, zaradi česar te še toliko težje odkrijemo.

V boju proti socialnemu inženiringu, ki je edini vzvod, ki 100-odstotno temelji na človeških napakah, je potrebno stalno izobraževanje zaposlenih in akcije za ozaveščanje javnosti. Zgodovina nas je naučila, da učinkovite akcije za ozaveščanje javnosti pripomorejo k spremembi vedenja.

Microsoft predvideva, da bo umetna inteligenca povzročila razvoj taktik socialnega inženiringa in še bolj dovršenih napadov, vključno s sintetičnimi vsebinami in kloniranjem glasu, zlasti če bodo napadalci pridobili dostop do tehnologij umetne inteligence, ki delujejo brez odgovornih praks in vgrajenih varnostnih kontrolnikov.

Preprečevanje je ključno v boju proti vsem kibernetskim grožnjam, ne glede na to, ali so te tradicionalne oziroma temeljijo na umetni inteligenci.

Priporočila:

Uporabljajte kontrolnike za umetno inteligenco dobaviteljev in nenehno ocenjujte njihovo ustreznost: za vsako umetno inteligenco, ki jo uvedete v podjetju, poiščite ustrezne vgrajene funkcije dobaviteljev za prilagajanje dostopa do umetne inteligence za zaposlene in ekipe, ki uporabljajo tehnologijo, za spodbujanje varnega in skladnega uvajanja umetne inteligence. Povežite zainteresirane skupine na področju kibernetskega tveganja v organizaciji, da uskladite določene primere uporabe umetne inteligence in kontrolnike za dostop za zaposlene. Vodje na področju kibernetskega tveganja in strokovnjaki za varnost morajo redno preverjati ustreznost primerov uporabe in pravilnikov ter ugotavljati, ali jih je treba spremeniti zaradi razvoja ciljev in spoznanj.
Zaščitite se pred vrinjanjem pozivov:  uvedite strogo preverjanje vnosov in čiščenje za pozive, ki jih zagotovi uporabnik. Uporabite filtriranje na podlagi konteksta in izhodno kodiranje, da preprečite manipulacijo s pozivi. Redno posodabljajte in prilagajajte modele LLM za izboljšanje razumevanja zlonamernih vnosov in robnih primerov. Spremljajte in beležite interakcije modela LLM za zaznavanje in analiziranje morebitnih poskusov vrinjanja pozivov.
Zahtevajte preglednost v dobavni verigi umetne inteligence: z jasnimi in preglednimi praksami ocenite vsa področja, kjer lahko umetna inteligenca pride v stik s podatki vaše organizacije, tudi prek partnerjev in dobaviteljev tretjih oseb. Uporabite partnerske odnose in medfunkcijske ekipe za kibernetska tveganja, da raziščete spoznanja in odpravite morebitne nastale vrzeli. Ohranjanje trenutnega Ničelnega zaupanja in programov za upravljanje podatkov je v dobi umetne inteligence pomembnejše kot kdaj koli prej.
Ostanite osredotočeni na komunikacije: vodje na področju kibernetskega tveganja se morajo zavedati, da so zaposleni priča vplivu in prednostim umetne inteligence v zasebnem življenju, zato bodo želeli raziskati uporabo podobnih tehnologij v tudi hibridnih delovnih okoljih. Strokovnjaki za varnost in drugi vodje, ki upravljajo kibernetska tveganja, lahko proaktivno posredujejo in krepijo pravilnike svojih organizacij o uporabi in tveganjih umetne inteligence, vključno s tem, katera dodeljena orodja UI so odobrena za podjetja ter točke za dostop in informacije. S proaktivno komunikacijo lahko obveščate in opolnomočite zaposlene ter hkrati zmanjšate tveganje, da bi neupravljana umetna inteligenca prišli v stik s sredstvi IT v podjetju.

Več informacij o umetni inteligenci vam bo predstavila Homa Hayatafar, glavna vodja podatkov in uporabne znanosti, vodja analitike zaznavanja.

Tradicionalna orodja ne sledijo več grožnjam, ki jih predstavljajo kibernetski kriminalci. Vse večja hitrost, obseg in dovršenost nedavnih kibernetskih napadov zahtevajo nov pristop k varnosti. Zaradi manjka zaposlenih na področju kibernetske varnosti ter pogostejših in resnejših kibernetskih groženj je premostitev te vrzeli v strokovnem znanju nujna.

Korist umetne inteligence se lahko prevesi na stran strokovnjakov za varnost. Nedavna študija rešitve Microsoft Copilot za varnost (trenutno v fazi testiranja predogledne različice za stranke) je pokazala večjo hitrost in natančnost varnostnih analitikov, ne glede na njihovo raven strokovnega znanja, pri izvajanju običajnih opravil, kot so prepoznavanje skript, ki jih uporabljajo napadalci, ustvarjanje poročil o dogodkih in določanje ustreznih korakov za popravljanje.1

  • 44 odstotkov bolj natančno pri vseh opravilih za uporabnike programa Copilot za varnost1
  • 26 odstotkov hitrejše izvajanje vseh opravil za uporabnike programa Copilot za varnost1
  • 90 odstotkov jih je izjavilo, da bodo pri naslednjem opravljanju istega opravila želeli uporabljati sistem Copilot1
  1. [1]

    Metodologija:1 Podatki posnetka predstavljajo naključno upravljano preskusno različico (RCT), kjer je bilo testiranih 149 oseb, da bi izmerili vpliv uporabe rešitve Microsoft Copilot za varnost na storilnost. V tej raziskavi RCT smo naključno nekaterim analitikom zagotovili uporabo storitve Copilot, drugim pa ne, nato pa smo odšteli njihovo učinkovitost in mnenja, da bi pridobili rezultat učinkovitosti storitve Copilot, ločen od katere koli osnovne učinkovitosti. Testne osebe so razpolagale z osnovnim znanjem na področju IT-ja, vendar pa jim je bilo področje varnosti novo, zato smo lahko testirali, kako je storitev Copilot v pomoč analitikom »začetnikom«. Raziskavo Microsoft Copilot za varnost RCT je izvedel Microsoftov urad glavnega ekonomista, november 2023. Poleg tega, je Microsoft Entra ID zagotavljal anonimne podatke o dejavnostih groženj, kot so zlonamerni e-poštni računi, lažna e-poštna sporočila in gibanje napadalcev v omrežjih. Dodatni vpogledi izhajajo iz 65 bilijonov dnevnih varnostnih signalov, pridobljenih v Microsoftu, vključno z oblakom, končnimi točkami, inteligentnim robom, našo prakso za varnostno sanacijo kompromitacij ter ekipami za odkrivanje in odzivanje, telemetrijo Microsoftovih platform in storitev, vključno z Microsoft Defender, ter iz poročila o digitalni obrambi Microsoft 2023.

Sorodni članki

Ostanite korak pred akterji groženj v dobi umetne inteligence

Microsoft je v sodelovanju z OpenAI objavil raziskavo o novih grožnjah v dobi umetne inteligence, ki je osredotočena na prepoznavanje dejavnosti, povezanih z znanimi akterji groženj Forest Blizzard, Emerald Sleet, Crimson Sandstorm in drugimi. Zaznane dejavnosti vključujejo vrinjanje pozivov, poskuse zlorabe velikih jezikovnih modelov (LLM) in goljufije.

Profil izvedenca: Homa Hayatyfar

Homa Hayatyfar, glavna vodja podatkov in uporabne znanosti, predstavi uporabo modelov strojnega učenja za krepitev obrambe, kar je le eden od številnih načinov, kako umetna inteligenca spreminja podobo varnosti.

Varnost je tako dobra, kot je dobro obveščanje o grožnjah

Na voljo so nove okrepitve. John Lambert, vodja obveščanja o grožnjah, pojasni, kako umetna inteligenca krepi skupnost obveščanja o grožnjah.