Obvladovanje kibernetskih groženj in krepitev obrambe v dobi umetne inteligence
Svet kibernetske varnosti se v današnjem času močno spreminja. V samem ospredju teh sprememb je umetna inteligenca (UI), ki pa je hkrati grožnja in priložnost. Medtem ko umetna inteligenca organizacijam omogoča preprečevanje kibernetskih napadov s strojno hitrostjo ter spodbuja inovacije in učinkovitost pri odkrivanju groženj, lovu ter odzivanju na dogodke, pa lahko napadalci umetno inteligenco uporabijo kot del svojih izkoriščanj. Še nikoli ni bilo tako pomembno, da zagotovimo varno ustvarjanje uvajanje in uporabo umetne inteligence.
Pri Microsoftu raziskujemo možnosti umetne inteligence za izboljšanje naših varnostnih ukrepov, odkrivanje novih in naprednih zaščit ter ustvarjanje boljše programske opreme. Z umetno inteligenco se lahko prilagodimo razvijajočim se grožnjam, takoj zaznamo anomalije, se hitro odzovemo in nevtraliziramo tveganja ter prilagodimo obrambo potrebam organizacije.
Z umetno inteligenco lahko premagamo še enega od največjih izzivov v panogi. Zaradi globalnega manjka zaposlenih na področju kibernetske varnosti, ki po svetu zahteva približno 4 milijone strokovnjakov za kibernetsko varnost, lahko umetna inteligenca postane ključno orodje za zapolnitev manjka talentov in izboljšanje storilnosti strokovnjakov za varnost.
V eni od študij je razvidno, kako lahko varnostni analitiki izkoristijo zmogljivosti rešitve Copilot za varnost, ne glede na raven njihovega strokovnega znanja – pri vseh opravilih so bili udeleženci za 44 odstotkov natančnejši in 26 odstotkov hitrejši.
Pri zagotavljanju varnosti v prihodnosti moramo poskrbeti za usklajenost med pripravo na umetno inteligenco in izkoriščanjem njenih prednosti, saj lahko umetna inteligenca poveča človeški potencial in zagotovi rešitve za nekatere največje izzive.
Za zagotovitev varnejše prihodnosti z umetno inteligenco bo potreben temeljni napredek na področju inženiringa programske opreme. Razumeti bomo morali grožnje, ki jih povzroča umetna inteligenca, kot osnovno komponento vsake varnostne strategije. Skupaj moramo vzpostaviti tesno sodelovanje in partnerstva med javnimi in zasebnimi sektorji za boj proti akterjem groženj.
V okviru teh prizadevanj in lastne pobude Secure Future Initiative sta OpenAI in Microsoft danes objavila nove, podrobne podatke obveščanja glede poskusov akterjev groženj, da bi preskusili in raziskali uporabnost velikih jezikovnih modelov (LLM) na področju tehnik napadov.
Upamo, da bodo te informacije uporabne v različnih panogah, saj si vsi prizadevamo za varnejšo prihodnost. Kajti na koncu smo vsi strokovnjaki za varnost.
CVP, glavni svetovalec za kibernetsko varnost
Oglejte si digitalni pregled oddaje Cyber Signals, kjer se Vasu Jakkal, podpredsednica Microsoftove varnosti za podjetja, pogovarja s priznanimi strokovnjaki za obveščanje o kibernetskih grožnjah v dobi umetne inteligence, načinih, kako Microsoft uporablja umetno inteligenco za izboljšanje varnosti, in ukrepih, s katerimi lahko organizacije okrepijo obrambo.
Napadalci raziskujejo tehnologije umetne inteligence
Okolje kibernetskih groženj postaja čedalje bolj zapleteno, saj so napadalci bolj motivirani, uporabljajo dovršene tehnike in imajo na voljo več sredstev. Tako akterji groženj kot tudi strokovnjaki za varnost uporabljajo umetno inteligenco, vključno z modeli LLM, za izboljšanje storilnosti in izkoriščanje zmogljivosti dostopnih platform, ki bi lahko ustrezale njihovim ciljem in tehnikam napadov.
Zaradi hitro razvijajočega se okolja groženj danes objavljamo Microsoftova načela, ki so vodilo naših ukrepov za ublažitev tveganja akterjev groženj, vključno z naprednimi dolgotrajnimi grožnjami (APT), naprednimi dolgotrajnimi manipulatorji (APM) ter kibernetskimi kriminalnimi združbami, ki uporabljajo platforme UI in vmesnike API. Ta načela vključujejo prepoznavanje zlonamerne uporabe umetne inteligence s strani akterjev groženj in ustrezno ukrepanje, obveščanje drugih ponudnikov storitev umetne inteligence, sodelovanje z drugimi zainteresiranimi skupinami in preglednost.
Čeprav se motivi in spretnosti akterjev groženj razlikujejo, njihovi postopki izvajanja napadov zajemajo podobna opravila. Ta vključuje izvidništvo, kot je raziskovanje panog, lokacij in odnosov morebitnih žrtev, kodiranje, vključno z izboljšanjem programskih skript in razvojem zlonamerne programske opreme, ter pomoč pri učenju in uporabi človeških in strojnih jezikov.
V sodelovanju z OpenAI posredujemo podatke obveščanja o grožnjah, kjer so navedeni zaznani državi pridruženi napadalci – spremljani kot Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Tajfun in Salmon Tajfun – ki uporabljajo model LLM za razširitev kibernetskih postopkov.
Cilj Microsoftovega raziskovalnega partnerstva z OpenAI je zagotoviti varno in odgovorno uporabo tehnologij umetne inteligence, kot je ChatGPT, ter spoštovati najvišje standarde etične uporabe za zaščito skupnosti pred morebitnimi zlorabami.
Akter Emerald Sleet je uporabljal model LLM za raziskovanje možganskih trustov in strokovnjakov za Severno Korejo ter ustvarjal vsebine za morebitne napade s ciljanim lažnim predstavljanjem. Emerald Sleet je uporabljal modele LLM tudi za razumevanje javno znanih ranljivosti, odpravljanje tehničnih težav in pomoč pri uporabi različnih spletnih tehnologij.
Druga skupina, ki jo podpira Kitajska, Salmon Typhoon, je leta 2023 ocenjevala učinkovitost uporabe modelov LLM za pridobivanje informacij o morebitno občutljivih temah, pomembnih posameznikih, regionalni geopolitiki, vplivu ZDA in notranjih zadevah. Ta poskusna uporaba modelov LLM odraža tako razširitev kompleta orodij za zbiranje podatkov obveščanja kot tudi eksperimentalno fazo pri ocenjevanju zmogljivosti novih tehnologij.
Sprejeli smo ukrepe za onemogočanje sredstev in računov, povezanih s temi akterji groženj, ter ustvarili varovala in varnostne mehanizme za zaščito naših modelov.
Druga zaskrbljujoča težava so goljufije, ki uporabljajo umetno inteligenco. Primer tega je sinteza glasu, kjer lahko na podlagi trisekundnega glasovnega vzorca naučimo model, da zveni kot kdor koli. Za pridobitev zadostnega vzorca lahko uporabite celo nekaj tako osnovnega, kot je pozdrav v glasovni pošti.
Velik del naše medsebojne komunikacije in poslovanja temelji na preverjanju identitete, kot je prepoznavanje glasu, obraza, e-poštnega naslova ali sloga pisanja osebe.
Ključnega pomena je, da razumemo, kako zlonamerni akterji uporabljajo umetno inteligenco za oslabitev dolgotrajnih sistemov za preverjanje identitete, da se lahko spopademo z zapletenimi primeri goljufij in drugimi novimi grožnjami socialnega inženiringa, ki prikrivajo identitete.
Z umetno inteligenco lahko podjetja onemogočijo poskuse goljufije. Čeprav je Microsoft prekinil sodelovanje s podjetjem v Braziliji, so naši sistemi umetne inteligence zaznali, da je podjetje poskušalo znova vzpostaviti povezavo in vstopiti v naš ekosistem.
Skupina je nenehno poskušala prikriti svoje podatke in lastniške korene ter izvesti ponovni vstop, vendar so naša zaznavanja z UI na podlagi skoraj ducata signalov tveganja označila goljufivo podjetje z zastavico in ga povezala s predhodno prepoznanim sumljivim vedenjem ter tako preprečila njegove poskuse.
Microsoft se zavzema za odgovorno umetno inteligenco, ki jo upravlja človek in zagotavlja zasebnost ter varnost, kjer imajo ljudje glavno vlogo nadzornika, ocenjevalca pritožb ter tolmača pravilnikov in predpisov.
- Uporabljajte pravilnike o pogojnem dostopu: ti pravilniki zagotavljajo jasna, samodejno uvedena navodila za krepitev stanja varnosti, ki samodejno ščitijo najemnike na podlagi signalov tveganja, licenciranja in uporabe. Pravilnike o pogojnem dostopu lahko prilagodite glede na spreminjajoče se okolje kibernetskih groženj.
- Usposabljajte zaposlene o taktikah socialnega inženiringa in jim zagotovite najnovejše vpoglede: izobražujte zaposlene in javnost, da prepoznajo e-poštna sporočila z lažnim predstavljanjem, glasovno lažno predstavljanje (glasovna pošta), sporočila SMS z lažnim predstavljanjem (SMS/besedilo), napade s socialnim inženiringom in se odzovejo nanje ter uporabijo najboljše varnostne prakse za Microsoft Teams.
- Zanesljivo zaščitite podatke: zagotovite celovito zasebnost in nadzorovanost podatkov.
- Izkoristite zmogljivosti varnostnih orodij generativne umetne inteligence: z orodji, kot je Microsoft Copilot za varnost, lahko razširite zmogljivosti in izboljšate stanje varnosti organizacije.
- Omogočite večkratno preverjanje pristnosti: omogočite večkratno preverjanje pristnosti za vse uporabnike, zlasti za skrbniške funkcije, saj lahko s tem zmanjšate tveganje prevzema računa za več kot 99 odstotkov.
Obramba pred napadi
Microsoft zazna ogromne količine zlonamernega prometa – več kot 65 bilijonov signalov kibernetske varnosti na dan. Z umetno inteligenco lahko lažje analiziramo te informacije in zagotovimo najpomembnejše vpoglede za zaustavitev groženj. To inteligenco signalov uporabljamo tudi za izkoriščanje zmogljivosti generativne UI za namene zagotavljanja napredne zaščite pred grožnjami, varnosti podatkov in varnosti identitete, s čimer pomagamo strokovnjakom za varnost ujeti tisto, kar drugi spregledajo.
Microsoft uporablja več metod za lastno zaščito in zaščito strank pred kibernetskimi grožnjami, vključno z odkrivanjem groženj na podlagi umetne inteligence za zaznavanje sprememb v načinih uporabe virov ali prometa v omrežju; analizo vedenja za zaznavanje tveganih vpisov in neobičajnega vedenja; modeli strojnega učenja (ML) za zaznavanje tveganih vpisov in zlonamerne programske opreme; modeli Ničelnega zaupanja, kjer mora imeti vsaka zahteva za dostop v celoti preverjeno pristnost ter biti odobrena in šifrirana; ter preverjanjem ustreznosti stanja naprave, preden naprava lahko vzpostavi povezavo s poslovnim omrežjem.
Ker akterji groženj vedo, da Microsoft za svojo zaščito uporablja strogo večkratno preverjanje pristnosti (MFA) – za vse naše zaposlene je nastavljeno večkratno preverjanje pristnosti ali zaščita brez gesla – so se napadalci začeli posluževati socialnega inženiringa za namene ogrožanja naših zaposlenih.
Najpogostejše tarče so področja, ki vključujejo posredovanje pomembnih vsebin, kot so brezplačne preskusne različice ali promocijske cene storitev oziroma izdelkov. Na teh področjih kraja posameznih naročnin ni donosna za napadalce, zato poskušajo optimizirati in prilagoditi te napade, ne da bi jih odkrili.
Seveda za Microsoft in naše stranke gradimo modele umetne inteligence za zaznavanje teh napadov. Zaznavamo lažne študentske in šolske račune, lažna podjetja ali organizacije, ki so spremenili svoje firmografske podatke ali prikrili svojo pravo identiteto, da bi se izognili ukrepom, zaobšli nadzor ali pa prikrili pretekla kazniva dejanja, kot so obsodbe zaradi korupcije, poskusi kraje itd.
Z uporabo storitev GitHub Copilot, Microsoft Copilot za varnost in drugih funkcij klepeta v storitvi Copilot, ki so integrirane v našo notranjo inženirsko in operativno infrastrukturo, lahko preprečite dogodke, ki bi lahko vplivali na delovanje.
Microsoft je za namene obravnavanja e-poštnih groženj izboljšal zmogljivosti pridobivanja sestave in signalov e-poštnih sporočil za ugotavljanje njihove morebitne zlonamernosti. Ker je umetna inteligenca na voljo akterjem groženj smo lahko priča porastu e-poštnih sporočil, napisanih brez kakršnih koli očitnih jezikovnih in slovničnih napak, ki pogosto nakazujejo na poskuse lažnega predstavljanja, zaradi česar te še toliko težje odkrijemo.
V boju proti socialnemu inženiringu, ki je edini vzvod, ki 100-odstotno temelji na človeških napakah, je potrebno stalno izobraževanje zaposlenih in akcije za ozaveščanje javnosti. Zgodovina nas je naučila, da učinkovite akcije za ozaveščanje javnosti pripomorejo k spremembi vedenja.
Microsoft predvideva, da bo umetna inteligenca povzročila razvoj taktik socialnega inženiringa in še bolj dovršenih napadov, vključno s sintetičnimi vsebinami in kloniranjem glasu, zlasti če bodo napadalci pridobili dostop do tehnologij umetne inteligence, ki delujejo brez odgovornih praks in vgrajenih varnostnih kontrolnikov.
Preprečevanje je ključno v boju proti vsem kibernetskim grožnjam, ne glede na to, ali so te tradicionalne oziroma temeljijo na umetni inteligenci.
Priporočila:
Več informacij o umetni inteligenci vam bo predstavila Homa Hayatafar, glavna vodja podatkov in uporabne znanosti, vodja analitike zaznavanja.
Tradicionalna orodja ne sledijo več grožnjam, ki jih predstavljajo kibernetski kriminalci. Vse večja hitrost, obseg in dovršenost nedavnih kibernetskih napadov zahtevajo nov pristop k varnosti. Zaradi manjka zaposlenih na področju kibernetske varnosti ter pogostejših in resnejših kibernetskih groženj je premostitev te vrzeli v strokovnem znanju nujna.
Korist umetne inteligence se lahko prevesi na stran strokovnjakov za varnost. Nedavna študija rešitve Microsoft Copilot za varnost (trenutno v fazi testiranja predogledne različice za stranke) je pokazala večjo hitrost in natančnost varnostnih analitikov, ne glede na njihovo raven strokovnega znanja, pri izvajanju običajnih opravil, kot so prepoznavanje skript, ki jih uporabljajo napadalci, ustvarjanje poročil o dogodkih in določanje ustreznih korakov za popravljanje.1
- [1]
Metodologija:1 Podatki posnetka predstavljajo naključno upravljano preskusno različico (RCT), kjer je bilo testiranih 149 oseb, da bi izmerili vpliv uporabe rešitve Microsoft Copilot za varnost na storilnost. V tej raziskavi RCT smo naključno nekaterim analitikom zagotovili uporabo storitve Copilot, drugim pa ne, nato pa smo odšteli njihovo učinkovitost in mnenja, da bi pridobili rezultat učinkovitosti storitve Copilot, ločen od katere koli osnovne učinkovitosti. Testne osebe so razpolagale z osnovnim znanjem na področju IT-ja, vendar pa jim je bilo področje varnosti novo, zato smo lahko testirali, kako je storitev Copilot v pomoč analitikom »začetnikom«. Raziskavo Microsoft Copilot za varnost RCT je izvedel Microsoftov urad glavnega ekonomista, november 2023. Poleg tega, je Microsoft Entra ID zagotavljal anonimne podatke o dejavnostih groženj, kot so zlonamerni e-poštni računi, lažna e-poštna sporočila in gibanje napadalcev v omrežjih. Dodatni vpogledi izhajajo iz 65 bilijonov dnevnih varnostnih signalov, pridobljenih v Microsoftu, vključno z oblakom, končnimi točkami, inteligentnim robom, našo prakso za varnostno sanacijo kompromitacij ter ekipami za odkrivanje in odzivanje, telemetrijo Microsoftovih platform in storitev, vključno z Microsoft Defender, ter iz poročila o digitalni obrambi Microsoft 2023.