Trace Id is missing

A kiberfenyegetések kezelése és a védelem megerősítése az AI korában

Blokkokon álló személyek csoportja

Cyber Signals, 6. szám

Minden nap több mint 2,5 milliárd felhőalapú, mesterséges intelligencia által segített észlelés szolgálja a Microsoft ügyfeleinek védelmét.

Napjainkban a kiberbiztonság világa jelentős átalakuláson megy keresztül. A mesterséges intelligencia vezető szerepet tölt be ebben az átalakulásban, egyszerre fenyegetést és lehetőséget is megtestesítve. Míg egyrészt lehetővé teheti a szervezetek számára, hogy gépi sebességgel állják útját a kibertámadásoknak, és elősegítheti az innovációt és a hatékonyság növelését a fenyegetések észlelése terén, addig az ellenségek felhasználhatják a mesterséges intelligenciát a cselekményeik részeként. Soha nem volt még fontosabb, hogy biztonságosan tervezzük meg, helyezzük üzembe és használjuk a mesterséges intelligenciát.

A Microsoftnál igyekszünk felderíteni a mesterséges intelligenciában rejlő lehetőségeket, hogy javíthassuk biztonsági intézkedéseinket, új és korszerű védelmi módszereket dolgozhassunk ki, és jobb szoftvereket készíthessünk. A mesterséges intelligencia segítségével alkalmazkodni tudunk a fejlődő fenyegetésekhez, azonnal észlelhetjük az anomáliákat, gyors reagálással semlegesíthetjük a kockázatokat, és az egyes szervezetek igényeire szabhatjuk a védelmet.

A mesterséges intelligencia abban is a segítségünkre lehet, hogy leküzdjük az iparág előtt álló másik jelentős kihívást. A kiberbiztonság terén mutatkozó globális szakemberhiánnyal szemben – világszerte körülbelül 4 millió kiberbiztonsági szakemberre lenne szükség – a mesterséges intelligencia lehet a döntő eszköz, amely lehetővé teheti a hatékonyabb védekezői munkát és ezáltal a szakemberhiány hatásainak mérséklését.

Egy tanulmány már megmutatta, hogy a Copilot a biztonságért hogyan segítheti a biztonsági elemzőket a szaktudásuk szintjétől függetlenül: a résztvevők az összes feladatot tekintve 44%-kal pontosabbak és 26%-kal gyorsabbak voltak.

Miközben a jövő biztonságán dolgozunk, ügyelnünk kell arra, hogy egyensúlyba hozzuk a mesterséges intelligenciára való biztonságos felkészülést és az előnyök kiaknázását, mert a mesterséges intelligencia alkalmas az emberi képességek kibontakoztatására és az előttünk álló legkomolyabb kihívások leküzdésére.

Ahhoz, hogy biztonságosabb legyen a jövőnk a mesterséges intelligenciával, alapvető előrelépés szükséges a szoftvertervezés és -fejlesztés terén. Bármilyen biztonsági stratégia kialakításához alapvető fontosságú, hogy megértsük a mesterséges intelligenciával támogatott fenyegetéseket, és hatékony védelmet építsünk ki ellenük. És a rosszindulatú szereplők elleni harchoz együtt kell munkálkodnunk azon, hogy mély együttműködést és partneri kapcsolatokat alakítsunk ki az állami és a privát szektor között.

Ennek az erőfeszítésnek és a saját Secure Future kezdeményezésünknek a részeként az OpenAI és a Microsoft ma olyan új hírszerzési információkat tesz közzé, amelyek részletesen ismertetik a fenyegető szereplők arra irányuló törekvéseit, hogy teszteljék és megvizsgálják a nagy nyelvi modellek (LLM-ek) támadási technikákban való hasznosságát.

Reméljük, hogy ezek az információk minden iparág számára hasznosak lesznek, hisz mind egy biztonságosabb jövőért dolgozunk. Mert végső soron mindannyian védekezők vagyunk.

Bret Arsenault, 
vállalati alelnök, vezető kiberbiztonsági tanácsadó

Tekintse meg a Cyber Signals digitális összefoglalóját, amelyben Vasu Jakkal, a Microsoft biztonsági üzletágának vállalati alelnöke az intelligens veszélyforrás-felderítés vezető szakértőivel beszélget arról, hogy milyen kiberfenyegetésekkel találkozunk a mesterséges intelligencia korában, hogyan használja a Microsoft a mesterséges intelligenciát a biztonság fokozására, és mit tehetnek a szervezetek a védelmük megerősítése érdekében.

A támadók az AI-alapú technológiákat vizsgálják

A kiberfenyegetések világa egyre nagyobb kihívást jelent, ahogy a támadók egyre motiváltabbá és kifinomultabbá válnak, és egyre több erőforrással rendelkeznek. A fenyegető szereplők és a védekezők egyaránt a mesterséges intelligencia felé kacsintgatnak – ideértve a nagy nyelvi modelleket (LLM) is –, hogy növelhessék a hatékonyságukat, és kihasználhassák azokat az elérhető platformokat, amelyek megfelelhetnek a célkitűzéseiknek és a támadási technikáiknak.

Tekintettel a gyorsan fejlődő fenyegetési környezetre, ma bejelentjük a Microsoft alapelveit, amelyek mentén lépéseket teszünk, hogy mérsékeljük a mesterséges intelligenciával támogatott platformok és API-k fenyegető szereplők – egyebek között folyamatos komplex veszélyforrások (APT-k), folyamatos komplex manipulátorok (APM-ek) és kiberbűnözői szindikátusok – általi használatából fakadó kockázatot. Ezen alapelvek közé tartozik a mesterséges intelligencia rosszindulatú fenyegető szereplők általi használatának azonosítása és az ellenintézkedések megtétele, más AI-szolgáltatók értesítése, az együttműködés más érdekelt felekkel és az átláthatóság.

Bár a fenyegető szereplők indítékai változatosak lehetnek, és a kifinomultságuk és eltérő, a támadások kibontakoztatásakor hasonló feladatokat kell elvégezniük. Ezek közé tartozik a felderítés, azaz a potenciális áldozatok iparágának, földrajzi elhelyezkedésének és kapcsolatainak vizsgálata, továbbá a kódolás, beleértve a szoftverszkriptek tökéletesítését és a kártevő szoftverek kifejlesztését, illetve a segítségnyújtás az emberi és gépi nyelvek megtanulásához és használatához.

A nemzetállamok megpróbálják kihasználni a mesterséges intelligenciát

Az OpenAI közreműködésével megosztunk olyan intelligens veszélyforrás-felderítési információkat, amelyek bemutatják, hogy államokhoz kötődő észlelt ellenségek – a Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon és Salmon Typhoon néven nyilvántartott szereplők – nagy nyelvi modelleket (LLM) használnak a kibertevékenységük fokozásához.

A Microsoft és az OpenAI kutatási együttműködésének célja annak biztosítása, hogy a mesterséges intelligenciára épülő technológiákat – például a ChatGPT-t – biztonságosan és felelősen használják, betartva az etikus alkalmazásra vonatkozó legmagasabb normákat, hogy így védjük a közösséget az esetleges visszaélésektől.

E-mail-értesítés: Felülvizsgálatra és aláírásra váró dokumentum 2023. november 7-én

A Forest Blizzard (STRONTIUM) egy kimagaslóan hatékony orosz katonai hírszerzési szereplő, amely az orosz fegyveres erők vezérkarának főigazgatóságához vagy a GRU 26165-ös egységéhez kapcsolódik, és az orosz kormányzat számára taktikai vagy stratégiai szempontból érdekes áldozatokat vett célba. A tevékenységei számos szektorra kiterjednek, beleértve a védelmi, szállítási/logisztikai, energetikai és informatikai iparágat, a kormányzatokat és a nem kormányzati szervezeteket (civil szervezeteket).

Az Emerald Sleet (Velvet Chollima) egy észak-koreai fenyegető szereplő, amelyről a Microsoft megállapította, hogy neves tudományos intézményeknek és civil szervezeteknek adja ki magát, hogy szakértői meglátásokkal és Észak-Korea külpolitikájával kapcsolatos kommentárokkal csábítsa válaszadásra az áldozatokat.

Az Emerald Sleet egyebek között arra használt nagy nyelvi modelleket, hogy vizsgálja Észak-Koreával foglalkozó kutatóintézetek és szakértők tevékenységét, valamint hogy olyan tartalmakat generáljon, amelyeket valószínűleg célzott adathalászati kampányokban használnak fel. Az Emerald Sleet emellett a nyilvánosan ismert sebezhetőségek megértéséhez, technikai problémák elhárításához és különféle webes technológiák használatával kapcsolatos segítségnyújtáshoz is alkalmazott nagy nyelvi modelleket.

A Crimson Sandstorm (CURIUM) egy iráni fenyegető szereplő, amely az értékelések szerint az Iszlám Forradalmi Gárdához (IRGC) kapcsolódik. A nagy nyelvi modellek használata a pszichológiai manipulációval kapcsolatos támogatási kérésekre, hibaelhárítással kapcsolatos segítségnyújtásra, .NET-fejlesztésre, valamint olyan módszerekre terjedt ki, amelyekkel egy támadó elkerülheti az észlelést, miközben egy feltört gépen tevékenykedik.

A Charcoal Typhoon (CHROMIUM) egy Kínához kötődő fenyegető szereplő, amely elsősorban a kínai politikát ellenző, Tajvanon, Thaiföldön, Mongóliában, Malajziában, Franciaországban és Nepálban működő csoportok, valamint világszerte élő magánszemélyek nyomon követésére összpontosít. A megfigyelések szerint a Charcoal Typhoon a közelmúltbeli műveletei során arra alkalmazott nagy nyelvi modelleket, hogy betekintést nyerjen különböző kutatásokba, és ezáltal megértsen bizonyos technológiákat, platformokat és sebezhetőségeket, mindez az előzetes információgyűjtési szakaszokra utal.

Salmon Typhoon, egy másik kínai hátterű csoport, a 2023-as év során felmérte, hogy mennyire hatékonyan tud nagy nyelvi modelleket alkalmazni potenciálisan bizalmas témakörökről, ismert személyekről, regionális geopolitikáról, az USA befolyásáról és belügyekről való információgyűjtésre. A nagy nyelvi modellek ilyen puhatolódzó jellegű használata utalhat egyrészt a hírszerzési információgyűjtési eszközkészletük kiszélesítésére, másrészt a fejlődő technológiák biztosította képességek felmérésének kísérleti fázisára is.

Az OpenAI-jal közösen végzett kutatásunk nem azonosított jelentős támadásokat azon nagy nyelvi modellek alkalmazásával, amelyeket szorosan figyelemmel kísérünk.

Intézkedéseket tettünk annak érdekében, hogy megszakítsuk a fenti fenyegető szereplőkhöz társított eszközök és fiókok működését, és megfelelően alakítsuk a modelljeinket védő óvintézkedéseket is biztonsági mechanizmusokat.

A mesterséges intelligenciára támaszkodó további fenyegetések is feltűnnek

A mesterséges intelligenciával támogatott csalás szintén kritikus problémát jelent. Jó példa erre a hangszintetizálás, amellyel egy három másodperces hangminta alapján egy modell betanítható tetszőleges személyként hangzó beszédre. Még egy olyan ártatlannak tűnő dolog, mint a hangpostája üdvözlő üzenete is felhasználható elégséges mintavételezésre.

Az egymással való kapcsolattartásunk és az üzleti élet során jelentős mértékben támaszkodunk az identitás-ellenőrzésre, például egy személy hangjának, arcának, e-mail-címének vagy írási stílusának felismerésére.

Kulcsfontosságú megértenünk, hogy a rosszindulatú szereplők hogyan alkalmazzák a mesterséges intelligenciát hosszú ideje bevált identitás-ellenőrző rendszerek működésének aláaknázására, mert csak így tudunk fellépni az összetett csalási esetek és egyéb, frissen megjelenő pszichológiai manipulációs fenyegetések ellen, amelyek elfedik az identitásokat.

A mesterséges intelligencia arra is képes, hogy segítse a cégeket a csalási kísérletek meghiúsításában. Bár a Microsoft megszakította az együttműködését egy Brazíliában működő céggel, mesterséges intelligenciával támogatott rendszereink azt észlelték, hogy a cég megpróbálta újjáalakítani magát, hogy újból bekerülhessen az ökoszisztémánkba.

A csoport folyamatosan igyekezett ködösíteni az adatait, elrejteni a tulajdonosi gyökereit, és megpróbált újból bekerülni, de mesterséges intelligencián alapuló észleléseink közel egy tucat kockázati jelzéssel hívták fel a figyelmet a csaló cégre, és társították azt korábban felismert gyanús viselkedéshez, így sikerült elhárítani a kísérleteit.

A Microsoft elkötelezett a felelős, ember által vezetett mesterséges intelligencia iránt, amely úgy nyújt adatvédelmet és biztonságot, hogy hús-vér emberek felügyelik, értékelik ki a fellebbezéseket, és értelmezik a szabályzatokat és a jogszabályokat.

Oktassa az alkalmazottait és a nyilvánosságot a kibertér kockázatairól:
  • Használjon feltételes hozzáférési szabályzatokat: Ezek a szabályzatok világos, önmagát üzembe helyező útmutatást nyújtanak a biztonsági állapot megerősítéséhez, hogy a bérlők automatikusan védelmet élvezzenek kockázati jelzések, licencelés és használat alapján. A feltételes hozzáférési szabályzatok testre szabhatók, és képesek alkalmazkodni a kiberfenyegetési környezet változásaihoz.
  • Újra és újra nyújtson képzést az alkalmazottaknak a pszichológiai manipulációs taktikákról: Oktassa az alkalmazottait és a nyilvánosságot, hogy felismerhessék az adathalász e-maileket, a telefonos adathalászatot (hangposta), az SMS-adathalászatot (SMS/szöveges üzenet), a pszichológiai manipulációs támadásokat, és reagálni tudjanak azokra, továbbá hogy alkalmazhassák a Microsoft Teamshez ajánlott biztonsági eljárásokat.
  • Szigorúan védje az adatokat: Gondoskodjon az adatok teljes körű védelméről és felügyeletéről.
  • Hasznosítsa a generatív AI-ra épülő biztonsági eszközöket: Az olyan eszközök, mint például a Microsoft Copilot a biztonságért, bővíthetik a képességeket, és javíthatják a szervezet biztonsági állapotát.
  • Engedélyezze a többtényezős hitelesítést: Az összes felhasználó esetében engedélyezze a többtényezős hitelesítést, különös tekintettel az adminisztrátori feladatokat ellátó munkatársakra, mert az több mint 99%-kal csökkenti a fiókok feletti irányítás átvételének kockázatát.

Támadások elleni védelem

A Microsoft a generatív mesterséges intelligenciával kombinált átfogó biztonsági intézkedésekkel továbbra is előnyben marad

A Microsoft hatalmas mennyiségű rosszindulatú adatforgalmat észlel: naponta több mint 65 billió kiberbiztonsági jelzést. A mesterséges intelligencia erősíti az arra irányuló képességünket, hogy mindezt az információt elemezzük, és felszínre hozzuk a legértékesebb megállapításokat, amelyek segítenek a fenyegetések megfékezésében. Ezt a jelátviteli hírszerzési információt a generatív AI-ba betáplálva arra is felhasználjuk, hogy komplex veszélyforrások elleni védelmet, adatbiztonságot és identitásbiztonságot alakítsunk ki, és segítsünk a védekezőknek elfogni olyan kísérleteket, amelyek elkerülték mások figyelmét.

A Microsoft számos módszerrel igyekszik megvédeni saját magát és az ügyfeleit a kiberfenyegetésektől, ezek közé tartozik a mesterséges intelligenciával támogatott fenyegetésészlelés, amely észreveszi az erőforrások vagy a hálózati forgalom használatának változásait, a viselkedéselemzés, amely észleli a kockázatos bejelentkezéseket és a szokatlan viselkedésmódokat, a gépi tanulási modellek, amelyek észlelik a kockázatos bejelentkezéseket és a kártevő szoftvereket, a Teljes felügyeletre épülő modellek, amelyek megkövetelik az összes hozzáférési kérelem teljes körű hitelesítését, engedélyezését és titkosítását, valamint az eszközállapot ellenőrzése, mielőtt egy eszköz engedélyt kap egy vállalati hálózathoz való csatlakozásra.

A fenyegető szereplők tisztában vannak azzal, hogy a Microsoft a többtényezős hitelesítés szigorú alkalmazásával védi magát – az összes alkalmazottunknál be van állítva a többtényezős hitelesítés vagy a jelszó nélküli védelem –, ezért azt látjuk, hogy a támadók inkább a pszichológiai manipuláció felé hajlanak az alkalmazottaink fiókjának feltörésére irányuló kísérleteikben.

Erre egyebek között olyan területeken kerül sor, ahol értéket képviselő dolgokat, például ingyenes próbaverziókat vagy promóciós díjszabású szolgáltatásokat vagy termékeket adnak át. Ezeken a területeken a támadók számára nem kifizetődő egyesével ellopni előfizetéseket, ezért megpróbálják működőképesebbé és szélesebb körűvé tenni a támadásaikat anélkül, hogy észrevennék őket.

Természetesen olyan AI-modelleket is készítünk, amelyek észlelik az ilyen támadásokat a Microsoft és az ügyfeleink védelme érdekében. Észleljük a hamis tanulókat és iskolai fiókokat, valamint a hamis cégeket vagy szervezeteket, amelyek szankciók elkerülése, szabályozások megkerülése, illetve múltbéli bűnügyi kihágások – például korrupciós ítéletek, lopási kísérletek stb. – elrejtése érdekében megváltoztatták a céges demográfiai adataikat, vagy elrejtették tényleges identitásukat.

A GitHub Copilot, a Microsoft Copilot a biztonságért és a belső mérnöki és üzemeltetési infrastruktúránkba integrált egyéb, másodpilótára épülő csevegési funkciók segítenek megelőzni az olyan incidenseket, amelyek hatással lehetnének a működésünkre.

A generatív AI kockázataival kapcsolatos szavazás eredményei: Az adatvédelem jelentős probléma, 42%

Az e-mailes fenyegetések megfékezése érdekében a Microsoft tökéletesíti azokat a képességeit, amelyekkel az e-mailek megfogalmazása mellett más jelek alapján is meg tudja állapítani, hogy az e-mailek rosszindulatúak-e. Mióta a mesterséges intelligencia a fenyegető szereplők kezébe került, egyre több tökéletesen megírt e-mail érkezik, ami jelentős előrelépés az adathalászati kísérleteket gyakran leleplező nyilvánvaló nyelvi és nyelvtani hibákhoz képest, és ez igencsak megnehezíti az adathalászati kísérletek észlelését.

Az alkalmazottak folyamatos oktatására és nyilvános figyelemfelkeltő kampányokra van szükség ahhoz, hogy felvehessük a harcot a pszichológiai manipuláció ellen, amely az egyetlen, 100%-ban emberi hibára támaszkodó támadási mód. A történelem megtanított bennünket arra, hogy hatékony nyilvános figyelemfelkeltő kampányokkal az emberi viselkedés megváltoztatható.

A Microsoft várakozásai szerint a mesterséges intelligencia hozzájárul majd a pszichológiai manipulációs taktikák fejlődéséhez, és lehetővé teszi a kifinomultabb – például deepfake-ekre és hangklónozásra épülő – támadásokat, különösképpen akkor, ha a támadók felelősségteljes eljárások és beépített biztonsági szabályozók nélkül működő AI-technológiákat találnak.

A megelőzés minden kiberfenyegetés esetében kulcsfontosságú, legyen szó akár hagyományos, akár mesterséges intelligenciával támogatott fenyegetésekről.

Javaslatok:

Alkalmazza a szállítók által biztosított AI-vezérlőket, és folyamatosan mérje fel a megfelelőségüket: A vállalatánál bevezetett bármilyen mesterséges intelligencia esetében keresse meg az adott szállító beépített funkcióit, hogy a technológia segítségével korlátozni tudja a mesterséges intelligencia alkalmazottakhoz és csapatokhoz való hozzáférését, így elősegítve a mesterséges intelligencia biztonságos és előírásoknak megfelelő adoptációját. Hozza össze a szervezetben lévő, a kiberveszélyek kockázatai terén érdekelt feleket, hogy megegyezzenek a mesterséges intelligenciát érintő definiált alkalmazotti felhasználási esetekben és hozzáférés-vezérlésben. A kockázatkezelési vezetőknek és az információbiztonsági vezetőknek rendszeresen fel kell mérniük, hogy a felhasználási esetek és a szabályzatok megfelelőek-e, vagy a célkitűzések és a tanulságok fejlődése nyomán változtatni kell rajtuk.
Védekezzen a parancsbeszúrás ellen:  Alkalmazzon szigorú beviteli ellenőrzést és tisztítást a felhasználók által megadott parancsok esetében. Környezetérzékeny szűréssel és a kimenet kódolásával akadályozza meg a parancsok manipulálását. Rendszeresen frissítse és finomhangolja a nagy nyelvi modelleket, hogy jobban megértsék a rosszindulatú bemeneti adatokat és a határeseteket. Figyelje és naplózza a nagy nyelvi modellekkel való interakciókat, hogy észlelhesse és elemezhesse a potenciális parancsbeszúrási kísérleteket.
Követelje meg az átláthatóságot a mesterséges intelligenciával kapcsolatos teljes ellátási láncban: Világos és nyitott eljárásokkal mérje fel az összes olyan területet, ahol a mesterséges intelligencia kapcsolatba kerülhet a szervezete adataival, beleértve a külső partnereket és szállítókat is. A partnerkapcsolatokra és több munkakörre kiterjedő kiberkockázati csapatokra támaszkodva vizsgálják meg a tanulságokat, és szüntessék meg a feltárt hiányosságokat. A mesterséges intelligencia korában minden eddiginél fontosabb az aktuális, Teljes felügyeletet célzó és adatgazdálkodási programok fenntartása.
Összpontosítson a kommunikációra: A kiberkockázatokkal foglalkozó vezetőknek fel kell ismerniük, hogy az alkalmazottak a személyes életükben szembesülnek a mesterséges intelligencia hatásaival és előnyeivel, és hogy természetesen meg akarják majd ismerni a hasonló technológiák hibrid munkavégzési környezetekben való alkalmazásának lehetőségeit. Az információbiztonsági vezetők és a kiberkockázatok kezelésével foglalkozó egyéb vezetők proaktív módon megoszthatják és erősíthetik a szervezetük mesterséges intelligencia használatára és kockázataira vonatkozó szabályzatait, egyebek között azt, hogy melyik kijelölt, mesterséges intelligenciával kapcsolatos eszközök vannak jóváhagyva vállalati használatra és hozzáférési vagy információs kapcsolódási pontokhoz. A proaktív kommunikáció segít abban, hogy az alkalmazottak tájékozottak legyenek, és megfelelő tudással rendelkezzenek, ugyanakkor csökkenti annak a kockázatát, hogy nem felügyelt mesterséges intelligenciát hozzanak kapcsolatba a vállalati informatikai erőforrásokkal.

A mesterséges intelligenciával kapcsolatos további megállapításokat olvashat Homa Hayatyfar cikkében, aki az Adatok és alkalmazott tudományok csoport vezetője, az észlelési analitika vezetője.

A hagyományos eszközök már nem tudnak lépést tartani a kiberbűnözők jelentette fenyegetésekkel. A közelmúltbeli kibertámadások fokozódó sebessége, kiterjedtsége és kifinomultsága a biztonságra vonatkozó új megközelítésmódot követel meg. Emellett, tekintettel a kiberbiztonsági munkaerőhiányra és a kiberfenyegetések fokozódó gyakoriságára és súlyosságára, sürgősen meg kell szüntetni az ilyen készségek terén mutatkozó hiányosságokat.

A mesterséges intelligencia a védekezők javára billentheti a mérleget. Egy, a Microsoft Copilottal a biztonságért (amely jelenleg ügyfelek általi előzetes tesztelésen esik át) kapcsolatban a közelmúltban készült tanulmány rámutatott arra, hogy a biztonsági elemzők a szaktudásuk szintjétől függetlenül nagyobb sebességet és pontosságot értek el az olyan gyakori feladatok terén, mint például a támadók által használt szkriptek azonosítása, incidensjelentések készítése, valamint a megfelelő szervizelési lépések meghatározása.1

  • 44%-kal nagyobb pontosság az összes feladatot tekintve a Copilotot a biztonságért felhasználóinál1
  • 26%-kal gyorsabb az összes feladatot tekintve a Copilotot a biztonságért felhasználóinál1
  • 90% szívesen használná a Copilotot ugyanazon feladat legközelebbi elvégzéséhez1
  1. [1]

    Módszertan:1 A pillanatkép adatai egy véletlenszerű ellenőrzött próba eredményeit mutatják, amelynek során 149 személyt teszteltünk, hogy megmérjük a Microsoft Copilot a biztonságért használatának termelékenységre gyakorolt hatását. Ezen a véletlenszerű ellenőrzött próbán egyes véletlenszerűen kiválasztott elemzőknek biztosítottuk a Copilotot, míg másoknak nem, majd kivontuk ez utóbbiak teljesítményét és véleményét, hogy megkapjuk a Copilot alaphatásoktól megtisztított nettó hatását. A tesztalanyok alapszintű informatikai készségekkel rendelkeztek, de újoncok voltak a biztonság területén, így tesztelhettük, hogyan segíti a Copilot a karrierjük kezdetén álló elemzőket. A Microsoft Copilot a biztonságért termékkel kapcsolatos véletlenszerű ellenőrzött próbát a Microsoft vezető közgazdászának irodája bonyolította le 2023 novemberében. Emellett a Microsoft Entra ID szolgáltatott anonimizált adatokat a fenyegető tevékenységekről, például a kártevő e-mail-fiókokról, az adathalász e-mailekről és a támadók hálózaton belüli mozgásáról. További háttér-információt biztosít az a napi 65 billió biztonsági jelzés, amelyet a Microsoft rendszereiből, így a felhőből, a végpontokról és az intelligens peremhálózatról nyerünk, továbbá az incidensek utáni helyreállító biztonsági eljárásokért felelős, illetve az észlelési és reagálási csapat, valamint a Microsoft platformjairól és szolgáltatásaiból – egyebek között a Microsoft Defenderből – származó telemetriai adatok és a 2023-as Microsoft Digitális védelmi jelentés.

Kapcsolódó cikkek

Lépéselőnyben maradni a fenyegető szereplőkkel szemben a mesterséges intelligencia korában

A Microsoft az OpenAI közreműködésével megosztja a mesterséges intelligencia korában megjelenő fenyegetésekkel kapcsolatos kutatási eredményeit, olyan ismert fenyegető szereplőkhöz társítható azonosított tevékenységekre összpontosítva, mint például a Forest Blizzard, az Emerald Sleet, a Crimson Sandstorm és mások. A megfigyelt tevékenységek közé tartoznak a parancsbeszúrások, a nagy nyelvi modellekkel kapcsolatos visszaélésekre irányuló kísérletek és a csalás.

Szakértői profil: Homa Hayatyfar

Homa Hayatyfar, az Adatok és alkalmazott tudományok csoport vezetője ismerteti, hogyan használhatók a gépi tanulási modellek a védelem megerősítésére, ami csupán egyike azoknak a módszereknek, amelyekkel a mesterséges intelligencia megváltoztatja a biztonság helyzetét.

A biztonság csak annyira jó, amennyire az intelligens veszélyforrás-felderítés

Újabb erősítés érkezett. John Lambert, az intelligens veszélyforrás-felderítés vezető szakértője elmagyarázza, hogyan erősíti a mesterséges intelligencia az intelligens veszélyforrás-felderítési közösséget.