Trace Id is missing
メイン コンテンツへスキップ

AI の時代においてサイバー脅威を乗り切り、防御を強化する

ブロックの上に立っている人々のグループ

Cyber Signals 第 6 号

毎日 25 億件以上のクラウドベースの AI による検出が、Microsoft のお客様を守っています。

現在、サイバーセキュリティの世界は大きな変革期を迎えています。人工知能 (AI) はこの変化の最前線にあり、脅威と機会の両方をもたらしています。AI は、組織がマシンのスピードでサイバー攻撃を撃退し、脅威検出、ハンティング、インシデント対応におけるイノベーションと効率化を促進する可能性を秘めている一方で、敵対者が AI を悪用する可能性もあります。AI を安全に設計、導入、使用することが、かつてないほど重要になっています。

Microsoft では、セキュリティ対策を強化し、新しい高度な保護を解き放ち、より優れたソフトウェアを構築するための、AI の可能性を追求しています。AI を活用することで、進化する脅威に適応し、異常を即座に検出し、リスクを無効化するために迅速に対応し、組織のニーズに合わせて防御策を調整することができます。

AI はまた、この業界最大の課題のひとつを克服する助けにもなります。世界中で約 400 万人のサイバーセキュリティの専門家が必要とされており、世界的なサイバーセキュリティの人材不足に直面する中、AI は人材のギャップを解消し、防衛担当者の生産性を向上させるためのきわめて重要なツールとなる可能性を秘めています。

Microsoft は既に、Copilot for Security があらゆる専門知識のレベルのセキュリティ アナリストを支援できることを、ある調査で確認しています。あらゆるタスクにおいて、参加者の精度は 44%、作業スピードは 26% 向上しました。

私たちは未来の安全を確保するために、AI に対する安全な準備とそのメリットの活用を両立させる必要があります。AI には人間の可能性を高め、最も深刻な課題を解決する力があるからです。

AI を利用した安全な未来には、ソフトウェア エンジニアリングの根本的な進歩が必要です。そのためには、あらゆるセキュリティ戦略の不可欠な要素として、AI ドリブンの脅威を理解し、それに対処する必要があります。そして、悪質なアクター達と戦うため、協力し合って、官民を超えた深いコラボレーションとパートナーシップを構築する必要があります。

この取り組みと Microsoft 自身の Secure Future Initiative の一環として、OpenAI と Microsoft は本日、攻撃テクニックにおける大規模言語モデル (LLM) の有用性をテストして探求しようとする脅威アクターの試みを詳しく説明した、新たなインテリジェンスを発表します。

この情報が、より安全な未来に向けて私たち全員が取り組む中で、業界を超えて役立つことを願っています。結局のところ、私たちは皆、防衛者なのですから。

Bret Arsenault、 
CVP、Chief Cybersecurity Advisor

Vasu Jakkal (Corporate Vide President of Microsoft Security Business) が、AI 時代のサイバー脅威、Microsoft がセキュリティ強化のために AI を活用する方法、防御強化のために組織ができることについて、主要な脅威インテリジェンスの専門家にインタビューした Cyber Signals のデジタル ブリーフィングをご覧ください。

AI テクノロジを探求する攻撃者たち

サイバー脅威の状況は、攻撃者がよりモチベーションを高め、より巧妙化され、より優れたリソースを持つようになったことで、ますます困難になっています。脅威アクターも防御担当者も同様に、LLM をはじめとする AI に注目しており、生産性を高め、目的や攻撃テクニックに適した利用しやすいプラットフォームを活用しようとしています。

急速に進化する脅威の状況を踏まえ、Microsoft は本日、高度持続的攻撃 (APT)、高度持続的マニピュレータ (APM)、サイバー犯罪シンジケートを含む脅威アクターに AI プラットフォームや API を使用されるリスクを軽減するための行動の指針となる、Microsoft の原則を発表します。これらの原則には、悪意のある脅威アクターによる AI の使用の特定とそれに対応する行動、他の AI サービス プロバイダーへの通知、他の利害関係者とのコラボレーション、透明性などが含まれます。

脅威アクターの動機や巧妙さはさまざまですが、攻撃を展開する際のタスクは共通しています。これには、潜在的な被害者の業種、場所、関係性の調査などの偵察、ソフトウェア スクリプトの改善やマルウェアの開発などのコーディング、人間と機械両方の言語の学習と使用の支援などが含まれます。

AI を活用しようとする国家

OpenAI とのコラボレーションにより、Microsoft は、Forest Blizzard、Emerald Sleet、Crimson Sandstorm、Charcoal Typhoon、Salmon Typhoon として追跡されている国家系敵対者が、LLM を使用してサイバー作戦を強化していることを示す脅威インテリジェンスを共有しています。

Microsoft の OpenAI との研究パートナーシップの目的は、ChatGPT のような AI テクノロジの安全で責任ある使用を保証し、潜在的な悪用からコミュニティを保護するために倫理的な最高の適用基準を支持することです。

メール通知: レビューと署名のための文書、2023 年 11 月 7 日
Forest Blizzard (STRONTIUM) は、ロシア軍参謀本部 (GRU) 26165 部隊と関係する非常に実効的なロシア軍インテリジェンス アクターであり、ロシア政府にとって戦術的および戦略的に関心のある被害者を標的としています。その活動は、防衛、輸送/物流、政府、エネルギー、NGO、情報技術など、さまざまな分野に及んでいます。
Emerald Sleet (Velvet Chollima) は Microsoft が発見した北朝鮮の脅威アクターで、評判の高い学術機関や NGO になりすまして被害者をおびき寄せ、北朝鮮に関連する外交政策に関する専門家のインサイトやコメントを返信させています。

Emerald Sleet の LLM の使用には、北朝鮮に関するシンクタンクや専門家の調査、スピア フィッシング キャンペーンで使用される可能性の高いコンテンツの作成が含まれていました。また Emerald Sleet は LLM を操作して、公開されている脆弱性を把握し、技術的な問題をトラブルシューティングし、さまざまな Web テクノロジの使用に役立てていました。

Crimson Sandstorm (CURIUM)  は、イスラム革命防衛隊 (IRGC) と関係があると評価されているイランの脅威アクターです。LLM の使用には、ソーシャル エンジニアリング、エラーのトラブルシューティングの支援、.NET の開発、侵害されたマシン上で攻撃者が検知を回避する方法などに関するサポートの要求などが含まれています。
Charcoal Typhoon (CHROMIUM)  は、主に台湾、タイ、モンゴル、マレーシア、フランス、ネパールのグループや、中国の政策に反対する世界中の個人を追跡することに重点を置いている中国系の脅威アクターです。最近の活動では、Charcoal Typhoon が LLM に関与し、特定のテクノロジ、プラットフォーム、脆弱性を理解するための調査への分析情報を得ていることが確認されており、これは予備的な情報収集段階であることを示しています。

中国が支援するもう 1 つのグループ、 Salmon Typhoon は、2023 年を通じて LLM を利用し、潜在的に機密性の高いトピック、知名度の高い人物、地域の地政学、米国の影響力、内政に関する情報を入手する有効性を評価しています。仮の話ではありますが、この LLM との関連性は、彼らのインテリジェンス収集ツールキットの幅を広げること、および新たなテクノロジの能力を評価するという実験的段階の両方を反映している可能性があります。

Microsoft と OpenAI の調査 では、注意深く監視している LLM を使った重大な攻撃は確認されていません。

Microsoft は、これらの脅威アクターに関連するアセットとアカウントを妨害し、Microsoft のモデルの周りのガードレールと安全のメカニズムを形成するための対策を講じてきました。

その他の AI の脅威の出現

AI を利用した詐欺も重大な懸念事項です。音声合成はそのひとつの例で、3 秒間の音声サンプルがあれば、誰の声にも聞こえるようにモデルをトレーニングすることができます。ボイスメールの挨拶のような無害なものでさえ、十分なサンプリングを得るために使用することができます。

私たちがお互いに交流を深め、ビジネスを行っている方法の多くは、人の声、顔、メール アドレス、文体の認識などの 身元確認に依存しています。

複雑な詐欺事件や、身元をあいまいにするその他の新たなソーシャル エンジニアリングの脅威に対処できるよう、悪意のあるアクターがどのように AI を利用して長年の身元確認システムを弱体化させているかを理解することがきわめて重要です。

AI はまた、企業が詐欺の試みを阻止するのにも利用できます。Microsoft はブラジルのある企業との契約を打ち切りましたが、Microsoft の AI システムは、その企業が Microsoft のエコシステムに再び参入するために自身を再構成しようとしていることを検知しました。

このグループは継続的に情報を難読化し、所有権のルーツを隠し、再参入を試みていましたが、Microsoft の AI 検出は、おおよそ 12 個のリスク シグナルを使用して、詐欺的な企業にフラグを立て、以前に認識された疑わしい行動と関連付けることで、その試みを阻止しました。

Microsoft は、人間が監視、訴えの評価、ポリシーや規制の解釈を行うことで、プライバシーとセキュリティを特徴とする 人間主導の責任ある AI  をお約束しています。

サイバーリスクについて従業員や一般ユーザーを教育する
  • 条件付きアクセス ポリシーを使用する:  これらのポリシーにより、セキュリティ態勢を強化するための明確で自己展開可能なガイダンスが提供され、リスク シグナル、ライセンス、使用状況に基づいてテナントが自動的に保護されます。条件付きアクセス ポリシーはカスタマイズ可能であり、変化するサイバー脅威の状況に適応します。
  • ソーシャル エンジニアリングの手口について従業員をトレーニングし、再教育する:  フィッシング メール、ビッシング (ボイスメール)、スミッシング (SMS/テキスト) などのソーシャル エンジニアリング攻撃を認識し、対処できるように、従業員と一般ユーザーを教育し、Microsoft Teams のセキュリティ ベスト プラクティスを適用します。
  • データを厳格に保護する:  データの機密性を確保し、エンドツーエンドで管理します。
  • 生成 AI セキュリティ ツールを活用する:  Microsoft Copilot for Security のようなツールを活用することで、機能を拡張し、組織のセキュリティ態勢を強化することができます。
  • 多要素認証の有効化:  すべてのユーザー、特に管理者機能に対して多要素認証を有効にすることで、アカウントの乗っ取りリスクを 99% 以上低減できます。

攻撃に対する防御

Microsoft は生成 AI を組み合わせた包括的なセキュリティで一歩先へ

Microsoft は、1 日あたり 65 兆を超える膨大な量の悪意のあるトラフィックを検出しています。AI を使用することで、この情報を分析し、脅威を阻止するために最も価値のある分析情報を明らかにする Microsoft の能力が高まっています。Microsoft はまた、このシグナル インテリジェンスを高度な脅威に対する保護、データ セキュリティ、ID セキュリティに対応した生成 AI に活用し、何か見逃されていないか、防御担当者が捕捉できるようにしています。

Microsoft は、自社と顧客をサイバー脅威から保護するためにいくつかの方法を使用しています。これには、ネットワーク上のリソースやトラフィックの使用状況の変化を特定する AI を搭載した脅威検出、危険なサインインや異常な動作を検出する行動分析、危険なサインインやマルウェアを検出する機械学習 (ML) モデル、すべてのアクセス要求が完全に認証、承認、暗号化されなければならないというゼロ トラスト モデル、デバイスが企業ネットワークに接続する前のデバイスの健全性検証などが含まれます。

脅威アクターは、Microsoft が多要素認証 (MFA) を厳格に使用して自社を保護していること (Microsoft の全従業員は MFA またはパスワードレス保護が設定されていること) を理解しているため、Microsoft は攻撃者がソーシャル エンジニアリングを多用して従業員を侵害していることを確認しています。

このようなホット スポットには、サービスや製品の無料トライアルやプロモーション価格など、何か価値のある情報が伝達される場所が含まれます。このような領域では、一度に 1 つのサブスクリプションを盗んだところで利益にならないため、攻撃者は検知されることなくこれらの攻撃を運用し、規模を拡大しようとします。

当然ながら、Microsoft は自身とお客様のために、こうした攻撃を検知する AI モデルを構築しています。Microsoft は、制裁の回避、統制の迂回、汚職の前科や窃盗未遂などの過去の犯罪行為の隠ぺいのための、学生や学校の偽のアカウントや、企業データを改ざんしたり身元を隠したりした偽の企業や組織を検出します。

GitHub Copilot、Microsoft Copilot for Security、その他のコパイロット チャット機能を社内のエンジニアリングおよびオペレーション インフラストラクチャに統合して使用することで、運用に影響を及ぼす可能性のあるインシデントを未然に防ぐことができます。

生成 AI のリスクに関する世論調査の結果: データ プライバシーに大きな懸念、42%

メールの脅威に対処するため、Microsoft は、メールの構成物以外のシグナルを取得し、それが悪意のあるものであるかどうかを理解する機能を向上させています。AI が脅威アクターの手に渡ったことで、完璧に書かれたメールが流入しています。フィッシングであると明らかにわかる言語や文法の誤りが改善され、フィッシングの試みが 検出されにくくなっています。

ソーシャル エンジニアリングに対抗するためには、継続的な従業員の教育と一般ユーザーへの啓蒙活動が必要です。100% がヒューマン エラーに起因しているからです。効果的な啓蒙活動が行動を変えるということは、歴史が教えてくれています。

Microsoft は、AI によってソーシャル エンジニアリングの手口が進化し、特に攻撃者が 責任あるプラクティスや組み込みのセキュリティ制御なしに AI テクノロジが動作していることを発見した場合など、ディープ フェイクやボイス クローニングなどの高度な攻撃を生み出すと予測しています。

従来のものであれ AI を利用したものであれ、すべてのサイバー脅威に対抗するには予防が重要です。

推奨事項:

ベンダーの AI 制御を適用し、その適合性を継続的に評価する:  企業に導入される AI については、そのテクノロジを使用する従業員やチームへの AI アクセスの範囲を制限するための各ベンダーの組み込み機能を確認して、安全かつコンプライアンスに準拠した AI 導入を促進します。組織全体のサイバーリスクの利害関係者を集め、定義された AI の従業員のユース ケースとアクセス制御について認識を一致させます。リスク担当のリーダーや CISO は、ユース ケースやポリシーが適切かどうか、あるいは目的や学習の進展に応じて変更する必要があるかどうかを定期的に判断する必要があります。
プロンプト インジェクションから保護する:  ユーザーが入力するプロンプトに対して、厳密な入力検証とサニタイズを実施します。コンテキストを考慮したフィルタリングと出力エンコーディングを使用して、プロンプトの操作を防止します。LLM を定期的に更新し、微調整して、悪意のある入力やエッジの事例の理解を深めます。LLM とのやり取りを監視してログに記録し、潜在的なプロンプト インジェクションの試みを検出して分析します。
AI のサプライ チェーン全体の透明性を義務付ける:  明確かつオープンなプラクティスを通じて、サードパーティのパートナーやサプライヤーを含め、AI が組織のデータに接触する可能性のあるすべての領域を評価します。パートナー リレーションシップや部門横断的なサイバーリスク チームを活用して、学習の結果を詳しく確認し、その結果生じたギャップを埋めます。最新のゼロ トラストとデータ ガバナンス プログラムを管理することは、AI 時代においてはこれまで以上に重要です。
コミュニケーションに集中する:  サイバーリスクを担当するリーダーは、従業員が私生活で AI のインパクトとメリットを目の当たりにしており、ハイブリッドな職場環境でも同様のテクノロジを適用したいと自然と考えるようになることを認識する必要があります。サイバーリスクを管理する CISO やその他のリーダーは、企業で承認されている指定 AI ツールや、アクセスや情報の連絡窓口など、AI の使用とリスクに関する組織の方針をプロアクティブに共有し、広めることができます。プロアクティブなコミュニケーションは、従業員に情報を提供し、権限を与える一方で、管理されていない AI を企業の IT 資産に接触させるリスクを低減するのに役立ちます。

 Homa Hayatafar (Principal Data and Applied Science Manager、Detection Analytics Manage) からの、AI に関するさらなるインサイトをご確認ください。

従来のツールでは、サイバー犯罪者がもたらす脅威には追いつけません。最近のサイバー攻撃のスピード、規模、巧妙さは増しており、セキュリティに対する新たなアプローチが求められています。さらに、サイバーセキュリティの人材不足と、サイバー脅威の頻度と深刻さが増していることから、このスキル ギャップを埋めることが急務となっています。

AI は、防御側に天秤を傾けることができます。Microsoft Copilot for Security (現在、カスタマー プレビュー テスト中) の最近の調査では、攻撃者が使用するスクリプトの特定、インシデント レポートの作成、適切な修復手順の特定といった一般的な作業において、専門知識のレベルにかかわらず、セキュリティ アナリストの速度と精度が向上していることが示されました。1

  • Copilot for Security のユーザーでは、すべてのタスクの精度が 44% 向上1
  • Copilot for Security のユーザーでは、すべてのタスクの速度が 26% 向上1
  • 90% が、次回同じ作業をするときには Copilot を使いたいと回答1
  1. [1]

    方法論:1  スナップショットのデータはランダム化比較試験 (RCT) であり、Microsoft Copilot for Security の使用による生産性への影響を測定するために 149 人を対象に試験を行いました。この RCT では、一部のアナリストに Copilot をランダムに与え、他のアナリストには与えず、そのアナリストのパフォーマンスと感情を差し引くことで、基本的な効果とは別に Copilot の効果を測定しました。被験者には基本的な IT スキルがあるが、セキュリティの入門者であったため、Copilot が "キャリアが浅い" アナリストにどのように役立つかを検証することができました。Microsoft Copilot for Security RCT は、Microsoft Office of the Chief Economist が 2023 年 11 月に実施しました。さらに、 Microsoft Entra ID から脅威アクティビティに関する匿名化データ (悪意あるメール アカウント、フィッシング メール、ネットワーク内での攻撃者の行動など) を取得しました。その他の分析情報は、クラウド、エンドポイント、インテリジェント エッジ、Microsoft の Compromise Security Recovery Practice and Detection and Response Teams、Microsoft Defender を含む Microsoft のプラットフォームやサービスからのテレメトリ、2023 年 Microsoft デジタル防衛レポートなど、Microsoft 全体で得られる 1 日 65 兆件のセキュリティ シグナルから得られたものです。

関連記事

AI 時代の脅威の先を行く

Microsoft は OpenAI と共同で、既知の脅威アクターである Forest Blizzard、Emerald Sleet、Crimson Sandstorm などに関連する確認された活動に焦点を当て、AI の時代における新たな脅威に関する研究を発表しています。確認された活動には、プロンプト インジェクション、大規模言語モデル (LLM) の悪用の試み、詐欺などが含まれます。

エキスパートの横顔: Homa Hayatyfar

プリンシパル データ & 応用科学担当マネージャーを務める Homa Hayatyfar が、AI によって様変わりする多くのセキュリティ手段の 1 つとして、機械学習モデルを使用した防御の強化について解説します。

セキュリティは脅威インテリジェンスと同等に優れている

強化に関する新しい情報が届きました。脅威インテリジェンスのリーダーを務める John Lambert が、AI によって脅威インテリジェンス コミュニティがいかに強化されるかを解説します。