Trace Id is missing
Bỏ qua để tới nội dung chính
Người dùng nội bộ bảo mật

Đương đầu với các mối đe dọa trên mạng và củng cố khả năng phòng thủ trong kỷ nguyên AI

Một nhóm người đang đứng trên các khối đá

Cyber Signals Số 6

Mỗi ngày có hơn 2,5 tỷ lượt phát hiện có sự hỗ trợ của AI trên nền điện toán đám mây để bảo vệ khách hàng của Microsoft.

Ngày nay, thế giới an ninh mạng đang trải qua biến chuyển lớn. Trí tuệ nhân tạo (AI) đang tiên phong trong quá trình thay đổi này, đặt ra cả mối đe dọa và cơ hội. Mặc dù AI có khả năng hỗ trợ các tổ chức đánh bại các cuộc tấn công mạng ở tốc độ của máy, đồng thời thúc đẩy sự đổi mới và hiệu quả trong việc phát hiện mối đe dọa, tìm kiếm và ứng phó sự cố, nhưng kẻ tấn công có thể lợi dụng AI để khai thác. Việc thiết kế, triển khai và sử dụng AI một cách an toàn chưa bao giờ quan trọng hơn thế.

Tại Microsoft, chúng tôi đang khám phá tiềm năng của AI để nâng cao các biện pháp bảo mật, khai phá các biện pháp bảo vệ mới và nâng cao cũng như xây dựng phần mềm tốt hơn. Nhờ AI, chúng ta có khả năng thích ứng với các mối đe dọa ngày càng gia tăng, ngay lập tức phát hiện sự bất thường, ứng phó nhanh chóng để vô hiệu hóa rủi ro và điều chỉnh biện pháp phòng vệ cho phù hợp với nhu cầu của tổ chức.

AI cũng có thể giúp chúng tôi vượt qua một trong những thách thức lớn nhất trong ngành. Trước tình trạng thiếu hụt lực lượng lao động an ninh mạng toàn cầu, trong đó cần khoảng 4 triệu chuyên gia an ninh mạng trên toàn thế giới, AI có tiềm năng trở thành một công cụ quan trọng để thu hẹp khoảng trống năng lực và giúp phòng vệ hiệu quả hơn.

Một nghiên cứu về mức độ hỗ trợ của Copilot for Security đối với các nhà phân tích bảo mật không phân biệt trình độ chuyên môn - trong tất cả các nhiệm vụ - cho thấy mức độ chính xác tăng 44% và tốc độ nhanh hơn 26%.

Trong tương lai, chúng ta phải đảm bảo cân bằng giữa đảm bảo an toàn cho AI và tận dụng lợi ích của AI, bởi vì AI có khả năng nâng cao tiềm năng của con người và hỗ trợ giải quyết một số thách thức nghiêm trọng nhất.

Một tương lai an toàn hơn với AI sẽ đòi hỏi những tiến bộ cơ bản trong công nghệ phần mềm. AI sẽ đòi hỏi chúng ta phải am hiểu và chống lại các mối đe dọa dựa trên AI, đó là những cấu phần thiết yếu của bất kỳ chiến lược bảo mật nào. Đồng thời chúng ta phải phối hợp với nhau để xây dựng cơ chế cộng tác và hợp tác sâu sắc giữa các khu vực công và tư nhân nhằm chống lại những tác nhân xấu.

Với nỗ lực đó và Sáng kiến ​​tương lai an toàn của Microsoft, OpenAI và Microsoft hiện đang phát hành thông tin mới, trong đó nêu chi tiết các tác nhân đe dọa đang cố gắng thử nghiệm và khám phá các kỹ thuật tấn công thông qua các mô hình ngôn ngữ lớn (LLM).

Chúng tôi hy vọng thông tin này sẽ hữu ích trong các ngành vì tất cả chúng ta đều hướng tới một tương lai an toàn hơn. Bởi vì suy cho cùng, tất cả chúng ta đều là những người phòng vệ.

Bret Arsenault, 
Phó Chủ tịch Tập đoàn, Giám đốc Bảo mật Thông tin

Hãy xem bản tóm tắt số Cyber Signals trong đó Vasu Jakkal, Phó Chủ tịch Tập đoàn, Phụ trách Bảo mật thông tin Microsoft, phỏng vấn các chuyên gia về các mối đe dọa mạng trong thời đại AI, cách Microsoft đang sử dụng AI để tăng cường bảo mật và những gì tổ chức có thể làm để giúp tăng cường khả năng phòng thủ.

Kẻ tấn công đang khám phá công nghệ AI

Bối cảnh mối đe dọa mạng ngày càng trở nên thách thức do những kẻ tấn công ngày càng có động cơ hơn, tinh vi hơn và có nguồn lực tốt hơn. Những tác nhân đe dọa cũng như những người bảo vệ đều đang tìm đến AI, bao gồm cả LLM, để nâng cao năng suất và tận dụng các nền tảng có thể truy cập có thể phù hợp với mục tiêu và kỹ thuật tấn công của mình.

Trong bối cảnh mối đe dọa ngày càng phát triển nhanh chóng, hiện nay chúng tôi đang công bố các nguyên tắc hướng dẫn hành động của Microsoft nhằm giảm thiểu rủi ro từ các tác nhân đe dọa, bao gồm các mối đe dọa tấn công có chủ đích (APT), kẻ thao túng có chủ đích (APM) và các tổ chức tội phạm mạng, sử dụng nền tảng AI và API. Những nguyên tắc này bao gồm nhận diện và hành động chống lại việc sử dụng AI của tác nhân đe dọa độc hại, thông báo cho các nhà cung cấp dịch vụ AI khác, cộng tác với các bên liên quan khác và tính minh bạch.

Mặc dù động cơ và mức độ phức tạp của các tác nhân đe dọa khác nhau nhưng chúng có chung nhiệm vụ khi triển khai tấn công. Các nhiệm vụ này bao gồm do thám, chẳng hạn như nghiên cứu các ngành, địa điểm và mối quan hệ của nạn nhân tiềm năng; mã hóa, bao gồm cải thiện tập lệnh phần mềm và phát triển phần mềm độc hại; và hỗ trợ việc học và sử dụng cả ngôn ngữ của con người và máy móc.

Các quốc gia tận dụng AI

Cùng với OpenAI, chúng tôi chia sẻ thông tin về mối đe dọa cho thấy các đối thủ liên kết cấp quốc gia đã được phát hiện - được theo dõi là Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon và Salmon Typhoon - sử dụng LLM để tăng cường các hoạt động trên mạng.

Mục tiêu hợp tác nghiên cứu của Microsoft với OpenAI là nhằm đảm bảo sử dụng an toàn và có trách nhiệm các công nghệ AI như ChatGPT, duy trì các tiêu chuẩn cao nhất về ứng dụng có đạo đức để bảo vệ cộng đồng khỏi nguy cơ bị lạm dụng.

Thông báo qua email: Tài liệu cần được xem và ký vào ngày 07/11/2023
Forest Blizzard (STRONTIUM), một cơ quan tình báo quân sự hiệu quả cao của Nga có liên kết với Tổng cục Tổng tham mưu các lực lượng vũ trang Nga hay còn gọi là Đơn vị GRU 26165, đã nhắm mục tiêu vào các nạn nhân vì lợi ích chiến lược và chiến thuật của chính phủ Nga. Hoạt động của cơ quan này trải rộng trên nhiều lĩnh vực bao gồm quốc phòng, vận tải/giao nhận, chính phủ, năng lượng, tổ chức phi chính phủ và công nghệ thông tin
Emerald Sleet (Velvet Chollima) là một tác nhân đe dọa Triều Tiên mà Microsoft đã phát hiện ra họ mạo danh các tổ chức học thuật và tổ chức phi chính phủ có uy tín để dụ nạn nhân trả lời bằng những hiểu biết sâu sắc và bình luận của chuyên gia về các chính sách đối ngoại liên quan đến Triều Tiên.

Emerald Sleet sử dụng LLM để tìm hiểu các tổ chức và chuyên gia nghiên cứu về Triều Tiên, cũng như tạo nội dung có thể được sử dụng trong các chiến dịch lừa đảo trực tuyến. Emerald Sleet cũng tương tác với LLM để tìm hiểu các lỗ hổng đã được biết đến rộng rãi, khắc phục sự cố kỹ thuật và để được hỗ trợ sử dụng các công nghệ web khác nhau.

Crimson Sandstorm (CURIUM) là tác nhân đe dọa Iran được đánh giá là có liên hệ với Lực lượng Vệ binh Cách mạng Hồi giáo (IRGC). Họ sử dụng LLM để yêu cầu hỗ trợ về lừa đảo phi kỹ thuật, hỗ trợ khắc phục lỗi, phát triển .NET và các cách mà kẻ tấn công có thể trốn tránh bị phát hiện khi xâm nhập máy móc.
Charcoal Typhoon (CHROMIUM) là một tác nhân đe dọa liên kết với Trung Quốc, chủ yếu tập trung vào việc theo dõi các nhóm ở Đài Loan, Thái Lan, Mông Cổ, Malaysia, Pháp, Nepal và các cá nhân trên toàn cầu phản đối chính sách của Trung Quốc. Trong các hoạt động gần đây, Charcoal Typhoon sử dụng LLM để có được thông tin chuyên sâu về nghiên cứu để tìm hiểu các công nghệ, nền tảng và lỗ hổng cụ thể, cho thấy các giai đoạn thu thập thông tin sơ bộ.

Một nhóm khác được Trung Quốc hậu thuẫn là  Salmon Typhoon, đã đánh giá tính hiệu quả của việc sử dụng LLM trong suốt năm 2023 để lấy thông tin về các chủ đề nhạy cảm tiềm ẩn, các nhân vật cấp cao, địa chính trị khu vực, ảnh hưởng của Hoa Kỳ và các vấn đề nội bộ. Việc dự định sử dụng LLM có thể cho thấy cả hoạt động mở rộng bộ công cụ thu thập thông tin và giai đoạn thử nghiệm đánh giá khả năng của các công nghệ mới nổi.

Nghiên cứu của chúng tôi  cùng với OpenAI chưa nhận diện được các cuộc tấn công đáng kể thông qua việc sử dụng LLM mà chúng tôi theo dõi chặt chẽ.

Chúng tôi đã thực hiện các biện pháp để phá vỡ các tài sản và tài khoản có liên quan đến những tác nhân đe dọa này, đồng thời định hình các biện pháp bảo vệ và cơ chế an toàn xung quanh các mô hình của chúng tôi.

Các mối đe dọa AI khác mới nổi

Gian lận có sự hỗ trợ của AI là một mối quan ngại nghiêm trọng khác. Tổng hợp giọng nói là một ví dụ, trong đó mẫu giọng nói dài ba giây có thể huấn luyện một mô hình phát ra âm thanh giống bất kỳ ai. Ngay cả những điều vô hại như lời chào thư thoại của bạn cũng có thể được sử dụng để lấy mẫu đầy đủ.

Phần lớn cách chúng ta tương tác với nhau và thực hiện hoạt động kinh doanh đều dựa vào  xác minh danh tính, chẳng hạn như nhận dạng giọng nói, khuôn mặt, địa chỉ email hoặc phong cách viết của một người.

Điều quan trọng là chúng ta phải hiểu cách các tác nhân độc hại sử dụng AI để phá hoại các hệ thống xác minh danh tính lâu đời, nhờ đó chúng ta có thể giải quyết các trường hợp gian lận phức tạp và các mối đe dọa lừa đảo phi kỹ thuật mới nổi khác che giấu danh tính.

AI cũng có thể được sử dụng để giúp các công ty ngăn chặn các hoạt động gian lận. Mặc dù Microsoft đã ngừng hợp tác với một công ty ở Brazil nhưng hệ thống AI của chúng tôi đã phát hiện ra những nỗ lực của công ty này nhằm tự khôi phục để tái gia nhập hệ sinh thái của chúng tôi.

Nhóm liên tục cố gắng làm xáo trộn thông tin của mình, che giấu nguồn gốc quyền sở hữu và tái gia nhập, nhưng các phát hiện AI của chúng tôi đã sử dụng gần chục tín hiệu rủi ro để gắn cờ công ty lừa đảo và gán với hành vi đáng ngờ đã xác định trước đó, từ đó ngăn chặn các nỗ lực của công ty đó.

Microsoft cam kết cung cấp  AI do con người làm chủ  có trách nhiệm, có tính năng kiểm soát quyền riêng tư và bảo mật, trong đó con người giám sát, đánh giá kháng nghị cũng như diễn giải các chính sách và quy định.

Hướng dẫn nhân viên và công chúng về rủi ro mạng:
  • Sử dụng chính sách truy cập có điều kiện:  Các chính sách này đưa ra hướng dẫn rõ ràng, tự triển khai để tăng cường vị thế bảo mật nhằm tự động bảo vệ đối tượng thuê dựa trên các tín hiệu rủi ro, cấp phép và mức sử dụng. Chính sách truy nhập có điều kiện có thể tùy chỉnh và sẽ thích ứng với bối cảnh mối đe dọa mạng đang thay đổi.
  • Đào tạo và tái đào tạo nhân viên về các chiến thuật lừa đảo phi kỹ thuật:  Hướng dẫn nhân viên và công chúng cách nhận biết và phản ứng với các email lừa đảo, lừa đảo qua điện thoại (thư thoại), lừa đảo qua tin nhắn, các cuộc tấn công lừa đảo phi kỹ thuật (SMS/văn bản) và áp dụng các thông lệ bảo mật tốt nhất cho Microsoft Teams.
  • Bảo vệ dữ liệu một cách nghiêm ngặt: Đảm bảo dữ liệu luôn ở chế độ riêng tư và được kiểm soát từ đầu đến cuối.
  • Tận dụng các công cụ bảo mật AI tạo sinh: Các công cụ như Microsoft Copilot for Security có thể mở rộng khả năng và nâng cao vị thế bảo mật của tổ chức.
  • Bật xác thực đa yếu tố: Bật xác thực đa yếu tố cho tất cả người dùng, đặc biệt đối với các chức năng của quản trị viên, vì nó giúp giảm hơn 99% nguy cơ chiếm đoạt tài khoản.

Bảo vệ chống lại các cuộc tấn công

Microsoft đón đầu nhờ công nghệ bảo mật toàn diện kết hợp với AI tạo sinh

Microsoft phát hiện một lượng lớn lưu lượng truy cập độc hại -hơn 65 nghìn tỷ tín hiệu an ninh mạng mỗi ngày. AI đang nâng cao khả năng phân tích thông tin này và đảm bảo rằng những thông tin chuyên sâu giá trị nhất sẽ được hiển thị để giúp ngăn chặn các mối đe dọa. Chúng tôi cũng sử dụng thông tin tín hiệu này để hỗ trợ AI tạo sinh phục vụ chống mối đe dọa nâng cao, bảo mật dữ liệu và bảo mật danh tính nhằm giúp những người bảo vệ phát hiện những điều người khác bỏ qua.

Microsoft sử dụng một số phương pháp để bảo vệ chính mình và khách hàng khỏi các mối đe dọa trên mạng, bao gồm tính năng phát hiện mối đe dọa có sự hỗ trợ của AI để phát hiện những thay đổi trong cách sử dụng tài nguyên hoặc lưu lượng truy cập trên mạng; phân tích hành vi để phát hiện các lần đăng nhập rủi ro và hành vi bất thường; mô hình học máy (ML) để phát hiện các lần đăng nhập rủi ro và phần mềm độc hại; mô hình Zero Trust trong đó mọi yêu cầu truy cập phải được xác thực, ủy quyền và mã hóa đầy đủ; và xác minh tình trạng thiết bị trước khi thiết bị có thể kết nối với mạng công ty.

Bởi vì các tác nhân đe dọa hiểu rằng Microsoft sử dụng xác thực đa yếu tố (MFA) một cách nghiêm ngặt để tự bảo vệ mình -tất cả nhân viên của chúng tôi đều được thiết lập MFA hoặc bảo vệ không cần mật khẩu - chúng tôi đã thấy những kẻ tấn công sử dụng lừa đảo phi kỹ thuật nhằm cố gắng xâm phạm nhân viên của chúng tôi.

Điểm nóng của vấn đề này bao gồm các lĩnh vực truyền tải giá trị, chẳng hạn như bản dùng thử miễn phí hoặc khuyến mại giá dịch vụ hoặc sản phẩm. Ở những lĩnh vực này, kẻ tấn công đánh cắp từng gói đăng ký một lần sẽ không mang lại lợi nhuận, vì vậy chúng cố gắng vận hành và mở rộng quy mô các cuộc tấn công đó mà không bị phát hiện.

Đương nhiên, chúng tôi xây dựng các mô hình AI để phát hiện các cuộc tấn công này cho Microsoft và khách hàng của Microsoft. Chúng tôi phát hiện các sinh viên và tài khoản trường học giả mạo, các công ty hoặc tổ chức giả mạo đã thay đổi dữ liệu theo đặc điểm doanh nghiệp hoặc che giấu danh tính thực sự để trốn tránh các biện pháp trừng phạt, né tránh kiểm soát hoặc che giấu các vi phạm hình sự trong quá khứ như tội tham nhũng, trộm cắp, v.v.

Việc sử dụng GitHub Copilot, Microsoft Copilot for Security và các tính năng trò chuyện của copilot được tích hợp vào cơ sở hạ tầng vận hành và kỹ thuật nội bộ của chúng tôi giúp ngăn ngừa các sự cố có thể ảnh hưởng đến hoạt động.

Kết quả thăm dò ý kiến về rủi ro AI tạo sinh: Quan ngại lớn về Quyền riêng tư dữ liệu, 42%

Để giải quyết các mối đe dọa từ email, Microsoft đang cải thiện khả năng thu thập các tín hiệu bên cạnh thành phần của email để tìm hiểu xem email đó có độc hại hay không. Khi tác nhân đe dọa nắm trong tay AI, đã có rất nhiều email được viết hoàn hảo nhằm cải thiện ngôn ngữ rõ ràng và các lỗi ngữ pháp thường cho thấy các nỗ lực lừa đảo qua mạng, khiến các nỗ lực lừa đảo qua mạng khó bị  phát hiện hơn.

Cần tiếp tục đào tạo nhân viên và thực hiện các chiến dịch nâng cao nhận thức cộng đồng để giúp chống lại lừa đảo phi kỹ thuật, vốn phụ thuộc 100% vào lỗi của con người. Lịch sử cho thấy các chiến dịch nâng cao nhận thức cộng đồng hiệu quả có tác dụng thay đổi hành vi.

Microsoft dự đoán rằng AI sẽ phát triển các chiến thuật lừa đảo phi kỹ thuật, tạo ra các cuộc tấn công tinh vi hơn bao gồm cả deepfake và nhân bản giọng nói, đặc biệt nếu những kẻ tấn công nhận thấy công nghệ AI hoạt động mà không có các biện pháp sử dụng có trách nhiệm và các biện pháp kiểm soát bảo mật tích hợp sẵn.

Phòng ngừa là chìa khóa để chống lại tất cả các mối đe dọa trên mạng, dù là truyền thống hay có sự hỗ trợ của AI.

Đề xuất:

Áp dụng và liên tục đánh giá mức độ phù hợp của các biện pháp kiểm soát AI của nhà cung cấp: Đối với bất kỳ AI nào được đưa vào doanh nghiệp của bạn, hãy tìm các tính năng tích hợp sẵn của nhà cung cấp tương ứng để mở rộng phạm vi truy cập AI cho nhân viên và các nhóm sử dụng công nghệ này nhằm thúc đẩy việc áp dụng AI một cách an toàn và tuân thủ. Tập hợp các bên liên quan về rủi ro mạng trong toàn tổ chức để thống nhất các trường hợp sử dụng AI của nhân viên và các biện pháp kiểm soát truy cập. Các lãnh đạo rủi ro và CISO nên thường xuyên xác định xem các trường hợp sử dụng và chính sách có phù hợp hay không hoặc liệu chúng có phải thay đổi khi các mục tiêu và kiến thức thay đổi hay không.
Bảo vệ trước nguy cơ tiêm thông tin độc hại (prompt injections):  Triển khai quá trình xác thực và làm sạch thông tin đầu vào nghiêm ngặt đối với thông tin do người dùng cung cấp. Sử dụng tính năng lọc theo ngữ cảnh và mã hóa đầu ra để ngăn chặn thao túng thông tin. Thường xuyên cập nhật và tinh chỉnh LLM để nâng cao hiểu biết về các thông tin đầu vào độc hại và các trường hợp nguy hiểm. Theo dõi và ghi nhật ký các tương tác LLM để phát hiện và phân tích các hoạt động tiêm thông tin độc hại tiềm ẩn.
Yêu cầu tính minh bạch trong chuỗi cung ứng AI:  Thông qua các hoạt động rõ ràng và cởi mở, hãy đánh giá tất cả các lĩnh vực mà AI có thể tiếp xúc với dữ liệu của tổ chức bạn, bao gồm cả thông qua các đối tác và nhà cung cấp bên thứ ba. Sử dụng các mối quan hệ đối tác và các nhóm rủi ro mạng liên chức năng để tìm hiểu kiến thức bài học kinh nghiệm và thu hẹp mọi khoảng trống phát sinh. Điều quan trọng hơn bao giờ hết trong kỷ nguyên AI là duy trì các chương trình quản trị dữ liệu và Zero Trust hiện tại.
Luôn tập trung vào truyền thông: Các lãnh đạo rủi ro mạng phải nhận biết rằng nhân viên đang chứng kiến ​​tác động và lợi ích của AI trong cuộc sống cá nhân và đương nhiên sẽ muốn khám phá áp dụng các công nghệ tương tự trên các môi trường làm việc kết hợp. CISO và các lãnh đạo khác quản lý rủi ro mạng có thể chủ động chia sẻ và mở rộng các chính sách của tổ chức về việc sử dụng và rủi ro của AI, bao gồm cả những công cụ AI được chỉ định nào được phê duyệt cho doanh nghiệp và các đầu mối liên hệ để cấp quyền truy cập và thông tin. Truyền thông chủ động giúp nhân viên luôn được cập nhật thông tin và hỗ trợ, đồng thời giảm nguy cơ khiến AI không được quản lý tiếp xúc với tài sản CNTT của doanh nghiệp.

Các công cụ truyền thống không còn theo kịp các mối đe dọa do tội phạm mạng gây ra. Tốc độ, quy mô và mức độ phức tạp ngày càng tăng của các cuộc tấn công mạng gần đây đòi hỏi cần có phương pháp tiếp cận mới về bảo mật. Ngoài ra, do sự thiếu hụt lực lượng lao động an ninh mạng và các mối đe dọa mạng ngày càng gia tăng về tần suất và mức độ nghiêm trọng, việc thu hẹp khoảng trống kỹ năng này là một nhu cầu cấp thiết.

AI có thể quyết định cách giải quyết vấn đề cho đội ngũ phòng vệ. Một nghiên cứu gần đây của Microsoft Copilot for Security (hiện đang trong giai đoạn thử nghiệm) cho thấy tốc độ và độ chính xác của nhà phân tích bảo mật đã tăng lên, không phân biệt trình độ chuyên môn, trong các tác vụ phổ biến như xác định tập lệnh mà kẻ tấn công sử dụng, tạo báo cáo sự cố và xác định các bước khắc phục thích hợp.1

  • Hỗ trợ người dùng Copilot for Security tăng độ chính xác hơn 44% trong tất cả tác vụ1
  • Hỗ trợ người dùng Copilot for Security tăng tốc độ nhanh hơn 26% trong tất cả tác vụ1
  • 90% người dùng cho biết họ muốn sử dụng Copilot vào lần tới khi thực hiện cùng một tác vụ1
  1. [1]

    Phương pháp:1  Dữ liệu báo cáo hiện trạng thể hiện một thử nghiệm ngẫu nhiên có kiểm soát (RCT), trong đó chúng tôi đã thử nghiệm 149 người để đo lường tác động năng suất từ ​​việc sử dụng Microsoft Copilot for Security. Trong RCT này, chúng tôi ngẫu nhiên cung cấp Copilot cho một số nhà phân tích và không cung cấp cho một nhóm khác, sau đó trừ đi hiệu suất và cảm tính của họ để có được hiệu ứng của Copilot, tách biệt với mọi hiệu ứng cơ bản. Đối tượng thử nghiệm có kỹ năng CNTT cơ bản nhưng lại là người mới làm quen về bảo mật, vì vậy chúng tôi có thể kiểm tra mức độ hỗ trợ của Copilot đối với các nhà phân tích “mới vào nghề”. Thử nghiệm RCT Microsoft Copilot for Security đã được thực hiện bởi Văn phòng Chuyên gia Kinh tế Hàng đầu của Microsoft vào tháng 11 năm 2023. Ngoài ra, Microsoft Entra ID đã cung cấp dữ liệu ẩn danh về hoạt động của mối đe dọa như tài khoản email độc hại, email lừa đảo qua mạng và chuyển động của kẻ tấn công trong mạng. Các thông tin chuyên sâu bổ sung đến từ 65 nghìn tỷ tín hiệu bảo mật hàng ngày thu thập được trên Microsoft, bao gồm nền tảng điện toán đám mây, điểm cuối, biên dữ liệu thông minh, Nhóm Thực hành Khôi phục Bảo mật sau Sự cố Xâm phạm và Nhóm Phát hiện và Ứng phó, dữ liệu đo từ xa từ các nền tảng và dịch vụ của Microsoft bao gồm Microsoft Defender và Báo cáo Phòng vệ số Microsoft năm 2023.

Bài viết liên quan

Đón đầu các tác nhân đe dọa trong thời đại AI

Microsoft phối hợp với OpenAI đang phát hành nghiên cứu về các mối đe doạ mới nổi trong thời đại AI, tập trung vào nhận diện hoạt động gắn liền với các tác nhân đe dọa đã xác định như Forest Blizzard, Emerald Sleet, Crimson Sandstorm, v.v.. Hoạt động được theo dõi gồm có tiêm thông tin độc hại (prompt-injections), cố gắng lạm dụng mô hình ngôn ngữ lớn (LLM) và gian lận.

Hồ sơ chuyên gia: Homa Hayatyfar

Quản lý dữ liệu và khoa học ứng dụng Homa Hayatyfar mô tả việc sử dụng mô hình học máy để tăng cường phòng vệ, chỉ là một trong nhiều cách AI đang thay đổi hoạt động bảo mật.

Thông tin về mối đe dọa bạn có sẽ quyết định khả năng bảo mật của bạn

Nhiều biện pháp tăng cường đã xuất hiện. John Lambert, Lãnh đạo thông tin về mối đe dọa giải thích cách AI hỗ trợ nâng cao cộng đồng thông tin về mối đe dọa.