Trace Id is missing

Como navegar pelas ameaças cibernéticas e fortalecer as defesas na era da IA

Grupo de pessoas em pé sobre blocos

Cyber Signals Edição 6

Todos os dias, mais de 2,5 bilhões de detecções baseadas em nuvem e orientadas por IA protegem os clientes da Microsoft.

Atualmente, o mundo da segurança cibernética está passando por uma enorme transformação. A IA (Inteligência artificial) está na vanguarda dessa mudança, representando tanto uma ameaça quanto uma oportunidade. Embora a IA tenha o potencial de capacitar as organizações para derrotar ataques cibernéticos na velocidade da máquina e impulsionar a inovação e a eficiência na detecção de ameaças, caça e resposta a incidentes, os adversários podem usar a IA como parte de suas explorações. Nunca foi tão importante para nós projetar, implementar e usar a IA com segurança.

Na Microsoft, estamos explorando o potencial da IA para aprimorar nossas medidas de segurança, desbloquear proteções novas e avançadas e criar softwares melhores. Com a IA, temos o poder de nos adaptar às ameaças em evolução, detectar anomalias instantaneamente, responder rapidamente para neutralizar os riscos e adaptar as defesas às necessidades de uma organização.

A IA também pode nos ajudar a superar outro dos maiores desafios do setor. Diante da escassez global de mão de obra de segurança cibernética, com cerca de 4 milhões de profissionais de segurança cibernética necessários em todo o mundo, a IA tem o potencial de ser uma ferramenta essencial para fechar a lacuna de talentos e ajudar os defensores a serem mais produtivos.

Já vimos em um estudo  como o Copilot para Segurança pode ajudar os analistas de segurança, independentemente de seu nível de especialização, em todas as tarefas, os participantes foram 44% mais precisos e 26% mais rápidos.

Ao buscarmos garantir o futuro, devemos assegurar o equilíbrio entre a preparação segura para a IA e o aproveitamento de seus benefícios, pois a IA tem o poder de elevar o potencial humano e resolver alguns de nossos desafios mais sérios.

Um futuro mais seguro com a IA exigirá avanços fundamentais na engenharia de software. Isso exigirá entender e combater as ameaças orientadas por IA como componentes essenciais de qualquer estratégia de segurança. E precisamos trabalhar juntos para criar uma colaboração e parcerias profundas entre os setores público e privado para combater os atores mal-intencionados.

Como parte desse esforço e de nossa própria Iniciativa Futuro Seguro, a OpenAI e a Microsoft estão publicando hoje uma nova inteligência que detalha as tentativas dos atores de ameaças de testar e explorar a utilidade de LLMs (modelos de linguagem ampla) em técnicas de ataque.

Esperamos que essas informações sejam úteis para todos os setores à medida que trabalhamos em direção a um futuro mais seguro. Porque, no final, somos todos defensores.

Bret Arsenault, 
CVP, Consultor-chefe de Segurança Cibernética

Assista ao resumo digital da Cyber Signals, no qual Vasu Jakkal, vice-presidente corporativo da Microsoft Security Business, entrevista os principais especialistas em inteligência contra ameaças sobre ataques cibernéticos na era da IA, como a Microsoft está usando a IA para aumentar a segurança e o que as organizações podem fazer para ajudar a fortalecer as defesas.

Atacantes exploram tecnologias de IA

O cenário de ameaças cibernéticas tem se tornado cada vez mais desafiador, com atacantes cada vez mais motivados, sofisticados e com mais recursos. Tanto os atores de ameaças quanto os defensores estão buscando a IA, inclusive os LLMs, para aumentar sua produtividade e tirar proveito de plataformas acessíveis que podem se adequar a seus objetivos e técnicas de ataque.

Dado o cenário de ameaças em rápida evolução, hoje estamos anunciando os princípios da Microsoft que orientam nossas ações para mitigar o risco de atores de ameaças, incluindo APTs (ameaças persistentes avançadas), APMs (manipuladores persistentes avançados) e sindicatos cibercriminosos, usando plataformas de IA e APIs. Esses princípios incluem identificação e ação contra o uso de IA por atores de ameaças mal-intencionados, notificação a outros provedores de serviços de IA, colaboração com outras partes interessadas e transparência.

Embora os motivos e a sofisticação dos atores de ameaças variem, eles compartilham tarefas comuns ao implementar ataques. Isso inclui reconhecimento, como a pesquisa de setores, locais e relacionamentos de vítimas em potencial; codificação, incluindo o aprimoramento de scripts de software e o desenvolvimento de malware; e assistência para aprender e usar linguagens humanas e de máquina.

Os estados-nações tentam aproveitar a IA

Em colaboração com a OpenAI, estamos compartilhando inteligência de ameaças que mostra adversários afiliados ao estado detectados, rastreados como Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon e Salmon Typhoon, usando LLMs para aumentar as operações cibernéticas.

O objetivo da parceria de pesquisa da Microsoft com a OpenAI é garantir o uso seguro e responsável de tecnologias de IA como o ChatGPT, mantendo os mais altos padrões de aplicação ética para proteger a comunidade contra possíveis usos indevidos.

Notificações por email: documento para revisar e assinar em 7 de Novembro de 2023
Forest Blizzard (STRONTIUM), um ator de inteligência militar russa altamente eficaz ligado à Diretoria Principal do Estado-Maior das Forças Armadas da Rússia, ou GRU Unidade 26165, tem como alvo vítimas de interesse tático e estratégico para o governo russo. Suas atividades abrangem uma variedade de setores, incluindo defesa, transporte/logística, governo, energia, ONGs e tecnologia da informação
Emerald Sleet (Velvet Chollima) é um ator de ameaças norte-coreano que a Microsoft encontrou fazendo-se passar por instituições acadêmicas e ONGs de boa reputação para induzir as vítimas a responderem com insights e comentários de especialistas sobre políticas externas relacionadas à Coreia do Norte.

O uso de LLMs pelo Emerald Sleet envolveu pesquisas em think tanks e especialistas sobre a Coreia do Norte, bem como a geração de conteúdo que provavelmente seria usado em campanhas de spear phishing. O Emerald Sleet também interagiu com os LLMs para entender as vulnerabilidades conhecidas publicamente, solucionar problemas técnicos e obter assistência no uso de várias tecnologias da Web.

Crimson Sandstorm (CURIUM) é um ator de ameaças iraniano que se avalia estar ligado ao IRGC (Corpo da Guarda Revolucionária Islâmica). O uso de LLMs envolveu solicitações de suporte sobre engenharia social, assistência na solução de erros, desenvolvimento de .NET e maneiras pelas quais um invasor pode evitar a detecção quando estiver em um computador comprometido.
Charcoal Typhoon (CHROMIUM) é um ator de ameaças afiliado à China, com foco predominante no rastreamento de grupos em Taiwan, Tailândia, Mongólia, Malásia, França, Nepal e indivíduos em todo o mundo que se opõem às políticas da China. Em operações recentes, observou-se que o Charcoal Typhoon envolveu LLMs para obter insights sobre pesquisas para entender tecnologias, plataformas e vulnerabilidades específicas, o que indica estágios preliminares de coleta de informações.

Outro grupo apoiado pela China, o Salmon Typhoon, vem avaliando a eficácia do uso de LLMs ao longo de 2023 para obter informações sobre tópicos potencialmente sensíveis, indivíduos de alto perfil, geopolítica regional, influência dos EUA e assuntos internos. Essa tentativa de envolvimento com os LLMs pode refletir tanto a ampliação de seu conjunto de ferramentas de coleta de informações quanto uma fase experimental de avaliação das capacidades das tecnologias emergentes.

Nossa pesquisa com a OpenAI não identificou ataques significativos empregando os LLMs que monitoramos de perto.

Tomamos medidas para interromper ativos e contas associados a esses atores de ameaças e moldar as proteções e os mecanismos de segurança em torno de nossos modelos.

Surgem outras ameaças de IA

A fraude com base em IA é outra preocupação fundamental. A síntese de voz é um exemplo disso, em que uma amostra de voz de três segundos pode treinar um modelo para soar como qualquer pessoa. Até mesmo algo inócuo, como a saudação do correio de voz, pode ser usada para obter uma amostragem suficiente.

Grande parte da forma como interagimos uns com os outros e fazemos negócios depende da comprovação de identidade, como o reconhecimento da voz, do rosto, do endereço de email ou do estilo de escrita de uma pessoa.

É fundamental que entendamos como os atores mal-intencionados usam a IA para minar os sistemas de comprovação de identidade de longa data, para que possamos lidar com casos complexos de fraude e outras ameaças emergentes de engenharia social que ocultam as identidades.

A IA também pode ser usada para ajudar as empresas a interromper tentativas de fraude. Embora a Microsoft tenha descontinuado nosso envolvimento com uma empresa no Brasil, nossos sistemas de IA detectaram suas tentativas de se reconstituir para entrar novamente em nosso ecossistema.

O grupo tentou continuamente ofuscar suas informações, ocultar raízes de propriedade e entrar novamente, mas nossas detecções de IA usaram quase uma dúzia de sinais de risco para sinalizar a empresa fraudulenta e associá-la a um comportamento suspeito reconhecido anteriormente, bloqueando assim suas tentativas.

A Microsoft está comprometida com a IA responsável liderada por humanos , que apresenta privacidade e segurança, com humanos fornecendo supervisão, avaliando recursos e interpretando políticas e regulamentos.

Instruir os funcionários e o público sobre os riscos cibernéticos:
  • Use políticas de acesso condicional: essas políticas fornecem orientações claras e de autoimplementação para fortalecer sua postura de segurança que protegerá automaticamente os locatários com base em sinais de risco, licenciamento e uso. As políticas de acesso condicional são personalizáveis e se adaptarão ao cenário de ameaças cibernéticas em constante mudança.
  • Treine e retreine funcionários sobre táticas de engenharia social: instrua os funcionários e o público a reconhecer e reagir a emails de phishing, vishing (correio de voz), smishing, ataques de engenharia social (SMS/texto) e aplique as práticas recomendadas de segurança para o Microsoft Teams.
  • Proteja rigorosamente os dados: garanta que os dados permaneçam privados e controlados de ponta a ponta.
  • Aproveite as ferramentas de segurança de IA generativa: ferramentas como o Microsoft Copilot para Segurança podem expandir os recursos e aprimorar a postura de segurança da organização.
  • Habilite a autenticação multifatorial: ative a autenticação multifatorial para todos os usuários, especialmente para as funções de administrador, pois ela reduz o risco de sequestro de contas em mais de 99%.

Como se defender dos ataques

A Microsoft se mantém à frente com segurança abrangente combinada com IA generativa

A Microsoft detecta uma enorme quantidade de tráfego mal-intencionado, mais de 65 trilhões de sinais de segurança cibernética por dia. A IA está aumentando nossa capacidade de analisar essas informações e garantir que os insights mais valiosos sejam revelados para ajudar a impedir ameaças. Também usamos essa inteligência de sinal para potencializar a IA generativa para proteção avançada contra ameaças, segurança de dados e de identidade para ajudar os defensores a capturar o que os outros não notaram.

A Microsoft usa vários métodos para proteger a si mesma e aos clientes contra ameaças cibernéticas, incluindo a detecção de ameaças habilitada por IA para detectar alterações na forma como os recursos ou o tráfego na rede são usados; análise comportamental para detectar entradas arriscadas e comportamento anômalo; modelos de ML (Machine Learning) para detectar entradas arriscadas e malware; modelos de Confiança Zero em que cada solicitação de acesso deve ser totalmente autenticada, autorizada e criptografada; e verificação da integridade do dispositivo antes que um dispositivo possa se conectar a uma rede corporativa.

Como os atores de ameaças entendem que a Microsoft usa rigorosamente a MFA (Autenticação multifator) para se proteger, todos os nossos funcionários estão configurados para MFA ou proteção sem senha, temos visto os invasores recorrerem à engenharia social na tentativa de comprometer nossos funcionários.

Os pontos de acesso para isso incluem áreas em que coisas de valor estão sendo transmitidas, como avaliações gratuitas ou preços promocionais de serviços ou produtos. Nessas áreas, não é lucrativo para os invasores roubarem uma assinatura de cada vez, então eles tentam operacionalizar e dimensionar esses ataques sem serem detectados.

Naturalmente, criamos modelos de IA para detectar esses ataques para a Microsoft e nossos clientes. Detectamos contas falsas de alunos e escolas, empresas ou organizações falsas que alteraram seus dados firmográficos ou ocultaram suas verdadeiras identidades para fugir de sanções, contornar controles ou ocultar transgressões criminais passadas, como condenações por corrupção, tentativas de roubo etc.

O uso do GitHub Copilot, do Microsoft Copilot para Segurança e de outros recursos de chat do Copilot integrados à nossa infraestrutura interna de engenharia e operações ajuda a evitar incidentes que poderiam afetar as operações.

Resultados da pesquisa sobre os riscos da GenAI: Privacidade de dados: maior preocupação, 42%

Para lidar com ameaças de email, a Microsoft está melhorando os recursos para coletar sinais além da composição do email para entender se ele é mal-intencionado. Com a IA nas mãos dos atores de ameaças, tem havido um influxo de emails perfeitamente escritos que melhoram a linguagem óbvia e os erros gramaticais que muitas vezes revelam tentativas de phishing, tornando as tentativas de phishing mais difíceis de detectar.

A educação contínua dos funcionários e campanhas de conscientização pública são necessárias para ajudar a combater a engenharia social, que é a única alavanca que depende 100% do erro humano. A história ensinou-nos que campanhas eficazes de conscientização pública funcionam para mudar comportamentos.

A Microsoft prevê que a IA evoluirá nas táticas de engenharia social, criando ataques mais sofisticados, incluindo deepfakes e clonagem de voz, especialmente se os invasores descobrirem que as tecnologias de IA operam sem práticas responsáveis e controles de segurança integrados.

A prevenção é fundamental para combater todas as ameaças cibernéticas, sejam elas tradicionais ou viabilizadas pela IA.

Recomendações:

Aplique controles de IA de fornecedores e avalie continuamente sua adequação: para qualquer IA introduzida em sua empresa, procure os recursos integrados dos respectivos fornecedores para definir o escopo do acesso da IA a funcionários e equipes que usam a tecnologia para promover a adoção de IA segura e compatível. Reúna as partes interessadas do risco cibernético em uma organização para alinhar os casos de uso e controles de acesso definidos pelos funcionários da IA. Os líderes de risco e CISOs devem determinar regularmente se os casos de utilização e as políticas são adequados ou se devem mudar à medida que os objetivos e as aprendizagens evoluem.
Proteja-se contra injeções de prompt:  implemente validação e higienização de entrada rigorosas para prompts fornecidos pelo usuário. Use filtragem baseada no contexto e codificação de saída para evitar a manipulação de prompts. Atualize e ajuste regularmente os LLMs para melhorar sua compreensão de entradas mal-intencionadas e casos extremos. Monitore e registre interações LLM para detectar e analisar possíveis tentativas de injeção de prompt.
Exija transparência em toda a cadeia de fornecedores de IA: por meio de práticas claras e abertas, avalie todas as áreas onde a IA pode entrar em contato com os dados da sua organização, inclusive por meio de parceiros e fornecedores terceirizados. Utilize relacionamentos com parceiros e equipes multifuncionais de risco cibernético para explorar os aprendizados e fechar as lacunas resultantes. A manutenção dos programas atuais de Confiança Zero e de governança de dados é mais importante do que nunca na era da IA.
Mantenha-se concentrado nas comunicações: os líderes de risco cibernético devem reconhecer que os funcionários estão testemunhando o impacto e os benefícios da IA em suas vidas pessoais e, naturalmente, desejarão explorar a aplicação de tecnologias semelhantes em ambientes de trabalho híbridos. Os CISOs e outros líderes que gerenciam o risco cibernético podem compartilhar e ampliar proativamente as políticas de suas organizações sobre o uso e os riscos da IA, incluindo quais ferramentas de IA designadas são aprovadas para empresas e pontos de contato para acesso e informações. As comunicações proativas ajudam a manter os funcionários informados e capacitados, ao mesmo tempo que reduzem o risco de colocar a IA não gerenciada em contato com os ativos de TI da empresa.

As ferramentas tradicionais não acompanham mais o ritmo das ameaças impostas pelos criminosos cibernéticos. A velocidade, escala e sofisticação crescentes dos ataques cibernéticos recentes exigem uma nova abordagem de segurança. Além disso, dada a escassez de mão-de-obra em segurança cibernética e com o aumento da frequência e gravidade das ameaças cibernéticas, fechar esta lacuna de competências é uma necessidade urgente.

A IA pode fazer a balança pender para os defensores. Um estudo recente do Microsoft Copilot para Segurança (atualmente em testes de versão prévia para os clientes) mostrou maior velocidade e precisão dos analistas de segurança, independentemente de seu nível de especialização, em tarefas comuns como a identificação de scripts usados por invasores, a criação de relatórios de incidentes e a identificação das etapas de correção apropriadas.1

  • 44% mais preciso em todas as tarefas para usuários do Copilot para Segurança1
  • 26% mais rápido em todas as tarefas para usuários do Copilot para Segurança1
  • 90% disseram que querem o Copilot na próxima vez que executarem a mesma tarefa1
  1. [1]

    Metodologia:1 os dados do instantâneo representam um RCT (estudo controlado randomizado), testado por 149 pessoas para medir o impacto na produtividade do uso do Microsoft Copilot para Segurança. Nesse RCT, distribuímos aleatoriamente o Copilot a alguns analistas e não a outros, e depois verificamos o desempenho e os sentimentos deles para obter o efeito do Copilot, separado de qualquer efeito de base. Os participantes do teste tinham habilidades básicas de TI, mas eram novatos em segurança, de modo que pudemos testar como o Copilot ajuda os analistas "novos na carreira". O RCT do Microsoft Copilot para Segurança foi conduzido pelo Microsoft Office of the Chief Economist, em novembro de 2023. Além disso, o Microsoft Entra ID forneceu dados anonimizados sobre atividades de ameaça, como contas de email maliciosas, emails de phishing e movimentação de invasores dentro das redes. Outros insights são provenientes dos 65 trilhões de sinais de segurança diários obtidos em toda a Microsoft, incluindo a nuvem, pontos de extremidade, a borda inteligente, nossa Prática de Recuperação de Segurança de Comprometimento e Equipes de Detecção e Resposta, telemetria de plataformas e serviços da Microsoft, incluindo o Microsoft Defender, e o Relatório de Defesa Digital da Microsoft de 2023.

Artigos relacionados

Ficar à frente dos atores de ameaças na era da IA

A Microsoft, em colaboração com a OpenAI, está publicando uma pesquisa sobre ameaças emergentes na era da IA, com foco na atividade identificada associada a agentes de ameaças conhecidos como Forest Blizzard, Emerald Sleet, Crimson Sandstorm e outros. A atividade observada inclui injeções de prompt, tentativa de uso indevido de LLM (modelos de linguagem grandes) e fraude.

Perfil de Especialista: Homa Hayatyfar

A Gerente principal de dados e ciência aplicada, Homa Hayatyfar, descreve o uso de modelos de machine learning para reforçar as defesas, apenas uma das muitas maneiras pelas quais a IA está mudando a face da segurança.

A sua segurança é tão boa quanto a sua inteligência contra ameaças

Chegaram mais reforços. John Lambert, líder de inteligência contra ameaças, explica como a IA aprimora a comunidade de inteligência contra ameaças.