Pular para o conteúdo principal
Setor

5 aprendizados sobre a jornada de IA responsável da Ásia em serviços financeiros 

Na Ásia, assim como em outras regiões, há uma adoção crescente de inteligência artificial (IA) no setor de serviços financeiros, com mais de 60% das organizações de serviços financeiros já acelerando seu ritmo de digitalização em resposta à pandemia. 

Estima-se que os gastos com IA do setor de serviços financeiros na região cheguem a US$ 4,9 bilhões em 2024. Atualmente, os gastos dos serviços financeiros na Ásia-Pacífico (excluindo o Japão) representam 15% dos gastos mundiais com IA, indicando um potencial significativo de crescimento à medida que mais instituições financeiras desenvolvem e implantam soluções de IA. 

Nesse contexto de aumento da adoção de IA, observamos um crescente interesse de nossos clientes, dos reguladores e de outros stakeholders em como a IA pode ser implantada de forma responsável. Estamos trabalhando diretamente com clientes e reguladores, bem como através de grupos como o consórcio Veritas do Monetary Authority of Singapore. Apresentamos aqui cinco aprendizados que obtivemos com essas interações. 

  1. Os reguladores estão incentivando as organizações a se basearem nas obrigações regulatórias existentes, além de apoiarem uma abordagem baseada em princípios e neutra em termos de tecnologia 

As instituições financeiras operam em um setor altamente regulamentado, com requisitos robustos que abrangem o uso de tecnologia terceirizada, gerenciamento de risco e governança. É evidente que, no que diz respeito ao uso de IA, as instituições financeiras não estão operando em um vácuo regulatório. Em razão disso, observamos indicações claras de que os reguladores na Ásia não estão procurando introduzir uma nova regulamentação de serviços financeiros específica para IA. Pelo contrário, estão procurando se basear nas estruturas regulatórias existentes e orientações associadas, como proteção de dados, confidencialidade e sigilo bancário, tecnologia e gerenciamento de risco e empréstimos justos, entre outros, para garantir que a IA seja implantada de forma responsável. 

Reguladores em toda a Ásia publicaram orientações ou princípios não vinculativos e incentivaram a colaboração entre instituições financeiras e parceiros de tecnologia para entender como os controles e a governança existentes podem ser fortalecidos para implementar e demonstrar as boas práticas de uma IA responsável. Essa abordagem regulatória baseada em princípios e neutra em termos de tecnologia pode ser vista mais claramente em Singapura e Hong Kong, ecoando a abordagem mundialmente por jurisdições como o Reino Unido

Um desenvolvimento especialmente interessante é o surgimento de uma abordagem de cocriação, em que os reguladores e o setor trabalham em estreita colaboração para garantir que os princípios possam ser transformados em ações práticas. O Consórcio Veritas do Monetary Authority of Singapore (MAS), entidade que atua como Banco Central de Singapura, é um bom exemplo disso, já que o MAS está se envolvendo ativamente com os participantes do setor para desenvolver uma metodologia de avaliação de equidade na primeira fase do Consórcio. Essa metodologia não vinculativa foi desenvolvida por meio de uma abordagem inicial baseada na avaliação de considerações de equidade levantadas em diferentes casos de uso de serviços financeiros. Na fase atual do trabalho do Consórcio, a Microsoft está facilitando discussões sobre considerações regulatórias associadas à implementação de IA responsável em serviços financeiros. O feedback que o MAS recebe do Veritas fornecerá aprendizados importantes para qualquer nova orientação futura. 

Essa abordagem de cocriação também pode ser vista globalmente. Nos EUA, as principais organizações de serviços financeiros, tecnologia e setores acadêmicos norte-americanos anunciaram a formação de um novo Conselho Nacional de Inteligência Artificial (NCAI). No Reino Unido, o Fórum Público-Privado de Inteligência Artificial reúne os setores público e privado para incentivar um diálogo mais construtivo sobre o uso e o impacto de IA/ML, incluindo os potenciais benefícios e restrições à implantação, bem como os riscos associados. 

Outro desenvolvimento que observamos é um aumento do valor depositado na coordenação com outras jurisdições, já que muitas instituições financeiras na Ásia operam em vários mercados regionais ou globais. Há benefícios claros da coordenação entre os reguladores em toda a região para buscar uma coerência regulatória. Embora implementar IA de forma responsável e de acordo com as expectativas dos reguladores signifique adotar uma abordagem adaptada aos contextos locais (por exemplo, uma avaliação para verificar se as entradas de dados usadas para o aprendizado de máquina são apropriadas para mitigar riscos de desvio variará de um contexto para outro), a cooperação internacional entre os reguladores e com o setor é de grande valor para o compartilhamento de perspectivas e aprendizados. 

  1. Desenvolver uma compreensão das questões levantadas em casos de uso específicos de serviços financeiros é essencial para transformar princípios em prática 

Pensando em dois a três anos atrás, a maioria das discussões sobre o uso responsável de IA nas finanças era centrada na definição de princípios éticos e na conscientização sobre a necessidade de uma IA responsável. Na Ásia, vemos os esforços se voltarem cada vez mais para considerações práticas em transformar princípios em prática com base em casos de uso específicos, à medida que aumenta a implantação real de IA pelas instituições financeiras. Embora as discussões anteriores no nível dos princípios tenham sido importantes, somente por meio de sua aplicação em cenários reais é que os princípios podem ser transformados em prática. As diretrizes dos reguladores e os princípios éticos podem ajudar a definir uma linha de base e garantir que as organizações estejam fazendo as perguntas certas, mas também é necessária uma abordagem orientada a casos de uso. O contexto em que soluções de IA específicas forem implantadas moldará quais princípios são mais relevantes e como os riscos apresentados podem ser mitigados. 

A importância da adoção dessa abordagem baseada em casos de uso tornou-se evidente durante a colaboração da Microsoft com as empresas Standard Chartered, Deutsche Bank, Visa e Linklaters para testar a aplicação dos princípios éticos de IA de Singapura. Por meio desse projeto, trabalhamos coletivamente para avaliar as considerações sobre IA responsável envolvidas em três casos de uso diferentes de serviços financeiros: previsão de padrões de viagem com base em gastos anteriores; verificação automática de assinaturas com tinta úmida; e conformidade regulatória relacionada a verificações “Conheça Seu Cliente”. Um aprendizado claro foi que princípios específicos têm implicações diferentes em contextos diferentes, e alguns princípios serão mais ou menos relevantes. 

Uma abordagem semelhante baseada em casos de uso vem sendo adotada pelo consórcio MAS Veritas. Ao basear seu trabalho em casos de uso específicos preparados pelas instituições financeiras envolvidas, em conjunto com participantes de empresas de tecnologia como a Microsoft, o grupo vem gerando importantes aprendizados que fortalecem nossos esforços coletivos para implementar IA de forma responsável. À medida que mais instituições compartilharem casos de uso mostrando como lidaram com as considerações sobre IA responsável envolvidas, todo o setor será beneficiado. 

Vemos benefícios semelhantes fora do setor de serviços financeiros por meio de esforços para reunir e publicar casos de uso de IA responsável na Ásia. Isso inclui o piloto dos princípios éticos da IA da Austrália (para o qual a Microsoft foi convidada como uma das cinco empresas participantes) e dois volumes de casos de uso de Singapura, alguns dos quais relacionados a serviços financeiros. 

  1. Uma abordagem baseada em relevância pode ajudar a concentrar os esforços em casos de uso mais confidenciais 

Na Ásia, temos visto um progresso importante na aplicação de estruturas e controles de governança para o uso de IA em serviços financeiros. Em consonância com o quadro global baseado em uma pesquisa de 2020 do Instituto de Finanças Internacionais, vemos em grupos como o consórcio Veritas que a maioria das instituições financeiras está usando seu modelo de gerenciamento de risco existente ou outras estruturas de gerenciamento de risco. Uma prioridade crescente é identificar os casos de uso de IA mais relevantes para que os esforços possam se concentrar em usos confidenciais, em que pode haver maior risco de danos. 

Por exemplo, em uma discussão recente, uma instituição financeira compartilhou sua perspectiva de que, em vez de fazer um inventário regular e analisar todos os possíveis casos de uso de IA, eles estão mais focados em identificar casos de uso relevantes que exigem uma análise detalhada. Isso evita paralisar a implantação de aplicativos de IA de menor risco, além de garantir que aplicativos de maior risco potencial possam receber atenção suficiente. Isso é semelhante à abordagem que adotamos na Microsoft, em que um conjunto básico de critérios de IA responsável se aplica a qualquer equipe de criação de sistemas de IA, com um procedimento de análise mais intensivo para usos confidenciais em que há maior risco de danos. 

No futuro, uma área importante a ser explorada é se haverá necessidade de mais colaboração entre os setores para definir abordagens compartilhadas de avaliação de relevância. Grupos como o consórcio Veritas podem ser úteis para facilitar essas discussões. 

  1. É importante que as instituições financeiras e os parceiros de tecnologia promovam transparência e responsabilidade 

Uma área de interesse crescente está nas funções complementares das instituições financeiras que implantam tecnologias de IA e desenvolvedores de software que fornecem soluções de IA que as instituições financeiras podem personalizar ou implantar “de prateleira”. É provável que até mesmo grandes instituições financeiras da Ásia com equipes internas de desenvolvimento estejam construindo sistemas de IA baseados em produtos de IA/ML de fornecedores terceirizados ou em modelos pré-treinados baixados da Internet. Isso vem gerando uma discussão sobre como os desenvolvedores de modelos podem trabalhar mais efetivamente com as instituições financeiras para promover transparência e garantir um grau de responsabilidade para o software que está sendo desenvolvido. Embora as instituições que implantam soluções de IA sejam, em última análise, responsáveis por garantir que seu caso de uso seja implementado com responsabilidade, vemos um papel importante dos desenvolvedores de soluções de IA na promoção do uso responsável de seus modelos. 

Os parceiros de tecnologia podem ajudar compartilhando informações técnicas e não técnicas sobre os recursos e limitações do software de IA que está sendo desenvolvido, para ajudar uma instituição financeira a avaliar a melhor maneira de implantar o software de forma responsável. Por exemplo, a Microsoft publicou notas de transparência para preencher uma lacuna entre o marketing e a documentação técnica, fornecendo aos nossos clientes as informações básicas que eles precisam saber para aplicar nossos serviços de IA de forma responsável. 

  1. A importância da diversidade e da cultura para uma IA responsável 

O aprendizado contínuo é importante para incluir diversas perspectivas aos esforços de implementação de uma IA responsável. Uma colaboração diversificada é de suma importância, além de acrescentar um desafio saudável para garantir que os princípios de uso responsável sejam aplicados adequadamente e que possíveis preocupações sejam identificadas e tratadas com antecedência. 

Há muitas maneiras de se incluir diversas perspectivas. É necessário envolver uma série de stakeholders na implementação de uma IA responsável, como governo, reguladores, associações do setor, desenvolvedores de tecnologia, implantadores de tecnologia, grupos da sociedade civil e representantes da comunidade de clientes finais. É importante também extrair diferentes perspectivas de dentro da própria organização, incluindo as equipes que desenvolvem aplicativos de IA, mas também as perspectivas legais, de conformidade, auditoria e risco (incluindo risco operacional, de reputação e de conduta). Além disso, essas equipes devem ser inerentemente diversas, com uma representação apropriada de gênero, grupos étnicos, deficiência, circunstâncias econômicas e outros aspectos da diversidade. Isso se aplica especialmente na Ásia, dada a diversidade da região. 

Seguindo adiante 

No futuro, é fundamental dar continuidade ao trabalho existente, incentivar um maior compartilhamento de exemplos de casos de uso para melhorar a compreensão de como as instituições financeiras estão implementando a IA responsável e examinar quais questões regulatórias as instituições financeiras precisam abordar. Iniciativas como o Veritas são uma plataforma poderosa para que as instituições financeiras possam codesenvolver soluções com reguladores, empresas de tecnologia e outros players do setor. Isso fortalecerá a compreensão geral do uso de IA em todo o setor de serviços financeiros, além de inspirar confiança nos reguladores e consumidores de que essas questões estão sendo consideradas, para garantir que a IA seja usada de forma responsável. 

Saiba mais 

Comunicado de imprensa do MAS anunciando a publicação dos princípios FEAT: https://www.mas.gov.sg/publications/monographs-or-information-paper/2018/FEAT 

Comunicado de imprensa da Microsoft indicando nossa participação no consórcio Veritas: Microsoft se une ao consórcio Veritas, liderado pelo Monetary Authority of Singapore (MAS), em compromisso com o uso de Inteligência Artificial (IA) responsável no Setor de Serviços Financeiros – Microsoft Stories Ásia 

Comunicado de imprensa do MAS anunciando a conclusão dos projetos Veritas 2020: Iniciativa Veritas aborda os desafios de implementação no uso responsável de inteligência artificial e análise de dados (mas.gov.sg) 

White paper do Veritas Fase 1: https://www.mas.gov.sg/-/media/MAS/News/Media-Releases/2021/Veritas-Document-1-FEAT-Fairness-Principles-Assessment-Methodology.pdf 

Publicação Princípios à Prática 2019: https://www.microsoft.com/cms/api/am/binary/RE487kh 

Princípios Microsoft de IA responsável: https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6 

Elementos básicos do programa de IA responsável da Microsoft:https://blogs.microsoft.com/on-the-issues/2021/01/19/microsoft-responsible-ai-program/ 

Bank for International Settlements: “Humanos mantendo a IA sob controle – expectativas regulatórias emergentes no setor financeiro”: https://www.bis.org/fsi/publ/insights35.pdf