Alerta do G20: Uso Descontrolado de IA em Bancos Gera Vulnerabilidades

A Inteligência Artificial (IA) tem sido rapidamente adotada pelo setor bancário, que a enxerga como uma ferramenta essencial para acelerar e desburocratizar serviços, tornando as operações mais eficientes. No entanto, essa rápida integração gerou um alerta importante do Conselho de Estabilidade Financeira (FSB), o órgão de fiscalização de risco do G20.

O FSB aponta que a ampla dependência da IA pode criar vulnerabilidades sistêmicas no setor financeiro global.

Riscos da Concentração e Dependência

Segundo um relatório do G20, revelado pela Reuters, os reguladores financeiros globais estão planejando um monitoramento mais rigoroso dos riscos associados à IA à medida que os bancos intensificam seu uso.

A principal preocupação reside no fato de que muitas instituições financeiras podem acabar utilizando os mesmos softwares e hardware especializados. O documento ressalta que essa “forte dependência” pode levar à criação de vulnerabilidades se houver poucas alternativas disponíveis. Em caso de falha ou ataque, o impacto poderia ser generalizado.

Urgência na Regulamentação

Em um estudo separado, o Banco de Compensações Internacionais (BIS) também se manifestou, apontando uma “necessidade urgente” de maior supervisão por parte de bancos centrais e reguladores.

O BIS alerta que as instituições financeiras estão sujeitas a um risco elevado de fraudes e ataques cibernéticos relacionados à IA. Contudo, o estudo observa que ainda há “poucas evidências empíricas” de que a IA esteja, de fato, afetando os resultados do mercado financeiro em termos de correlações.

As autoridades financeiras globais defendem uma regulamentação imediata da Inteligência Artificial. Um exemplo de legislação citada é a Lei de Resiliência Operacional Digital (DORA), que entrou em vigor em janeiro na União Europeia, indicando o caminho para uma fiscalização mais robusta sobre as tecnologias digitais usadas pelo setor.