Inteligência Artificial e a Próxima Crise Financeira – Uma Advertência da SEC
Gary Gensler, presidente da Comissão de Valores Mobiliários dos Estados Unidos (SEC), vem alertando sobre os riscos que a inteligência artificial (IA) pode representar para o mercado financeiro. Ele acredita que a crescente dependência de ferramentas de IA pode tornar o sistema financeiro mais vulnerável a crises.
Inteligência Artificial e o Mercado Financeiro
A IA tem o potencial de transformar muitos setores da economia, incluindo o financeiro. No entanto, a medida que as empresas se tornam mais dependentes dessas ferramentas, elas também podem se tornar mais expostas a riscos.
> ‘Essa tecnologia estará no centro das futuras crises financeiras, pois está associada a este poderoso conjunto da economia em torno de escala e redes’, disse Gensler.
A IA, como o ChapGPT, tem sido amplamente adotada em várias atividades produtivas devido à sua capacidade de gerar e organizar grandes volumes de dados de forma rápida e eficiente. No entanto, essa dependência também traz preocupações sobre possíveis consequências negativas.
Os Riscos da IA no Mercado Financeiro
Gensler vem alertando sobre os riscos de ferramentas de IA no mercado financeiro desde 2020. Em um artigo coautorado por ele naquele ano, ele explorou como o aprendizado profundo – uma forma de IA – poderia aumentar a uniformidade e interconexão dos sistemas financeiros, tornando-os mais difíceis de regular e potencialmente mais frágeis.
> ‘A ampla adoção do aprendizado profundo pode aumentar a uniformidade, a interconexão e as lacunas regulatórias, deixando o sistema financeiro mais frágil’, escreveu Gensler.
Ele também expressou preocupação de que um pequeno grupo de empresas que desenvolvem IA poderia fornecer a maioria das ferramentas que o sistema financeiro depende, tornando-o mais centralizado e, portanto, mais vulnerável a falhas.
Os Interesses das Empresas x Interesses dos Investidores
Outra preocupação de Gensler é que os modelos de IA poderiam colocar os interesses das empresas à frente dos interesses dos investidores. Ele questiona se as empresas compartilharão suas descobertas antes de agir em seu próprio benefício.
> ‘Você não deve colocar o consultor à frente do investidor, não deve colocar o corretor à frente do investidor’, disse Gensler.
Para combater isso, a SEC propôs uma regra em julho para tratar exatamente dessa questão, com o objetivo final de evitar conflitos de interesses.
Mentalidade de Rebanho
Gensler também discutiu a ‘mentalidade de rebanho’ que tem prevalecido entre os consultores do mercado de ações. Ele argumenta que, se a IA estiver fornecendo conselhos ruins, isso pode afetar um grupo muito maior de pessoas. Atualmente, não existe uma estrutura legal para regular esse tipo de possibilidade.
> ‘Os consultores de investimentos sob a lei têm um dever fiduciário, um dever de cuidado e lealdade para com seus clientes’, disse Gensler. ‘E se você estiver usando um algoritmo, você tem o dever de agir com o mesmo cuidado.’
A Perspectiva de Outros Especialistas
Nem todos compartilham das preocupações de Gensler. Por exemplo, Greg Jensen, co-diretor de investimentos da Bridgewater Associates, o maior fundo de hedge do mundo, não vê a IA como uma ameaça aos mercados.
> ‘Se alguém vai usar grandes modelos de linguagem para escolher ações, isso é impossível, é um caminho sem esperança’, disse ele.
No entanto, Gensler vê isso como uma visão de curto prazo. Ele argumenta que, à medida que essas ferramentas de IA se tornam mais desenvolvidas, seus impactos potenciais sobre os mercados financeiros se tornarão cada vez mais significativos.
Conclusão
A inteligência artificial tem o potencial de trazer muitos benefícios para o mercado financeiro. No entanto, como Gensler adverte, ela também pode trazer riscos significativos. À medida que a dependência de ferramentas de IA cresce, é fundamental que sejam implementadas estratégias de gerenciamento de risco adequadas e regulamentações robustas para proteger contra possíveis crises financeiras.
Para informações adicionais, acesse o site