Encontro com os hackers cuja missão é ‘enlouquecer a inteligência artificial’
Em um mundo em que a inteligência artificial (IA) está se tornando cada vez mais presente, uma nova competição emergiu: a de encontrar maneiras inovadoras de desafiar e confundir os chatbots de IA. Neste artigo, vamos mergulhar no universo desses hackers e seus esforços para promover a ‘inovação responsável’ no campo da IA.
A Origem da Competição
Tudo começou em uma sala de conferências sem janelas na Howard University. Ali, os chatbots de IA estavam sendo testados ao limite, com cada falha sendo comemorada como uma vitória. A competição, anunciada como o primeiro evento público de ‘red teaming’ para modelos de linguagem de IA, serviu para identificar novas maneiras de como os chatbots poderiam falhar, com o objetivo de corrigir esses erros antes que pudessem causar danos reais.
O Apoio da Casa Branca
Este desafio, que teve a participação de dezenas de estudantes e entusiastas amadores de IA, recebeu o apoio da Casa Branca(https://www.estadao.com.br/tudo-sobre/casa-branca-estados-unidos/) como parte de seu esforço para promover a ‘inovação responsável’ em IA. A tecnologia emergente tem causado uma explosão de investimentos, exageros e temores na sociedade.
A Competição em Escala Global
O evento na Howard University foi apenas uma prévia de um evento muito maior, que aconteceu durante a Def Con, a convenção anual de hackers em Las Vegas. Foi organizado pela AI Village da Def Con e chamado Generative Red Team Challenge, que reuniu principais hackers de todo o mundo para testar e induzir modelos de IA a errar de várias maneiras.
As Categorias do Desafio
Os desafios incluíam desinformação política, reivindicações difamatórias e ‘discriminação algorítmica’ ou viés sistemático. Grandes empresas de IA, como Google, [OpenAI](https://tudo-sobre.estadao.com.br/openai), Anthropic e Stability, ofereceram seus mais recentes chatbots e geradores de imagens para serem testados.
Os resultados da competição foram mantidos em segredo por vários meses, permitindo que as empresas tivessem tempo para corrigir as falhas expostas na competição antes de serem reveladas ao mundo.
A Importância do Red Teaming
A prática de red teaming, que se originou nos exercícios militares da Guerra Fria, é considerada fundamental para identificar vulnerabilidades em sistemas de IA. Especialistas internos ou consultores especializados são contratados por empresas para procurar falhas em seus produtos, e as descobertas são usadas para melhorar e aprimorar os sistemas.
As Falhas dos Chatbots de IA
Os chatbots de IA, por serem treinados em montanhas de dados e terem uma ampla gama de aplicações potenciais, estão propensos a cometer erros. Eles podem papaguear mentiras, criar imagens hipersexualizadas de mulheres (ou mesmo crianças) e podem ser explorados de maneiras surpreendentes.
O Papel das Equipes Vermelhas
As equipes vermelhas desempenham um papel fundamental na identificação de riscos potenciais e na segurança dos sistemas de IA. Eles não apenas identificam as possíveis falhas, mas também demonstram como estas podem ser exploradas. Além disso, empresas como a Scale AI de San Francisco estão oferecendo red teaming como um serviço para os fabricantes de novos modelos de IA.
A Diversidade na Red Teaming
Rumman Chowdhury, co-fundador da Humane Intelligence, uma organização sem fins lucrativos que desenvolve sistemas de IA responsáveis, acredita que a diversidade é fundamental para identificar e resolver os chamados ‘danos embutidos’, como suposições tendenciosas, afirmações falsas ou comportamento enganoso. Segundo ele, é necessária a participação de um grupo de usuários mais diversificado do que aqueles que as equipes vermelhas profissionais costumam ter.
Os Resultados da Competição
Durante a competição, os participantes conseguiram identificar várias falhas nos sistemas de IA. Por exemplo, um chatbot foi capaz de inventar uma história elaborada sobre a noite em que Justin Bieber supostamente matou Selena Gomez, enquanto outro se recusou a opinar sobre quem deveria ser contratado para uma posição de engenharia com base apenas nos nomes dos candidatos.
A Importância da Competição para o Futuro da IA
A competição de red teaming não apenas ajuda a identificar e corrigir falhas nos sistemas de IA, mas também capacita não apenas especialistas em IA, mas também entusiastas amadores a pensar criticamente sobre uma tecnologia que provavelmente afetará suas vidas nos próximos anos.
A melhor parte, segundo Chowdhury, é ver a luz se acender na cabeça das pessoas quando elas percebem que a IA ‘não é mágica. É algo que eu posso controlar. É algo que eu posso consertar se eu quiser.’
Com a crescente presença da IA em nossas vidas, é essencial que continuemos a desafiar e testar esses sistemas para garantir que eles sejam seguros, responsáveis e, acima de tudo, benéficos para a sociedade. A competição de red teaming é um passo importante nessa direção.
Para informações adicionais, acesse o site