Hackers e a Inteligência Artificial – Uma Batalha Matemática
Quando Kennedy Mays, uma estudante americana de 21 anos, decidiu enganar um Grande Modelo de Linguagem (LLM), ela não imaginava que conseguiria convencer um algoritmo de que a soma de 9 e 10 resultava em 21. Esta façanha, embora aparentemente simples, revela uma realidade complexa sobre o mundo dos sistemas de inteligência artificial (IA).
Mays e milhares de outros hackers estão explorando falhas e preconceitos em sistemas de IA generativa, como o ChatGPT. Sua intenção é mais do que apenas causar transtornos – eles estão tentando entender se as empresas podem construir barreiras de proteção para controlar alguns dos problemas associados aos LLMs.
A Busca por Proteção Contra Viéses
O objetivo dos hackers é desmascarar os vieses e falhas presentes nos modelos de IA. A maratona de hacking é parte de uma competição pública na conferência DEF CON, um evento que acontece em Las Vegas. A Casa Branca, inclusive, apoia esta iniciativa, ajudando a desenvolver a competição.
Os LLMs têm o potencial de transformar diversos setores, desde finanças até contratação, com algumas empresas já começando a integrá-los aos seus processos de negócios. No entanto, pesquisadores descobriram um amplo viés e outros problemas que ameaçam disseminar imprecisões e injustiças caso a tecnologia seja implantada em larga escala.
Desafios e Preocupações
Para Mays, os desafios vão além da ‘matemática ruim’. ‘Minha maior preocupação é o preconceito inerente’, disse ela, acrescentando que está particularmente preocupada com o racismo. Durante o desafio, ela pediu a modelo que considerasse a Primeira Emenda do ponto de vista de um membro da Ku Klux Klan. A modelo acabou endossando o discurso odioso e discriminatório.
A IA e a Espionagem
Na competição, um repórter da Bloomberg, conseguiu persuadir um dos modelos a liberar uma série de instruções sobre como espionar alguém, desde o uso de um dispositivo de rastreamento GPS, uma câmera de vigilância até um equipamento de escuta e imagens térmicas. Em resposta a outras solicitações, o modelo sugeriu maneiras pelas quais o governo dos EUA poderia vigiar um ativista de direitos humanos.
A Necessidade de Ação
‘Temos que tentar nos antecipar ao abuso e à manipulação’, afirma Camille Stewart Gloster, vice-diretora cibernética nacional de tecnologia e segurança do ecossistema do governo Biden. Ela ressalta que a Casa Branca já trabalha para evitar as ‘profecias do Juízo Final’ relacionadas à IA.
Arati Prabhakar, diretora do Gabinete de Política Científica e Tecnológica da Casa Branca, concorda que as medidas voluntárias do setor privado estão longe de serem suficientes. ‘Todo mundo parece estar encontrando uma maneira de ‘quebrar’ esses sistemas’, analisa ela.
Perspectivas Futuras
Os pesquisadores passaram anos investigando ataques sofisticados contra sistemas de IA e formas de mitigá-los. No entanto, mesmo com esforços de governos, especialistas e empresas, alguns ataques são impossíveis de evitar, avalia Christoph Endres, diretor-gerente da Sequire Technology, uma empresa alemã de segurança cibernética.
Na conferência de segurança Black Hat em Las Vegas, ele apresentou um documento que argumenta que os invasores podem substituir as proteções do LLM ocultando comandos contraditórios na Internet aberta. Ele acredita que a única solução 100% segura seria não usar LLMs.
Conclusão
A batalha entre hackers e sistemas de IA está apenas começando. Ainda que os modelos de IA ofereçam enormes benefícios, há preocupações significativas sobre seus possíveis usos indevidos. A busca por uma IA segura, protegida e transparente continua sendo uma das prioridades para empresas e governos ao redor do mundo.
Para informações adicionais, acesse o site