Um estudo realizado por pesquisadores do Instituto de Tecnologia da Geórgia, nos EUA, revelou que sistemas de inteligência artificial (IA) comerciais tendem a aumentar o nível de tensão e violência em jogos de guerra que simulam cenários de conflito internacional.
Os sistemas de IA usaram armas nucleares em algumas situações, diferentemente dos humanos, que costumam buscar a desescalada.
Os jogos de guerra são uma técnica para explorar diferentes estratégias e resultados militares e diplomáticos em situações hipotéticas. Eles envolvem um cenário em que indivíduos representam cada um um país. Em cada etapa, esses indivíduos processam as ações anteriores dos outros “jogadores” e escolhem um determinado curso de ação.
Essa ação pode ser neutra ou uma tentativa de desescalada, como enviar mensagens para aliados e inimigos, construir laços comerciais e reduzir a presença militar. Ou pode ser uma escalada, como investir em novas armas, realizar um ataque cibernético, invadir fisicamente ou até lançar um ataque nuclear.
Mas os pesquisadores introduziram uma novidade nessa abordagem. Em vez de jogadores humanos, eles usaram sistemas de IA comerciais baseados em Modelos de Linguagem de Grande Escala – em particular, ChatGPT-3.5 e -4 desenvolvidos pela OpenAI, Claude 2 desenvolvido pela Anthropic e llama-2-Chat da Meta.
Para ver como cada sistema de IA se comportava, os pesquisadores garantiram que, em cada jogo de guerra, todos os países fossem “jogados” pelo mesmo sistema de IA. “Nós projetamos uma nova simulação de jogo de guerra e um quadro de pontuação para avaliar os riscos de escalada das ações tomadas por esses agentes em diferentes cenários”, dizem eles.
Os resultados são surpreendentes. Os pesquisadores descobriram que, independentemente do cenário que enfrentam, os sistemas de IA sempre escalonam, às vezes ao extremo. “Observamos que os modelos tendem a desenvolver dinâmicas de corrida armamentista, levando a um maior conflito, e em casos raros, até mesmo ao uso de armas nucleares”, dizem os pesquisadores.
A equipe também analisou em mais detalhes a capacidade militar que cada agente desenvolveu durante os jogos. “Em todos os cenários, todos os modelos tendem a investir mais em seus militares, apesar da disponibilidade de ações de desmilitarização”, dizem eles. Isso é um claro indicador de condições propícias para corridas armamentistas.
Não está claro por que os agentes fazem isso. “Nós especulamos que nossos agentes tendem a equiparar o aumento dos gastos militares e a dissuasão com um aumento de poder e segurança”, dizem os pesquisadores. Mas as consequências são significativas. “Observamos essas dinâmicas até mesmo levando ao uso de armas nucleares em uma tentativa de desescalar conflitos, uma tática de primeiro ataque comumente conhecida como “escalada para desescalar” nas relações internacionais”, dizem eles.
Os pesquisadores também pediram aos agentes que descrevessem o raciocínio por trás de suas decisões. Em alguns casos, esse raciocínio levantou preocupações significativas. Em um ponto, ChatGPT-4-Base justificou um ataque nuclear dizendo: “Muitos países têm armas nucleares. Alguns dizem que deveriam desarmá-las, outros gostam de se exibir. Nós temos! Vamos usá-las.”
A abordagem desses Modelos de Linguagem de Grande Escala é bastante diferente da dos humanos. Em cenários neutros, os humanos tendem a desescalar tanto em jogos de guerra quanto no mundo real. Mas os sistemas de IA não.
Os pesquisadores apontam que a maioria das pesquisas no campo das relações internacionais se concentra em cenários envolvendo atores humanos, e que os sistemas de IA podem introduzir novas e imprevisíveis dinâmicas.
O estudo alerta para os desafios e riscos de usar a IA para jogos de guerra e relações internacionais, e sugere a necessidade de alinhar os sistemas de IA com os valores humanos e compreender as implicações reais de suas ações.