Um novo estudo realizado por pesquisadores da Universidade Estadual da Carolina do Norte, nos Estados Unidos, descobriu que as ferramentas de inteligência artificial (IA) são mais suscetíveis a ataques maliciosos do que se pensava.
Esses ataques podem fazer com que os sistemas de IA tomem decisões erradas, comprometendo a segurança e a confiabilidade de diversas aplicações, como veículos autônomos e interpretação de imagens médicas. O estudo foi publicado na revista científica Nature Communications.
Os ataques maliciosos são chamados de “ataques adversários” e consistem em manipular os dados que são alimentados em um sistema de IA para confundi-lo. Por exemplo, alguém pode colocar um tipo específico de adesivo em um lugar específico em uma placa de pare, que efetivamente torna a placa invisível para um sistema de IA que controla um carro autônomo. Ou um hacker pode instalar um código em uma máquina de raio-X que altera os dados da imagem de uma forma que faz com que um sistema de IA faça diagnósticos incorretos.
Os pesquisadores desenvolveram um software chamado QuadAttac K, que pode ser usado para testar qualquer rede neural profunda para vulnerabilidades adversárias. As redes neurais profundas são modelos de IA que aprendem a partir de grandes quantidades de dados e são capazes de realizar tarefas complexas, como reconhecimento de imagens, processamento de linguagem natural e geração de texto. O software QuadAttac K observa como o sistema de IA faz decisões relacionadas aos dados e determina como os dados podem ser manipulados para enganar o sistema de IA. O software então envia dados manipulados para o sistema de IA para ver como ele responde.
Os resultados mostraram que as redes neurais profundas são muito vulneráveis a ataques adversários e que os atacantes podem aproveitar essas vulnerabilidades para fazer com que as redes vejam o que eles querem que elas vejam. Os pesquisadores testaram quatro redes neurais profundas que são amplamente usadas em sistemas de IA em todo o mundo: duas redes neurais convolucionais (ResNet-50 e DenseNet-121) e dois transformadores de visão (ViT-B e DEiT-S). Eles descobriram que todas as quatro redes eram suscetíveis a ataques adversários e que os ataques podiam ser realizados com poucas alterações nos dados originais.
Os autores do estudo alertam que os ataques adversários representam uma ameaça séria para a segurança e a confiabilidade dos sistemas de IA e que é preciso desenvolver métodos de defesa para proteger os sistemas de IA contra esses ataques. Eles também sugerem que os desenvolvedores de sistemas de IA devem usar o software QuadAttac K para testar as suas redes neurais profundas para vulnerabilidades adversárias e corrigi-las antes de colocá-las em uso.
A inteligência artificial é uma área da ciência da computação que busca criar máquinas e sistemas capazes de realizar tarefas que normalmente requerem inteligência humana, como aprendizado, raciocínio, percepção, comunicação e criatividade. A inteligência artificial tem diversas aplicações em diferentes setores, como educação, saúde, transporte, entretenimento, segurança, entre outros. No entanto, a inteligência artificial também traz desafios e riscos, como questões éticas, sociais, legais e de segurança, que precisam ser considerados e regulados.