A inteligência artificial (IA) está transformando rapidamente vários setores, desde saúde e finanças até transporte e entretenimento. No entanto, juntamente com o seu potencial inegável, aumentam as preocupações sobre as vulnerabilidades de segurança dos modelos de IA. Em resposta, um novo projeto de lei está tramitando no Senado que visa reforçar a segurança da IA e prevenir violações.
Este novo projeto de lei de segurança de IA, intitulado Lei de Inteligência Artificial Segurafoi apresentado pelos senadores Mark Warner (D-VA) e Thom Tillis (R-NC).
A lei propõe uma abordagem dupla para a segurança da IA:
- Estabelecer um banco de dados central para rastrear violações de IA.
- Criação de um centro de pesquisa dedicado ao desenvolvimento de técnicas de contra-IA.
Construindo uma rede de detecção de violações para IA
Uma das principais características da Lei de Inteligência Artificial Segura é a criação de um banco de dados nacional de segurança de IA violações. Este banco de dados, supervisionado pelo Instituto Nacional de Padrões e Tecnologia (NIST) e pela Agência de Segurança Cibernética e de Infraestrutura (CISA), funcionaria como um repositório central para registrar incidentes envolvendo sistemas de IA comprometidos. A lei também exige a inclusão de “quase acidentes” na base de dados, com o objetivo de capturar não apenas ataques bem-sucedidos, mas também situações próximas que possam oferecer informações valiosas para a prevenção.
A inclusão de quase acidentes é um aspecto digno de nota do projeto de lei. Os bancos de dados tradicionais de violações de segurança geralmente se concentram apenas em incidentes confirmados. No entanto, os quase acidentes podem ser igualmente valiosos na compreensão de potenciais fraquezas de segurança. Ao capturar essas situações, o banco de dados pode fornecer uma imagem mais abrangente do cenário de ameaças de IA, permitindo que pesquisadores e desenvolvedores identifiquem e resolvam vulnerabilidades antes que elas sejam exploradas.
“À medida que continuamos a aproveitar todas as oportunidades que a IA traz, é imperativo que continuemos a nos proteger contra as ameaças representadas por – e para – esta nova tecnologia, e o compartilhamento de informações entre o governo federal e o setor privado desempenha um papel crucial, ”
– Senador Mark Warner
Um centro dedicado para combater ameaças de IA
A Lei de Inteligência Artificial Segura propõe o estabelecimento de um Centro de Segurança de Inteligência Artificial dentro da Agência de Segurança Nacional (NSA). Este centro teria a tarefa de liderar pesquisas sobre “contra-IA”Técnicas, essencialmente métodos para manipular ou interromper sistemas de IA. Compreender estas técnicas é crucial para desenvolver defesas eficazes contra agentes maliciosos que possam tentar explorar vulnerabilidades de IA.
A lei especifica um foco em quatro técnicas principais de combate à IA:
- Envenenamento de dados
- Ataques de evasão
- Ataques baseados em privacidade
- Ataques de abuso
Envenenamento de dados envolve a introdução de dados corrompidos no conjunto de dados de treinamento de um modelo de IA, com o objetivo de distorcer os resultados do modelo. Ataques de evasão envolvem a manipulação de entradas para um sistema de IA de uma forma que permita ao invasor contornar suas medidas de segurança. Ataques baseados em privacidade explorar lacunas na forma como os sistemas de IA lidam com dados pessoais. Finalmente, ataques de abuso envolvem o uso indevido de funcionalidades legítimas de um sistema de IA para fins maliciosos.
Ao pesquisar estas técnicas de combate à IA, o Centro de Segurança de Inteligência Artificial pode ajudar a desenvolver estratégias para mitigar o seu impacto. Esta pesquisa pode informar a criação de melhores práticas para desenvolvimento, implantação e manutenção de IA, levando, em última análise, a sistemas de IA mais robustos e seguros.

A criação de uma base de dados nacional sobre violações e de um centro de investigação dedicado pode fornecer informações e ferramentas valiosas para a construção de sistemas de IA mais seguros.
No entanto, esta é uma questão complexa e sem soluções fáceis.
O desenvolvimento de técnicas eficazes de combate à IA também pode representar desafios, uma vez que estes métodos podem ser potencialmente utilizados para fins defensivos e ofensivos.
O sucesso da Lei de Inteligência Artificial Segura dependerá da sua implementação e da colaboração contínua entre agências governamentais, o sector privado e a comunidade de investigação. À medida que a IA continua a evoluir, também deve evoluir a nossa abordagem para protegê-la.
A nova lei de segurança da IA proporciona um quadro para avançar, mas serão necessárias vigilância e adaptação contínuas para garantir que a IA continue a ser uma força para o bem.
Crédito da imagem em destaque: Pawel Czerwinski/Remover respingo