O rápido desenvolvimento dos sistemas de IA e as tentativas de introduzi-los de forma onipresente são fonte de otimismo e de preocupação. A IA pode ajudar os humanos em muitas áreas diferentes – como a indústria da cibersegurança sempre soube. Nós da Kaspersky usamos aprendizado de máquina (ML, sigla para Machine Learning) há quase 20 anos e sabemos com certeza que sem sistemas de IA simplesmente não é possível se defender contra a enorme variedade de ciberameaças que existem. Durante esse período, também identificamos uma ampla gama de problemas associados à IA – desde treiná-la com dados incorretos até ataques maliciosos a sistemas de IA e uso deste tipo de tecnologia para fins antiéticos.
Várias plataformas de discussão internacional e organizações já desenvolveram princípios gerais de ética para IAs (aqui estão as recomendações da UNESCO, por exemplo), mas as diretrizes mais específicas para a indústria da cibersegurança ainda não foram aceitas por todos.
Para aplicar a IA na cibersegurança sem consequências negativas, propomos que a indústria adote um conjunto de princípios éticos relacionados a este tipo de tecnologia, cuja primeira versão apresentamos no Internet Governance Forum da ONU, em Quioto, no Japão. Os princípios precisam ser discutidos e esclarecidos em toda a comunidade de cibersegurança, é claro, mas nós já aderimos a eles. Quais são essas diretrizes? Aqui apresentamos em um breve resumo.
Transparência
Os usuários têm o direito de saber se um provedor de segurança utiliza sistemas de IA, bem como como se esses sistemas são capazes de tomar decisões e para quais finalidades. É por isso que estamos empenhados em desenvolver sistemas de IA que sejam interpretáveis na medida do possível, com todas as salvaguardas necessárias para garantir que produzam resultados válidos. Qualquer pessoa pode conhecer nosso código e nossos fluxos de trabalho visitando um de nossos Centros de Transparência .
Segurança
Entre as ameaças que os sistemas de IA enfrentam está a manipulação de conjuntos de dados de entrada para produzir decisões inadequadas. Portanto, acreditamos que os desenvolvedores de IA devem priorizar a resiliência e a segurança.
Para este fim, adotamos uma série de medidas práticas para fornecer sistemas de IA de alta qualidade: auditorias de segurança específicas de IA e red teaming; uso mínimo de conjuntos de dados de terceiros em treinamento; além de implementar uma série de tecnologias para proteção em múltiplas camadas. Sempre que possível, favorecemos a IA baseada na nuvem (com todas as medidas de segurança necessárias preconizadas) em vez de modelos instalados localmente.
Controle humano
Embora nossos sistemas de aprendizado de máquina possam operar de forma autônoma, seus resultados e desempenho são constantemente monitorados por especialistas. Os vereditos dos nossos sistemas automatizados são ajustados conforme necessário, e os próprios sistemas são adaptados e modificados por especialistas para resistir a ciberameaças fundamentalmente novas e/ou altamente sofisticadas. Combinamos as técnicas de aprendizado de máquina com a experiência humana e estamos comprometidos em manter para sempre esse elemento de controle humano em nossos sistemas.
Privacidade
A IA não pode ser treinada sem big data – e algumas informações podem ser pessoais. Portanto, uma abordagem ética à sua utilização deve respeitar os direitos dos indivíduos à privacidade. Na prática de segurança da informação, isto pode envolver diversas medidas: limitar os tipos e a quantidade de dados processados; pseudonimização e anonimato; reduzir a composição dos dados; garantir a integridade dos dados; e aplicação de medidas técnicas e organizacionais para proteger os dados.
Desenvolvida para cibersegurança
A IA na cibersegurança deve ser utilizada apenas para fins defensivos. Isto faz parte integrante da nossa missão de construir um mundo seguro no qual as tecnologias do futuro melhorarão todas as vidas.
Abertura ao diálogo
Acreditamos que só trabalhando em conjunto poderemos superar os obstáculos associados à adoção e utilização da IA para segurança. Por esta razão, promovemos o diálogo com todas as partes interessadas para partilhar as melhores práticas no uso ético da IA.
Leia mais sobre nossos princípios de uso ético da IA em segurança.