Confesso que estou um pouco cansado de todas as notícias sobre IA, mas acho que vou ter que aguentar um pouco mais, pois com certeza continuará ser um assunto relevante, por pelo menos mais um ou dois anos. Não que a IA pare de se desenvolver, é claro; é só que jornalistas, blogueiros, TikTokers, tweeters e outros comentaristas acabarão se cansando do assunto. Mas, por enquanto, o entusiasmo deles é alimentado não apenas pelos gigantes da tecnologia, como também pelos governos: o plano do Reino Unido em introduzir uma regulamentação de IA em três frentes; a China, por sua vez, colocou o projeto de lei de IA em debate público; os EUA estão pedindo “responsabilidade algorítmica“; a União Europeia está discutindo, mas ainda não aprovando projetos de lei sobre IA, e assim por diante. Muitos planos para o futuro, mas, até o momento, a criação e o uso de sistemas de IA não foram limitados de forma alguma. No entanto, parece que isso vai mudar em breve.
Uma questão bastante discutível, é claro, é a seguinte: precisamos de regulamentação governamental da IA? Se a fizermos: por que e como ela deve ser?
O que regular
O que é inteligência artificial? (Não) graças aos departamentos de marketing, o termo tem sido usado para muitas coisas – desde os modelos generativos de ponta, como GPT-4, até os sistemas de aprendizado de máquina mais simples, incluindo alguns que existem há décadas. Você se lembra do Т9 em telefones celulares com botão de pressão? Já ouviu falar sobre spam automático e classificação de arquivos maliciosos? Você confere recomendações de filmes na Netflix? Todas essas tecnologias familiares são baseadas em algoritmos de aprendizado de máquina (na sigla ML do inglês machine learning), também conhecidos como “IA”.
Aqui na Kaspersky, temos usado essas tecnologias em nossos produtos por quase 20 anos, sempre preferindo, modestamente, nos referir a elas como “aprendizado de máquina” — até porque a “inteligência artificial” parece trazer à mente de quase todo mundo coisas como supercomputadores que falam, instalados em naves espaciais e outras coisas saídas diretamente da ficção científica. No entanto, esses computadores e droides que pensam e falam precisam ser totalmente capazes de pensar como humanos – para comandar a inteligência artificial geral (AGI) ou a superinteligência artificial (ASI), mas nem AGI nem ASI foram inventados ainda e dificilmente o serão em um futuro previsível.
De qualquer forma, se todos os tipos de IA forem medidos com o mesmo critério e totalmente regulamentados, toda a indústria de TI e muitas outras relacionadas não vão se dar bem. Por exemplo, se nós (Kaspersky) formos obrigados a obter o consentimento de todos os nossos “autores” do conjunto de treinamento, nós, como uma empresa de segurança da informação, estaremos pressionados contra a parede. Aprendemos com malwares e spams e alimentamos o conhecimento adquirido em nosso aprendizado de máquina, enquanto seus autores tendem a preferir reter seus dados de contato (quem diria?!). Além disso, considerando que os dados foram coletados e nossos algoritmos foram treinados por quase 20 anos, quanto tempo no passado nós deveríamos considerar?
Portanto, é essencial que os legisladores ouçam não apenas as equipes de marketing, mas os especialistas do setor de aprendizado de máquina/IA e discutam a possível regulamentação de maneira específica e focada. Por exemplo, possivelmente usando sistemas multifuncionais, treinados com grandes volumes de dados abertos, ou sistemas de tomada de decisão de alto nível de responsabilidade e risco.
E novos aplicativos de IA exigirão revisões frequentes nos normativos à medida que novos modelos surgirem.
Por que regular?
Para ser honesto, não acredito em um juízo final assistido por superinteligência nos próximos cem anos. Mas eu acredito em um monte de dores de cabeça pelo uso impensado das múltiplas possibilidade que o computador pode oferecer.
Como um lembrete para aqueles que não leram nossos artigos sobre o esplendor e a miséria do aprendizado de máquina, há três questões principais em relação a qualquer IA:
- Não está claro o quanto eram/são bons os dados usados em treinamentos.
- Não é um consenso sobre o que a IA conseguiu “compreender” desse estoque de dados ou como ela toma suas decisões.
- E o mais importante — o algoritmo pode ser mal utilizado por seus desenvolvedores e usuários.
Assim, qualquer coisa pode acontecer: desde o uso indevido e malicioso da IA até impactos impensados devido decisões da IA. Exemplos gráficos da vida real: erros fatais do piloto automático, deepfakes (1, 2, 3) que agora já estão habituais nos memes e até nas notícias, um erro bobo na contratação de professores, a polícia prendendo um ladrão errado, e uma IA misógina usada como ferramenta de recrutamento. Além disso, qualquer IA pode ser atacada com a ajuda de amostras de dados hostis feitas sob medida: veículos podem ser enganados usando adesivos, podem ser extraídas do GPT-3 e antivírus ou EDR também podem ser enganados. E, a propósito, os ataques à IA de drones de combate descritos na ficção científica não parecem mais tão rebuscados.
Em poucas palavras, o uso da IA ainda não deu origem a nenhum problema verdadeiramente grande, mas há claramente muito potencial para eles. Portanto, as prioridades da regulação devem ser bem estabelecidas:
- Prevenção de incidentes de infraestrutura crítica (fábricas/navios/linhas de transmissão de energia/usinas nucleares).
- Minimizar ameaças físicas (veículos sem motorista, diagnóstico incorreto de doenças).
- Mitigar danos pessoais e riscos de negócios (prisões ou contratações com base em medições de crânio, erro de cálculo de demanda/aquisições e assim por diante).
O objetivo da regulamentação deve ser obrigar os usuários e fornecedores de IA a tomarem cuidado para não aumentar os riscos de ocorrência das coisas negativas mencionadas. E quanto mais sério o risco, mais ativamente ele deve ser compelido.
Há outra preocupação frequente em relação à IA: a necessidade de observância de normas morais e éticas e de atender ao conforto psicológico, por assim dizer. Para tanto, vemos avisos dados para que as pessoas saibam que estão vendo um objeto inexistente (desenhado por IA) ou se comunicando com um robô e não um humano, e também alertas informando que os direitos autorais foram respeitados durante o treinamento de IA e por aí vai. E por que isso? Para que legisladores e fornecedores de IA não sejam alvo de multidões enfurecidas! E esta é uma preocupação muito real em algumas partes do mundo (lembre-se dos protestos contra a Uber, por exemplo).
Como regular
A maneira mais simples de regular a IA seria proibir tudo, mas parece que essa abordagem ainda não está na mesa. De qualquer forma, não é muito mais fácil proibir a IA do que os computadores. Portanto, todas as tentativas razoáveis de regulamentação devem seguir o princípio de “quanto maior o risco, mais rigorosos os requisitos”.
Os modelos de aprendizado de máquina usados para algo bastante trivial – como recomendações de compras de varejo – podem não ser regulamentados, mas quanto mais sofisticado o modelo – ou mais sensível a área de aplicação – mais complexos e estabelecidos podem ser os requisitos para fornecedores e usuários de sistemas. Por exemplo:
- Submeter o código de um modelo ou conjunto de dados de treinamento para inspeção a reguladores ou especialistas.
- Comprovar a robustez de um conjunto de dados de treinamento, inclusive em termos de viés, direitos autorais e assim por diante.
- Comprovar a razoabilidade do “output” da IA; por exemplo, estar livre de alucinações.
- Rotular operações e resultados de IA.
- Atualizar um modelo e conjunto de dados de treinamento; por exemplo, filtrar pessoas de uma determinada cor de pele dos dados de origem ou suprimir fórmulas químicas para explosivos na saída do modelo.
- Testar IA em busca de “dados hostis” e atualizar seu comportamento conforme necessário.
- Controlar quem está usando IA específica e por quê. E negar tipos específicos de uso.
- Treinar IA de grande porte, ou que se aplique a determinada área, somente com autorização do regulador.
- Provar que é seguro usar IA para resolver um problema específico. Essa abordagem é muito exótica para TI, mas mais do que familiar, por exemplo, para empresas farmacêuticas, fabricantes de aeronaves e muitas outras indústrias em que a segurança é fundamental. Primeiro viriam cinco anos de testes minuciosos, depois a permissão do regulador e só então um produto poderia ser liberado para uso geral.
A última medida parece excessivamente rigorosa, mas apenas até você aprender sobre incidentes nos quais a IA bagunçou as prioridades de tratamento para pacientes com asma aguda e pneumonia e tentou mandá-los para casa em vez de para uma unidade de terapia intensiva.
As medidas de execução podem variar de multas por violações das regras da IA (na linha das penalidades europeias para violações do RGPD) ao licenciamento de atividades relacionadas à IA e sanções criminais por violações da legislação (conforme proposto na China).
Mas qual é o jeito certo?
Abaixo, represento minhas próprias opiniões pessoais – mas elas são baseadas em 30 anos de busca ativa de desenvolvimento tecnológico avançado no setor de cibersegurança: de aprendizado de máquina a sistemas “secure-by-design”.
Primeiro, precisamos de regulamentação. Sem ela, a IA acabará se assemelhando a rodovias sem regras de trânsito. Ou, mais relevante, semelhante à situação de coleta de dados pessoais online no final dos anos 2000, quando quase todo mundo coletava tudo o que podia. Acima de tudo, a regulamentação promove a autodisciplina dos agentes do mercado.
Em segundo lugar, precisamos maximizar a harmonização internacional e a cooperação na regulamentação – da mesma forma que com os padrões técnicos em comunicações móveis, internet e assim por diante. Soa utópico dada a realidade geopolítica atual, mas isso não torna essa ação menos desejável.
Em terceiro lugar, a regulamentação não precisa ser muito rigorosa: seria míope estrangular uma indústria jovem e dinâmica como esta com regulamentação excessiva. Dito isto, precisamos de um mecanismo para revisões frequentes das regras para ficar a par da evolução da tecnologia e do mercado.
Em quarto lugar, as regras, níveis de risco e níveis de medidas de proteção devem ser definidos em consulta com um grande número de especialistas com experiência relevante.
Quinto, não precisamos esperar dez anos. Tenho falado sobre os sérios riscos inerentes à Internet das Coisas e sobre as vulnerabilidades em equipamentos industriais há mais de uma década, enquanto documentos como a Lei de Resiliência Cibernética da UE apareceram pela primeira vez (como rascunho!) apenas no ano passado.
Mas por enquanto é só pessoal! E parabéns para aqueles que leram isso até o fim – obrigado a todos! E um brinde a um futuro interessante – seguro – aprimorado por IA!…