Todos os dias, especialistas e ativistas da privacidade digital apontam o dedo para novas tecnologias que usam nossos dados pessoais de maneiras que não esperávamos. Parece que a inovação e a privacidade estão em uma disputa constante de poder. Mas precisamos das duas para seguir em frente. E se as políticas de privacidade mudarem de direção, podemos ter exatamente isso.
A privacidade vem de longe
A privacidade é algo que evoluiu até se tornar a norma social que conhecemos hoje, mas ainda varia entre diferentes culturas e países. Antes da industrialização a privacidade praticamente não existia: famílias numerosas compartilhavam uma só casa, muitas vezes um só quarto, enquanto os vizinhos transitavam livremente pelas casas uns dos outros. Alguém provavelmente sabia quase tudo que acontecia na sua vida.
Nossas expectativas de privacidade como fenômeno social cresceram junto com o desenvolvimento tecnológico e, em muitos casos, a própria tecnologia foi a responsável por esse aumento. Pode ser que hoje nos sintamos mais ainda mais confortáveis ao compartilhar informações pessoais na internet do que fora dela, porque sentimos que temos mais controle sobre essas informações quando estamos online.
A regulamentação é a melhor forma de proteger a privacidade?
Os legisladores da União Europeia parecem ter certeza de que leis como o Regulamento Geral de Proteção de Dados, conhecido como GDPR, protegem a privacidade na internet e aumentam a confiança do público nas tecnologias digitais e seu funcionamento. Em 2018, Vĕra Jourová, comissária da UE para Justiça, Consumidores e Igualdade de Gênero afirmou: “As novas regras estão começando a definir um padrão global para a privacidade. Isso vai ajudar a trazer de volta a confiança que precisamos para ter sucesso dentro da nova economia global digital”.
Mas as evidências dizem o contrário. Regulamentações e leis fazem pouca ou nenhuma diferença no fato das pessoas usarem ou não uma tecnologia. De acordo com a pesquisa de opinião Eurobarometer, realizada pela Comissão Europeia em 2018, ano de implementação da GDPR, a confiança dos consumidores digitais europeus atingiu o menor nível da década. A Comissão afirma que dar aos consumidores novos direitos irá empoderá-los para que assumam o controle dos seus dados. Mesmo assim, em 2019, a Eurobarometer voltou a mostrar que 4 em cada 5 europeus sentiam ter nenhum ou pouco controle sobre as informações que compartilhavam online.
Mas, se a regulamentação não vai solucionar o problema, precisamos que as empresas abordem seus desafios de privacidade de uma forma mais proativa.
Como as pessoas realmente se comportam em relação à privacidade?
A pesquisa Kaspersky Global Privacy Research 2020 descobriu que cerca de um terço das pessoas entrevistadas já teve seus dados particulares acessados de maneira irregular. E cerca de um terço desse casos teve consequências mais graves, como prejuízos financeiros ou danos emocionais.
O que as pessoas estão fazendo para se proteger? Não tudo que poderiam. Somente 41% protege seu navegador, enquanto 37% evita que outras pessoas usem seus aparelhos. Mas 1 em cada 4 pessoas esconde senhas em lugares óbvios, facilmente detectáveis por cibercriminosos.
15% das pessoas escrevem suas senhas em algum papel ou adesivo próximos ao computador. Surpreendentemente, a faixa etária que mais faz isso está entre os 25 e os 34 anos.
Pedir aos usuários que confirmem a leitura e o aceite dos termos cada vez que visitam um site seria algo que só aumentaria a frustração dos usuários, ao invés de melhorar seu entendimento sobre segurança. A Eurobarometer de 2019, que analisou os hábitos e comportamentos dos europeus em relação ao compartilhamento de dados, descobriu que pouco mais de 20% das pessoas afirmam estar informadas sobre as condições de coleta e uso de dados pessoais. Mas apenas 13% do total lê os termos de privacidade por completo.
Se as leis não vão melhorar nossa privacidade, o que vai?
A educação é fundamental para um empoderamento verdadeiro. Desenvolver o senso de como se tornar um “bom cidadão digital” seria algo que certamente melhoraria a confiança e a noção de privacidade da sociedade.
Individualmente, cada empresa pode fazer o possível para que sua experiência de usuário, que nada mais é do que a facilidade com que os usuários vão poder encontrar e usar as ferramentas de um site ou aplicativo, funcione em favor da privacidade. As pessoas geralmente respondem bem a um certo padrão visual de linguagem: ícones de cadeado para simbolizar um processo seguro, etiquetas de atenção para demarcar conteúdos suspeitos e tiques para representar perfis verificados são alguns exemplos disso.
Uma comunicação bem feita de acordo com esses padrões ajuda as empresas a evitar efeitos indesejados ao adotar novas tecnologias, como problemas de compliance e custos judiciais.
Ao invés de ir atrás de regulamentações mais pesadas ou de banir novas tecnologias, os legisladores podem limitar comportamentos que tenham consequências mais sérias para a privacidade dos usuários.
Por exemplo, se existe uma preocupação sobre o uso de dados genéticos por parte das seguradoras para definir apólices ou negar coberturas, os legisladores podem simplesmente proibi-las de usar esses dados. Logo, as seguradoras terão que focar na proteção desses consumidores, para se comportar perante os olhos da Lei.
A tecnologia muda mais rápido que os valores da sociedade. E por isso faz muito mais sentido que os órgãos reguladores tentem criar regras que reflitam esses valores e protejam os indivíduos ao invés de bloquear e filtrar novas tecnologias e seus benefícios.
É claro que os responsáveis devem questionar novas tecnologias, como por exemplo, determinar se um drone pode voar em qualquer lugar ou como implantes neurológicos devem ser usados. Com isso, empresas e associações de comércio têm sido cada vez mais responsabilizadas e obrigadas a explicar o que cada nova tecnologia pretende alcançar, como será usada e como irá proteger dados pessoais.
Autenticação biométrica e privacidade são coisas contraditórias?
Os consumidores são os primeiros a gostar da conveniência da autenticação biométrica, utilizada em tecnologias como o Selfie Pay da MasterCard e o scanner de íris da Samsung. O reconhecimento facial também é uma boa ferramenta para controle de acesso em transportes públicos, prédios inteligentes ou em simples aparelhos. É algo rápido e mais conveniente que códigos ou chaves eletrônicas e previne o chamado “tailgating”, que é quando uma pessoa sem autorização passa por uma barreira de autenticação junto com o visitante autorizado.
Enquanto isso, a demanda comercial por diferentes maneiras de aplicar a autenticação biométrica segue crescendo, e vai desde a segurança domiciliar até sistemas que garantam que os pacientes recebam o tratamento correto nos hospitais. Esse tipo de tecnologia tem um forte apoio do público, nos EUA apenas 26% das pessoas desejam que o governo limite de alguma maneira o usa do reconhecimento facial.
Alguns sistemas funcionam melhor que outros, isso sim. Um argumento muito citado é que o reconhecimento facial não funciona com a mesma eficiência em mulheres e pessoas de certas etnias. Reivindicações sobre a falta de precisão no reconhecimento facial, especialmente por raça, são enganosos porque muitos dos melhores sistemas têm uma margem de erro ínfima e até superam o olhar humano na mesma tarefa. Além disso, muitos críticos confundem e misturam detecção facial, análise facial e reconhecimento facial, sendo que cada uma dessas tecnologias têm funções diferentes, e os índices de erro de uma não necessariamente se aplicam às outras. Infelizmente, muitas vezes os meios de comunicação também confundem essas tecnologias e aumentam as percepções erradas sobre os riscos de cada uma.
É compreensível que as pessoas esperem que os órgãos reguladores imponham limites para o uso dessas tecnologias na vigilância da população e respeitem os direitos humanos. O GDPR e o California Consumer Privacy Act (CCPA), principais marcos da privacidade digital até o momento, impuseram certas restrições. Com essa tecnologia em sua infância, a legislação que restringe ou proíbe pode travar seu desenvolvimento para beneficiar a sociedade. Ao invés disso, uma regulamentação para limitar possíveis abusos ou usos indevidos aumentaria a confiança do público e encorajaria o setor privado a desenvolver, testar e compartilhar as melhores práticas.
Também existe uma certa preocupação do mundo da cibersegurança com o avanço da biometria. Ferramentas do tipo devem ser consideradas e testadas como parte de sistemas de segurança. Padrões claros e estandardizados de cibersegurança podem ajudar as empresas a lidar melhor com esse tipo de solução. Já os legisladores devem incentivar as empresas que desenvolvem soluções inovadoras do tipo para proteger dados, incluindo o uso de inteligência artificial (IA).
Ao trabalhar de maneira integrada com produtos dos mais diversos, como implantes médicos, veículos autônomos e drones, a inteligência artificial está crescendo cada vez mais em campos como a saúde, a educação e o funcionalismo público. Mas com esse avanço novas ameaças se somam a problemas antigos da cibersegurança: competidores podem adicionar códigos maliciosos aos dados usados para treinar o aprendizado de máquina ou desativar o reconhecimento facial para ter acesso a algo, e vulnerabilidades como essas ainda precisam ser investigadas.
Precisamos que legisladores e empresas trabalhem juntos
As empresas precisam que a regulamentação evolua de maneira que favoreça a sociedade. Do contrário, algumas leis ultrapassadas e desproporcionais podem afetar empresas que utilizem tecnologias emergentes com sanções por quebra de compliance baseadas em regras criadas para inibir problemas antigos.
Os líderes empresariais precisam estar em dia com as novas propostas de lei e a opinião pública. Devem trabalhar ao lado dos legisladores para fazer as leis evoluírem, atacando de forma proativa problemas de privacidade e segurança em potencial. A transformação digital é um negócio e é essencial que haja um direcionamento claro que oriente as empresas a respeitar os limites da privacidade e proteger os dados do consumidor.
Este é um artigo de opinião e não reflete necessariamente as opiniões e políticas da Kaspersky.