Imagine que você chega em casa um dia de mau humor, grita com a porta por não abrir rápido o suficiente e com a lâmpada porque ela queima – e o alto-falante inteligente começa imediatamente a tocar música relaxante, e a máquina de café serve seu café preferido. Ou, quando você entra em uma loja, o assistente robô que estava prestes a se aproximar vê seu rosto infeliz, recua e ajuda outro cliente. Parece ficção científica?
De fato, as tecnologias de reconhecimento de emoções já estão sendo introduzidas em muitas áreas e, em um futuro próximo, nosso humor poderá estar sob o olhar atento de aparelhos, eletrodomésticos, carros etc. Neste post, exploramos como essas tecnologias funcionam e quão úteis — e às vezes perigosas — podem ser.
EQ Artificial
A maioria dos sistemas de reconhecimento de emoções existentes analisa a expressão facial e a voz de um indivíduo, bem como qualquer palavra que diga ou escreva. Por exemplo, se os cantos da boca de uma pessoa forem levantados, a máquina poderá determinar que ela esteja de bom humor, enquanto o nariz enrugado sugere raiva ou nojo. Uma voz alta e trêmula e um discurso apressado podem indicar medo, e se alguém grita a palavra “viva!”, provavelmente está feliz.
Sistemas mais complexos também analisam gestos e até levam em consideração o ambiente circundante, juntamente com expressões faciais e fala. Esse sistema reconhece que uma pessoa que está sendo forçada a sorrir com uma arma apontada para não deve estar muito feliz.
Os sistemas de reconhecimento de emoções geralmente aprendem a determinar o vínculo entre uma emoção e sua manifestação externa a partir de grandes matrizes de dados rotulados. Os dados podem incluir gravações de áudio ou vídeo de programas de TV, entrevistas e experimentos envolvendo pessoas reais, clipes de performances teatrais ou filmes e diálogos encenados por atores profissionais.
Sistemas mais simples podem ser treinados em fotos ou em corpus linguístico, dependendo da finalidade. Por exemplo, este projeto da Microsoft tenta adivinhar as emoções, o sexo e a idade aproximada das pessoas com base em fotografias.
Para que serve o reconhecimento de emoções?
A Gartner prevê que até 2022 um em cada dez aparelhos será equipado com tecnologias de reconhecimento de emoções. No entanto, algumas organizações já os estão usando. Por exemplo, ao entrar em um escritório, banco ou restaurante, os clientes podem ser recebidos por um robô amigável. Aqui estão apenas algumas áreas em que esses sistemas podem ser benéficos.
Segurança
O reconhecimento de emoções pode ser usado para prevenir a violência – doméstica ou não. Artigos científicos abordaram essa questão e empreendedores estão vendendo esses sistemas para escolas e outras instituições.
Recrutamento
Algumas empresas implantam IA capaz de reconhecimento de emoções como assistentes de RH. O sistema avalia palavras-chave, entonações e expressões faciais dos candidatos no estágio inicial — que consome mais tempo — do processo de seleção e compila um relatório para os recrutadores humanos sobre se o candidato está realmente interessado na posição e etc.
Foco no cliente
O órgão responsável pelas Estradas e Transportes de Dubai lançou este ano um sistema interessante em seus centros de atendimento ao cliente, com câmeras equipadas com inteligência artificial que comparam as emoções das pessoas quando entram e saem do prédio para determinar seu nível de satisfação. Se a pontuação calculada cair abaixo de um determinado valor, o sistema aconselha os funcionários do centro a tomar medidas para melhorar a qualidade do serviço. (As fotos dos visitantes não são salvas por questões de privacidade.)
Socialização de crianças com necessidades especiais
Outros projetos têm como objetivo ajudar crianças autistas a interpretar os sentimentos das pessoas ao seu redor. O sistema funciona com óculos inteligentes Google Glass. Quando a criança interage com outra pessoa, os óculos usam gráficos e sons para fornecer pistas sobre as emoções dela. Testes mostraram que as crianças se socializam mais rapidamente com esse ajudante virtual.
Qual a eficácia dos detectores de emoção?
As tecnologias de reconhecimento de emoções estão longe de serem perfeitas. Um exemplo é a tecnologia de detecção de agressões implantada em muitas escolas dos EUA. Como se vê, o sistema considera uma tosse mais alarmante do que um grito assustador.
Pesquisadores da Universidade do Sul da Califórnia descobriram que a tecnologia de reconhecimento facial também é fácil de enganar. A máquina associa automaticamente certas expressões faciais a emoções específicas, mas não consegue distinguir, por exemplo, sorrisos maliciosos ou exultantes dos genuínos.
Como tal, os sistemas de reconhecimento de emoções que levam em consideração o contexto são mais precisos. Mas eles são mais complexos e existem em menor número.
É importante considerar não apenas o que a máquina está olhando, mas para que foi treinada. Por exemplo, um sistema treinado em emoções encenadas pode ter dificuldades com as da vida real.
Emoções como dados pessoais
A disseminação de tecnologias de reconhecimento de emoções levanta outra questão importante. Independentemente de sua eficácia, esses sistemas invadem o espaço pessoal das pessoas. Considere, por exemplo, o seguinte cenário: você gosta de uma roupa de uma pessoa aleatória e, antes que perceba, está sendo bombardeado com anúncios de roupas da mesma marca. Ou você faz uma careta de desaprovação durante uma reunião e, posteriormente, é preterido para promoção.
De acordo com a Gartner, mais da metade de todos os residentes dos EUA e da Grã-Bretanha não querem que a IA interprete seus sentimentos e humor. Enquanto isso, em alguns lugares, as tecnologias de reconhecimento de emoções – e faciais – são proibidas por lei. Em outubro, por exemplo, a Califórnia introduziu uma legislação que proíbe os policiais de gravar, coletar e analisar informações biométricas usando câmeras usadas no corpo, incluindo expressões faciais e gestos.
Segundo os redatores da lei, o uso da tecnologia de reconhecimento facial é o mesmo que exigir que os transeuntes mostrem seu passaporte a cada segundo. Ele viola os direitos dos cidadãos e pode levar as pessoas culpadas de má conduta de pequena importância, como ter uma multa de estacionamento não paga, a desconfiar de denunciar crimes mais graves à polícia.
Inexistência artificial de emoções
O problema da privacidade é tão grave que enganar os detectores de emoções é até objeto de pesquisa científica. Por exemplo, cientistas do Imperial College London desenvolveram uma tecnologia de preservação da privacidade que remove sentimentos da voz humana. O resultado é que um assistente de voz equipado com tecnologia de reconhecimento de emoções pode entender o significado do que é dito, mas não interpretar o humor do interlocutor.
O estabelecimento de limites para a IA certamente complicará o desenvolvimento da empatia nos sistemas de IA, que até agora são propensos a erros. Mas é bom ter uma salvaguarda, caso nosso mundo se transforme em Black Mirror , as máquinas comecem a bisbilhotar profundamente dentro de nosso subconsciente. Afinal, não devemos contar com o reconhecimento de emoções sendo descartado completamente, especialmente porque em algumas áreas a tecnologia realmente faz o bem.