Escola Politécnica da USP

usp.br

  • Aumentar tamanho da fonte
  • Tamanho da fonte padrão
  • Diminuir tamanho da fonte
Início Comunicação Notícias Arquivo de notícias Robôs que entendem emoções humanas

Robôs que entendem emoções humanas

Robôs que entendem emoções humanas

Pesquisa da Poli abre caminho para que computadores compreendam a conotação emocional da fala e reações.

“Eu não gosto de verduras”, diz Frank, um idoso que vive sozinho no interior dos Estados Unidos. “Mas elas são importantes para a sua saúde”, retruca o robô. “Ainda mais com a dieta que vem levando.” A cena entre o vovô e o androide zeloso faz parte do filme americano Robot & Frank (2012) e, apesar de ainda distante, está cada vez mais próxima de se repetir na vida real. Duas dissertações de mestrado do Laboratório de Robôs Sociáveis da USP apresentaram os mais recentes esforços dos cientistas em impregnar nas máquinas nuances de relações autenticamente humanas. A ideia é criar uma nova geração de máquinas capazes de auxiliar os seres humanos em suas tarefas diárias, como se lembrar dos aniversários ou mesmo de fazer uma ligação importante, indo além dos assistentes de voz que já existem para celulares e computadores.

Especialistas da chamada Computação Afetiva, braço da Engenharia que estuda a representação da emoção humana em robôs, os engenheiros Diego Cueva e Rafael Gonçalves, orientados pelo Prof. Dr. Fabio Gagliardi Cozman, do Departamento de Engenharia mecatrônica, lançaram-se a um desafio nada modesto: desenvolver um algoritmo capaz de reconhecer a emoção de seres humanos em diferentes meios, como vídeo, áudio e até redes sociais. Para se ter ideia do tamanho do problema, estudos recentes mostram que a frase “Eu sou um homem”, pode ter 140 significados diferentes, dependendo do contexto, momento e entonação.

Os trabalhos de Cueva e Gonçalves fazem parte de um projeto maior, orquestrado por Cozman e pelo Prof. Dr. Marcos Pereira-Barretto, coordenador do Laboratório de Robôs Sociáveis. O objetivo é fazer parte da coalisão brasileira no esforço mundial em criar robôs capazes de compreender os humanos e agir de acordo. “Não queremos criar extra-terrestres ou seres que vão dominar o mundo”, brinca Barretto. “Assim como o carro nos ajuda na locomoção e uma máquina de café na preparação de uma bebida saborosa, a ideia é desenvolver seres que possam ser significativamente úteis aos humanos”, diz. “Queremos ir além da Siri, o assistente eletrônico da Apple para celulares e tablets, promovendo diálogos inteiros com as máquinas em vez de frases curtas e pontuadas”.

Desde a década de 1980 que cientistas tentam criar androides e replicar o comportamento humano em máquinas. Mesmo estando relativamente fora do circuito principal de tecnologia robótica, o Brasil oferece muito espaço para a execução de um projeto científico tão ambicioso. “A maior parte do trabalho já desenvolvido na área de Computação Afetiva serve para a língua inglesa”, explica Barretto. “O trabalho da Poli, e de outros centros de pesquisa brasileiros, se concentra no português do Brasil e constroi, tijolo por tijolo, as bases para que no futuro, quando a tecnologia alcançar maturidade necessária, nossa língua não fique de fora.”

Já existem dispositivos que analisam no ato qual emoção melhor se aproxima de um rosto numa foto. Contudo, essa técnica está longe de ser a ideal. “A análise de fotos por vezes engana o observador, pois o algoritmo poderia identificar raiva, quando na verdade o fotografado estaria pronunciando uma vogal fechada”, diz Barretto. O desafio então é ter os mesmos resultados dos algoritmos instantâneos, mas com imagens em movimento, que se aproximam das situações reais.

A pesquisa de Gonçalves e Cueva dão passos nessa direção. Gonçalves desenvolveu um programa de computador que percorreu trechos de 5 segundos de vídeo e identifica as alterações na musculatura da face que caracterizam sentimento de alegria ou medo, por exemplo. De acordo com resultados preliminares, o trabalho de Gonçalves conseguiu identificar (em vídeos gravados especialmente para o mestrado) com 90% de acerto quatro tipos de emoção em seres humanos; alegria, tristeza, raiva e medo.

Cueva analisou a conotação que as palavras têm nos diálogos. Pegando trechos de áudio, o especialista comparou os dados de um algoritmo de reconhecimento de emoção de voz com informações publicadas no Twitter, a rede social de microblogs. “A palavra ‘viagem’, por exemplo, possui uma conotação mais positiva”, explica Barretto. Cueva buscou indicadores na rede para descobrir qual impressão geral que as pessoas na rede social têm sobre algumas palavras. “Morte, por outro lado, é mais associada a coisas negativas”, diz Barretto.

Apesar de promissores, os trabalhos desenvolvidos na Poli representam passos iniciais de uma área que tem muito a crescer. “Não tenho expectativa de ver esses robôs funcionando no meu tempo de vida”, explica Barretto. “Simular o comportamento humano, mesmo em situações ridiculamente simples é estupidamente difícil.” Apesar disso, os pesquisadores seguem confiantes. “Ainda estamos longe do objetivo principal, mas a cada dia descobrimos uma coisa nova.”