FORMANDO ENGENHEIROS E LÍDERES

FORMANDO ENGENHEIROS E LÍDERES

Uma tese de doutorado, defendida na Escola Politécnica da Universidade de São Paulo (Poli-USP), resultou num sistema que permite que computadores reconheçam gestos feitos com uma ou com as duas mãos de uma pessoa. Desenvolvido pelo então aluno de pós-graduação do Departamento de Engenharia de Computação e Sistemas Digitais (PCS), João Luiz Bernardes Júnior, o trabalho tem como objetivo melhorar a interação em aplicações 3D, principalmente aquelas voltadas para o ensino e o entretenimento. Ele se insere num contexto em que o interesse dos pesquisadores pela possibilidade de interagir com computadores usando as próprias mãos e gestos tem crescido cada vez mais. O trabalho foi orientado pelo professor Romero Tori.

Segundo Bernardes, com maior acesso a dispositivos de captura de imagens interativos e a grande capacidade de processamento, atualmente já é possível fazer uso de gestos com as mãos livres, sem a necessidade de luvas ou sensores presos ao usuário, mesmo em computadores ou outros dispositivos domésticos. Com isso, a pesquisa para seu uso em interação, que já ocorre há décadas, têm se intensificado, principalmente com base em imagens em vez de sensores na pessoa. “Já existem até mesmo produtos comerciais, como televisores ou computadores portáteis, controlados em parte por gestos simples com uma das mãos”, diz ele. Isso também ocorre com alguns jogos eletrônicos.

O problema, de acordo com Bernardes, é que a maioria dos sistemas existentes, comercialmente ou em pesquisa, é limitada ao uso de um único tipo de gesto (ou só estáticos ou só dinâmicos, por exemplo), com um pequeno conjunto de variações, o que pode dificultar seu uso. Além disso, muitas soluções comerciais são proprietárias (é preciso pagar por elas) e as acadêmicas são difíceis de usar, pois exigem conhecimentos específicos dos desenvolvedores da interface, como reconhecimento de padrões ou aprendizado de máquina. “É comum que também necessitem de ambiente ou iluminação controlados, posicionamento preciso do equipamento ou processos complexos de calibração”, acrescenta Bernardes. “Cada um desses fatores restringe o uso desse tipo de interface.”

Por isso, em seu trabalho a intenção dele foi minimizar esses problemas, criando um sistema que funcionasse de forma simples para o usuário e o desenvolvedor. O que Bernardes criou não precisa usar nenhum quarto preparado com, por exemplo, paredes de uma certa cor ou com uma iluminação controlada. Além disso, é necessária somente uma câmera de baixo custo – uma webcam normal, de cerca  R$ 50,00, em vez de um equipamento como o Kinect, da Microsoft, por exemplo, que pode chegar a R$ 500,00.

Embora o baixo custo seja uma vantagem importante, a principal qualidade e característica do sistema desenvolvido por Bernardes, e que outros parecidos não tem, é que ele pode reconhecer um número enorme de gestos, que chega a ordem de dezenas de milhares. “Claro que a pessoa que estiver usando o programa não vai precisar aprender todos esses gestos, deve usar no máximo 10 ou 20 de cada vez”, explica o pesquisador.

Uma vez que o computador seja capaz de reconhecer esses gestos, eles podem ser usados como uma forma de interagir com a máquina, de dar comandos a ela, ou mostrar como algo deve ser movido ou rotacionado, por exemplo, usando as mãos e em 3D.  “Para muitas aplicações, isso é mais fácil, agradável, divertido ou mais adequado do que usar equipamentos comuns como teclado e mouse”, diz Bernardes. “Mas é claro que, para muitas atividades, os modos tradicionais de operar o computador continuam sendo a melhor opção.”

A primeira versão do sistema já foi testada e mostrou bons resultados na precisão do reconhecimento dos gestos. A velocidade com que é feito o reconhecimento foi melhor ainda, sendo extremamente rápida, mostrando diversas formas diferentes de usar gestos. A intenção de Bernardes agora é continuar aperfeiçoando o programa. “Apesar de o doutorado já ter terminado, continuamos trabalhando no seu desenvolvimento”, explica. “As prioridades atualmente são melhorar a precisão em condições ruins de iluminação e fundo, eliminar algumas restrições do sistema e então realizar testes com mais pessoas, pois até agora eles só foram feitos com um número pequeno de usuários.”

Veja vídeo com o funcionamento do sistema:

Print Friendly, PDF & Email