FORMANDO ENGENHEIROS E LÍDERES

FORMANDO ENGENHEIROS E LÍDERES

Na Escola Politécnica da Universidade de São Paulo (Poli/USP) inovação se faz desde a graduação. Exemplo disso é o trabalho de conclusão de curso de Keila Keiko Matsumura e Roberto Sonnino, que mereceu o prêmio de melhor projeto do curso de Engenharia de Computação no ano de 2011. Ambos desenvolveram um sistema que possibilita manipular imagens em 3D usando apenas as mãos e comandos de voz. A inovação, neste caso, consistiu na interação com um objeto em 3D de uma forma muito próxima da holografia, sem nenhuma ajuda de elementos gráficos ou de texto, tais como ícones, cursores e menus.

O Fusion4D (Interface Natural e Imersiva para Manipulação de Objetos 3D), nome dado ao sistema, foi criado a partir do Kinect da Microsoft – a base da tecnologia que permite aos jogadores do Xbox 360 interagir com os jogos eletrônicos sem a necessidade de joystick.

“O maior desafio do nosso projeto foi fazer a interface sem utilizar ícones ou menus, como se o objeto estivesse no ar”, explica Sonnino. Em computadores, e mesmo nos videogames de última geração, as pessoas utilizam o mouse, o cursor e os menus para interagirem com a máquina. “Além disso, resolvemos trabalhar com o Kinect, algo que era pouco explorado e cujos desenvolvimentos estão começando agora”, diz.

Para a demonstração do sistema, os alunos utilizaram dois modelos em 3D: um cérebro humano e um feto. Com o uso de óculos para visão em 3D, o usuário pode ver o cérebro flutuando no ar e manipulá-lo diretamente, sem uso de qualquer instrumento além das próprias mãos. “Com comandos de voz, pode-se, por exemplo, abrir o cérebro e visualizá-lo internamente”, explica Matsumura. O 4D no nome do projeto representa a dimensão do tempo. “No caso do feto, com gestos da mão, é possível acompanhar o crescimento desde a fase em que ele é um embrião até os nove meses”, acrescenta Sonnino.

O Fusion4D faz parte de uma pesquisa mais abrangente do Laboratório de Tecnologias Interativas da Poli (Interlab), o atlas anatômico VIDA – Virtual and Interactive Distance-Learning on Anatomy, desenvolvido em parceria com o Laboratório de Pesquisa em Ambientes Interativos (LApIS), da Escola de Artes, Ciências e Humanidades (EACH) da USP, e com o Laboratório de Pesquisa em Ambientes Interativos (LPAI), do Centro Universitário Senac. Trata-se de um projeto cujo foco é desenvolver tecnologias que possam ser usadas para o ensino, incluindo a distância, por enquanto na área da saúde. Exemplo de uma aplicação seria um laboratório virtual que substituiria, pelo menos parcialmente, aulas reais de anatomia com cadáveres.

            Segundo o professor Romero Tori, que orientou os alunos junto com o professor Ricardo Nakamura, desafios importantes foram vencidos na concepção do Fusion4D, em termos de engenharia e design. “São conhecimentos que serão aproveitados no VIDA, projeto que busca desenvolver a interface do futuro, a interface holográfica, em que as pessoas vão interagir com objetos que estão no ar”, afirma ele, acrescentando que a próxima etapa do Fusion4D será o teste de validação com usuários, a ser feito em parceria com o Centro Universitário Senac, para detectar as necessidades de melhoria no sistema, e a publicação dos resultados do projeto em um periódico. E antes mesmo de o sistema resultar em um produto já há empresas interessadas nessa tecnologia contatando os alunos e o Interlab.

Veja uma demonstração e saiba mais sobre o Fusion4D: http://bit.ly/sabvS4

Print Friendly, PDF & Email