segunda-feira, 9 de outubro de 2017

Trabalho de G1

ESSA POSTAGEM PARTE DO PRINCÍPIO DE QUE A POSTAGEM ANTERIOR FOI LIDA


O que
O que é o projeto, para que serve, o que ele faz.

        BlinkIt é um sistema que une Oculus Rift e Realidade Virtual à um detector de piscadas de olho de forma à ajudar pessoas tetraplégicas em comunicações não verbais ou gestuais (em geral). Projeto de Março de 2016 da Universidade Johns Hopkins (que tem várias pesquisas que integram tecnologia à medicina), chefiado por mestres em engenharia biomédica.
      Segundo os pesquisadores, a tecnologia atual do mercado é muito cara, pouco ergonômica (usabilidade ruim), muito complexa e pouco confiável (ocorrem muitas falhas de comunicação entre o detector e o aparelho de realidade virtual), e a proposta do BlinkIt soluciona esses problemas. Ao invés de usar um rastreador de pupíla (como os competidores) eles utilizam um sistema de piscadas de olho que permitem o usuário escrever palavras em telas secundárias de acordo com a ordem em que pisca seus olhos esquerdo e direito.  O usuário foca seu olhar em pontos da tela do Oculus Rift que apresentam imagens e o processador mostra uma mensagem no centro da tela do computador para que outras pessoas entendam o que ela quer.


Porque
Qual a importância desse projeto, por que ele chamou a sua atenção.

       Esse projeto é recente (pouco menos de dois anos) e é muito focado no sentido da visão, mas de maneira que torne possível (e mais fácil) a interação entre tetraplégicos e seus familiares/amigos/parceiros. Acredito que a tecnologia de reconhecimento de piscadas de olho, de movimento ocular e foco ocular (usadas tanto por esse projeto quanto por similares) é uma área muito fértil para se trabalhar em relação ao futuro e que demande pouco esforço em relação ao usuário para realizar tarefas. O fato de ser projetado para pessoas com dificuldade para se comunicar o torna ainda mais interessante, por utilizar os sentidos como forma de comunicação.



Image result for oculus rift
Oculus Rift


Como
Como funciona, especificações técnicas.

             Tive dificuldade de achar informações sobre o funcionamento do projeto de maneira bem explicada. Aparentemente, o Oculus Rift foi hackeado de forma que tenha reconhecimento de posicionamento de pupila e de piscada do usuário por meio de iluminação de infravermelho e/ou eletrooculografia (as duas mais comuns existentes atualmente). O eletrooculograma posiciona sensores ao redor dos olhos que sentem o movimento da retina conforme o paciente os move e determina, assim, a posição da pupila. O usuário não pode mover muito a cabeça, pois podem haver falhas na leitura. 
       A comunicação entre o Oculus Rift e a tela (que pode ser de um PC) é mediada pelo processador que traduz as piscadas em palavras. O processador pisca luzes conforme o usuário move seus olhos e pisca, e transfere a informação para a tela do computador, para que outras pessoas vejam o que o usuário do Oculus Rift vê. A engine do PC é usada para fazer os óculos funcionarem, e necessita de no mínimo:






Leitor de piscadas de luz natural. Ele subtrai as imagens umas das outras
e gera a D, que o ajuda a identificar se o olho está aberto ou fechado.
Exemplo de um eletrooculograma. A altura dos traços indica se o olho
está fechado ou aberto; o comprimento indica por quanto tempo.
As piscadas tem de ser mais longas que 1/4s para serem reconhecidas
 pelo aparelho como voluntárias.


Modificações 
Criticar eventuais falhas ou deficiências na situação pesquisada e sugerir alternativas ao partido adotado.

          Creio que um dificultador seja a necessidade de tanto o processador quanto o computador existirem no processo de comunicação. O usuário deve estar próximo dos óculos e estes estarem conectados ao processador e ao computador para que outras pessoas consigam saber o que ela quer, a quantidade de fios e hardware diferentes envolvidos nessa comunicação provavelmente é exagerada. 
    Outra questão é que eles criticam o uso de tecnologias que utilizam reconhecimento de localização de pupila mas a utilizam na hora de o usuário escolher para qual das opções deve olhar para pedir o que quer. Isso sem falar que não consta nada sobre reparo de erros (segundo a pesquisa que fiz).  
       Em um similar, é estimado que palavras de 4 a 5 letras demorem cerca de 50s para serem escritas pelo sistema, o que é muito demorado. Talvez fosse necessário o reconhecimento de mais tipos de piscada e/ou a inserção de outros sentidos que não somente a visão.
      Por fim, como esta tecnologia usa o movimento da pupila e a piscada de olhos, quem sabe ela possa ser utilizada para outras coisas. Esse sistema é similar ao uso de um mouse, e talvez possa ser adaptado para a interação com um computador. As piscadas em si também podem ser usadas para, caso o sistema esteja conectado ao ambiente, ligar uma luz ou abrir uma porta automaticamente à distância (ou até outras coisas) por meio das imagens presentes. 
         Por que não ter uma imagem de lâmpada que ao invés de mostrar uma frase na tela, manda uma mensagem para a iluminação do ambiente e as ligue ou apague? Por que não ter uma imagem de câmera, que permite o usuário ver o que acontece em outros pontos de uma construção pelas câmeras dela? Há muitas opções de uso.

                                               


Referências:

https://studentaffairs.jhu.edu/dmc/blinkit-quadriplegic-communicator/

https://link.springer.com/article/10.1007/s10209-011-0256-6

https://en.wikipedia.org/wiki/Eye_tracking

https://en.wikipedia.org/wiki/Electrooculography

https://en.wikipedia.org/wiki/Infrared_detector

https://www.oculus.com/rift/

Nenhum comentário:

Postar um comentário