Aug 2013 - Aug 2013
Interfaces baseadas no olhar utilizam rastreadores de olhar (Eye Gaze Trackers) como dispositivo de entrada. Tais dispositivos informam ao computador a posição sobre o monitor observada pelo usuário a cada instante. Ao associar o cursor à posição do olhar, o apontamento de objetos da interface pode ser feito de forma bastante natural, porém a seleção dos objetos ("clicar'' com o olhar) continua um problema que ainda não foi resolvido satisfatoriamente. Dentre os métodos sugeridos podemos citar o piscar do olho, gestos do olhar e tempo de latência (ou dwell time). Essa última alternativa, talvez devido a sua simplicidade, é a mais utilizada até o momento. A ideia é que o usuário precisa manter o olhar fixo sobre um objeto (por um período de latência), para selecioná-lo. Apesar de simples, utilizando um tempo de latência muito curto temos o problema conhecido como "toque de Midas'', onde todo o objeto observado pelo usuário é ativado. Caso o tempo seja longo, a interação se torna lenta. Este projeto propõe a investigação da alternância entre contextos como novo paradigma de ativação em interfaces baseadas no olhar. Tal paradigma, proposto recentemente por nosso grupo, oferece maior conforto (pois elimina o problema do toque de Midas) e velocidade (pois associa a seleção a um movimento rápido do olhar). Como resultado dessa pesquisa, serão criados aplicativos computacionais controlados pelo olhar mais eficientes e genéricos que os atuais. Essa tecnologia deve facilitar a comunicação de pessoas portadoras de deficiências físicas, permitindo-lhes uma maior integração social, e todos os aplicativos serão disponibilizados como software livre.