Post on 23-Nov-2018
Arthur Theil Cabreira
Pensando interfaces naturais baseadas na interação gestual: contribuições no campo do design de
interação humano-computador
Monografia apresentada ao curso de Bacharelado em
Design Digital da Universidade Federal de Pelotas, como
requisito parcial para conclusão do mesmo, sob orientação
do Prof. Tobias Mülling.
Pelotas, 2013
3
Agradecimentos
Aos meus pais, por me apoiarem e me darem suporte para persistir nas minhas escolhas
e sonhos.
Ao professor e orientador Tobias Mülling por acreditar no meu potencial, incentivar e
aceitar o desafio de orientar mesmo à distância.
À Bruna e Larissa por serem grandes companheiras e serem minhas maiores
incentivadoras.
À banca examinadora, Ana Bandeira e Pablo Lisboa, pelas contribuições acrescidas ao
trabalho.
Mais do que máquinas,
Precisamos de humanidade.
- Charles Chaplin
4
CABREIRA, Arthur Theil. Pensando interfaces naturais baseadas na interação
gestual: contribuições no campo do design de interação humano-computador.
Pelotas: 2013. Monografia (Bacharelado em Design Digital) – Universidade Federal de
Pelotas, 20113.
Resumo
Este trabalho tem como objetivo analisar o conceito de interfaces naturais do usuário e
refletir sobre suas qualidades e limitações no contexto da interação humano-
computador, explicitando o papel do design durante o projeto. Os principais autores que
guiaram a fundamentação teórica da pesquisa foram Wigdor & Wixon (2011) e Saffer
(2008), dando destaque para a interação gestual como um tipo de interface natural. Foi
desenvolvido um estudo de caso da vitrine baseada em interação gestual chamada
“Virtual Shoe Fitting” s partir dos elementos da experiência do usuário de Garrett.
Palavras-chave: Interfaces Naturais do Usuário, Interação Gestual, Kinect, Interação
Humano-computador.
5
CABREIRA, Arthur Theil. Designing natural user interfaces basead on gestural
interactions: contributions in the field of human-computer interaction design.
Pelotas: 2011. Monograph (Bachelor in Digital Design) – Federal University of Pelotas,
2011. 100p.
Abstract
This study aims to analyze the concept of natural user interfaces and clarify their
strengths and limitations in the field of human-computer interaction, explaining the role
of design throughout the project. The main authors who guided the theoretical
foundation of the research were Wigdor & Wixon (2011) and Saffer (2008),
highlighting the gestural interaction as a type of natural interface. A study case was
developed based on gestural interaction showcase called "Virtual Shoe Fitting"starting
from the Garrett’s elements of the user experience.
Keywords: Natural User Interfaces, Gestural Interactions, Kinect, Human-computer
Interaction.
6
Lista de Figuras
Figura 01 – Interação gestual no filme “Minority Report”............................................ 09
Figura 02 – Interface linha de comando (CLI)............................................................... 16
Figura 03 – Interface gráfica do usuário (GUI).............................................................. 17
Figura 04 – Interação gestual no Kinect........................................................................ 28
Figura 05 – Interação gestual no Kinect........................................................................ 29
Figura 06 – A figura humana na labanotação................................................................ 32
Figura 07 – O sistema de labanotação .......................................................................... 33
Figura 08 – O sistema Benesh ...................................................................................... 34
Figura 09 – A esfera da notação EWMN ..................................................................... 34
Figura 10 – Exemplo de planilha para notação EWMN .............................................. 35
Figura 11 – Exemplo de fluxo de tarefas ...................................................................... 38
Figura 12 – Exemplo de documentação do ambiente .................................................. 39
Figura 13 – Exemplo de protótipo de papel .................................................................. 41
Figura 14 – Exemplo de storyboard para uma interface touchscreen .......................... 42
Figura 15 – Exemplo de storyboard utilizando fotografia ........................................... 42
Figura 16 – Quadros-chave de animação de uma interação gestual ............................. 44
Figura 17 – Interações mostradas no vídeo “Kinect Effect".......................................... 44
Figura 18 – Exemplo de protótipo de alta fidelidade..................................................... 45
Figura 19 – Vitrine “Virtual Shoe Fitting” que utiliza interação gestual ..................... 48
Figura 20 – Usuário utilizando o celular para comprar calçado presente na vitrine..... 49
Figura 21 – Imagens da vitrine “Virtual Shoe Fitting”................................................. 50
Figura 22 – Planos propostos por Garrett para representar a experiência do usuário ... 51
Figura 23 – Características a serem pensadas em cada plano da experiência do us.... 52
Figura 24 – Simulação de como os sensores leem o corpo do usuário......................... 53
Figura 25 – Estrutura hierárquica proposta por Garrett ............................................... 54
Figura 26 – Fluxo de tarefas presentes no “Virtual Shoe Fitting”................................ 55
Figura 27 – Plano de superfície do Virtual Shoe Fitting.............................................. 60
7
Sumário
Introdução ...................................................................................................................... 09
Problema de pesquisa ...................................................................................................... 11
Objetivos .......................................................................................................................... 11
Objetivo geral ............................................................................................................... 11
Objetivos específicos .................................................................................................... 11
Proposta de desenvolvimento metodológico ................................................................... 12
Descrição dos capítulos ................................................................................................... 13
1 Interação e interfaces ................................................................................................. 15
1.1 Interação humano-computador e design de interação ............................................... 15
1.2 Trajetória das interfaces do usuário (UI) ................................................................... 16
1.2.1 Interface linha de comando (CLI) ...................................................................... 16
1.2.2 Interfaces gráficas do usuário (GUI) .................................................................. 17
1.3 Interfaces naturais do usuário .................................................................................... 17
1.3.1 Características de interfaces naturais do usuário ................................................. 19
2 Interfaces naturais e gestos ........................................................................................ 20
2.1 Interfaces naturais baseadas na interação gestual ...................................................... 20
2.2 Interações gestuais sob o panorama das interfaces naturais do usuário .................... 25
2.3 Projetando interfaces naturais baseadas na interação gestual .................................... 26
2.4 Kinect e aplicabilidade das interações gestuais ......................................................... 28
3 Documentação e prototipação ................................................................................... 30
3.1 Documentando Interfaces Naturais Baseadas em Interação Gestual ......................... 30
3.2 Prototipando Interfaces Naturais Baseadas em Interação Gestual ............................ 39
4 Görtz Shoes e sua vitrine baseada em interação gestual ......................................... 47
4.1 Materiais .................................................................................................................... 49
4.2 Metodologia e fundamentação teórica ....................................................................... 50
4.3 Plano da estratégia ..................................................................................................... 52
4.4 Plano de escopo ......................................................................................................... 53
4.5 Plano de estrutura ...................................................................................................... 53
8
4.6 Plano de esqueleto ..................................................................................................... 56
4.7 Plano de superfície..................................................................................................... 59
4.8 Interação natural ........................................................................................................ 60
Considerações finais ...................................................................................................... 62
Referências ..................................................................................................................... 64
9
Introdução
Em 2002, Steven Spielberg dirigiu o filme de ficção científica Minority Report1 onde
Tom Cruise fazia o papel de John Anderton, um detetive atuante na cidade de
Washington. Ambientada no futuro próximo de 2054, a obra cinematográfica
apresentava a divisão “pré-crime”, uma espécie de elite policial responsável por
solucionar assassinatos antes mesmo deles acontecerem, através de informações
fornecidas a partir de visões concebidas por três entidades videntes chamadas
“precogs”. Assim, quando eles tinham uma visão, o nome da vítima era mostrado em
uma esfera enquanto o nome do assassino era apresentado em outra. Junto a isso, eram
disponibilizadas imagens e o horário exato do crime, fazendo com que o grupo de
policiais trabalhasse para evitar o assassinato. O enredo apresenta uma reviravolta
quando Anderton, líder da equipe de policiais, aparece em uma das visões dos precogs
como assassino de um desconhecido, pondo em questão sua confiança no sistema e,
consequentemente, tornando-o alvo da investigação policial.
Figura 1 – Interação gestual no filme “Minority Report”
Fonte: IMDb
O filme dá suporte para várias discussões pertinentes, como, por exemplo, o dilema
“pode uma pessoa ser julgada e, consequentemente, presa por um crime que nunca
chegou a cometer?”, além de outros debates éticos. Porém, uma das questões cruciais a
respeito das indagações propostas pela ficção dirigida por Spielberg concerne na
1 Informações, dados, imagens e sinopse disponíveis em: <http://www.imdb.com/title/tt0181689/>.
Acesso em: 15.dez.2012.
10
importante reflexão em relação ao modo como o futuro e nossa relação com a
tecnologia são mostrados na obra. Fomos apresentados à clássica cena na qual Tom
Cruise interage com um enorme display enquanto arrasta, amplia e manipula imagens
utilizando apenas os gestos de suas mãos, sem necessariamente entrar em contato com
qualquer superfície. A interface presente no filme, projetada pelo designer John
Underkoffler, serviu como antecipação de uma realidade em que hoje podemos nos
considerar inclusos.
Dez anos se passaram desde o lançamento do longa e a tecnologia experienciada em
2054 não é mais ficção. Estamos envoltos em um cotidiano no qual smartphones e
tablets dependem do deslizar de nossos dedos para funcionarem e a cada semestre novos
dispositivos são lançados no mercado, capazes de realizar uma gama infinita de novas
funções e de múltiplas formas, como é o caso do Kinect, sensor que revolucionou o
modo de jogar videogame ao permitir que os jogadores utilizassem o movimento do
próprio corpo para interagir com o jogo. Sendo assim, a tecnologia não é mais um
obstáculo no que tange a interação humano-computador e, hoje, é possível imaginar
diferentes formas de interação, apropriando-se de meios de comunicação naturalmente
humanos, como a interação gestual e o reconhecimento de fala. Essa efervescência
tecnológica abre espaço para discussões referentes ao pensamento em torno de
interfaces naturais do usuário, um conceito que propõe uma visão que se distancia da
maioria dos paradigmas pré-existentes e se concentra na construção de uma interação
naturalmente humana, tornando-as mais fluídas e intuitivas.
Diariamente, somos forçados a navegar por sistemas complexos para obter simples
informações. Somos obrigados a interagir com interfaces não-amigáveis, incoerentes e
que nos causam frustrações de diferentes níveis. Desse modo, usuários ocupam seu
tempo focando esforços na própria interface e como utilizá-la ao invés de direcionar
seus esforços no trabalho que deve ser feito e em seus próprios objetivos. Questiona-se,
assim, a possibilidade de pensar a interação de uma forma natural para o usuário,
desprendendo-se de mecanismos e modelos tradicionais que muitas vezes se mostram
inerentemente inaturais.
Neste momento, revela-se o papel do designer, ao ser responsável por pensar e
estruturar essas interfaces tendo em vista a perspectiva do usuário, considerando seu
contexto de uso e suas necessidades. Percebe-se, então, a conveniência de aprofundar a
relação entre teoria e prática acerca dos desafios e possibilidades de interação humano-
computador provenientes de projetos de design envolvendo interfaces naturais e, assim,
11
contribuir para a construção de conhecimento na área. Sendo assim, este trabalho de
conclusão de curso tem a pretensão de pesquisar a respeito das interfaces naturais do
usuário e relacioná-las com a prática do design digital.
Problema de pesquisa
Partindo da premissa de que novas tecnologias oferecem a oportunidade de pensar
interações cada vez mais próximas do ser humano, vê-se a necessidade de refletir sobre
estes novos modelos de interação humano-computador e contribuir para o campo do
design de interfaces. Aspira-se, então, responder a questão: as características presentes
nas interfaces naturais do usuário são pontes efetivas para uma interação humano-
computador bem-sucedida? Esta indagação justifica-se com a ausência de ampla
literatura em português sobre o assunto, sendo formada, em sua grande maioria, por
autores de língua inglesa. Além disso, podem ser consideradas escassas as publicações
em torno do campo de estudo de interfaces baseadas em interação gestual, mesmo com
o surgimento de novos dispositivos tecnológicos que permitam sua ascenção. Logo,
tendo como foco o pensando em torno das interfaces naturais do usuário e interação
gestual, posiciona-se seu conceito e suas implicações como objeto de estudo. Desta
forma, as principais questões que norteiam o escopo da pesquisa são referentes à
pertinência do uso de interfaces naturais do usuário na interação humano-computador,
quando e como aplicá-las, suas limitações e quais são os desafios procedentes à prática
do designer ao projetá-las, além de refletir sobre o cenário futuro envolvendo estas
interfaces.
Sendo assim, pretende-se abordar fundamentos do design de interação e interação
humano-computador para embasar a construção da investigação e responder o problema
de pesquisa. Há o interesse de focar o estudo nas interações gestuais para fins de
embasamento da parte prática do trabalho, que é justamente o projeto de uma interface
natural baseada em interações com gestos.
Objetivos
Esta pesquisa tem como principal objetivo o entendimento do conceito e de como o uso
de interfaces naturais podem contribuir no campo da interação humano-computador,
além de fornecer subsídios para guiar o projeto de interfaces baseadas nestes modelos
emergentes de interação. Além disso, outras metas da investigação concernem em
12
discussões sobre as características de interfaces naturais, catalogando padrões e práticas
para guiar a prática do designer. Outro intuito específico da pesquisa é a compreensão
de como a inclusão do usuário no processo projetual (design participativo) pode facilitar
no pensamento de interfaces naturais. Não obstante, a pesquisa pretende orientar uma
reflexão sobre as qualidades e limitações do conceito de interfaces naturais do usuário e,
por isso, propõe-se, ao final do aporte teórico, o desenvolvimento de um estudo de caso
referente à vitrine interativa “Virtual Shoe Fitting” que é baseada em interação gestual e
rastreamento do corpo humano. Este trabalho de conclusão de curso não anseia o
desenvolvimento de um projeto prático de design, mas sim, visa-se utilizar o referencial
englobado na pesquisa para estabelecer uma relação intrínseca entre a teoria e a prática
e contribuir para os estudos no campo do design de interfaces naturais do usuário
baseadas em interação gestual.
Proposta de desenvolvimento metodológico
Trata-se de uma pesquisa de natureza aplicada, com abordagem qualitativa, tendo como
suporte o procedimento exploratório do tema ligado às interfaces naturais do usuário.
Há a conveniência de atribuir um recorte ao tema, focando nas interações gestuais por
serem meios de interação em grande expansão e com aplicabilidades diversas, servindo
como embasamento para o desenvolvimento da parte aplicada do trabalho. Além de
levantar informações a respeito do objeto de estudo, o intuito da pesquisa prevê a
interpretação do material levantado através de uma análise reflexiva de suas
manifestações.
A pesquisa exploratória busca levantar informações sobre um determinado
objeto, delimitando assim um campo de trabalho, mapeando as condições de
manifestação desse objeto. Na verdade, ela é uma preparação para a pesquisa
explicativa. A pesquisa explicativa é aquela que, além de registrar e analisar
os fenômenos estudados, busca identificar suas causas, seja através da
aplicação do método experimental/matemático, seja através da interpretação
possibilitada pelos métodos qualitativos (SEVERINO, 2003, p.123).
Com isso, a revisão bibliográfica foi fundamentada através de autores como Preece
(design de interação), Norman (usabilidade e experiência do usuário), Bonsiepe (design
e cultura), Santa Rosa & Moraes (design participativo e ergodesign), Wigdor & Wixon
(interfaces naturais do usuário), Saffer (interação gestual), Buxton (interação) e Garrett
(experiência do usuário). Após o levantamento bibliográfico de fontes acerca do foco
da investigação (publicações, projetos, estudos, protótipos), dá-se a catalogação e
13
análise dos dados levantados para atribuir respostas às questões norteadoras da
pesquisa, além de conciliar os resultados em um estudo de caso, a fim de verificar a
abordagem prosseguida e os procedimentos adotados.
Descrição dos capítulos
O trabalho mostra-se estruturado em 4 capítulos, englobando uma perspectiva que vai
da teoria à prática. Sendo assim, pode-se determinar um procedimento estrutural
seguindo, primeiramente, a abordagem de fundamentos e reflexões primordiais e,
posteriormente, a contextualização destes conceitos aplicados. Ao final, pretende-se
gerar uma reflexão a respeito dos resultados da pesquisa.
Sendo assim, no primeiro capítulo 1 são tratados de conceitos e reflexões fundamentais
a respeito da interação humano-computador e design de interação, além de apresentar,
brevemente, a trajetória das interfaces digitais e aspectos culturais das interfaces, além
de expor a noção de interfaces naturais do usuário. Ao final do capítulo, são expostas
algumas reflexões sobre o design centrado no usuário.
No capítulo 2, é apresentada a noção de interações gestuais relacionadas às interfaces
naturais do usuário, além de comparar os conceitos de Saffer (interação gestual) com os
de Wigdor & Wixon (interfaces naturais) e estruturar um guia de boas práticas para o
projeto de interfaces utilizando o conceito de interfaces naturais do usuário. Por fim, é
apresentado o Kinect, dispositivo que fez com que fosse possível a massificação do uso
das interações gestuais, relacionando-o com as reflexões acerca das interfaces naturais.
No capítulo 3, é mostrado um inventário de técnicas e métodos para documentação de
projetos de interfaces naturais baseadas em interação gestual a fim de auxiliar na
estruturação das especificações e características da interface a ser desenvolvida. Aliado
a isso, são mostradas técnicas de prototipação de interfaces no contexto da interação
gestual com o intuito de permitir ao designer modificar o projeto e melhorá-lo antes de
seu desenvolvimento final.
No capítulo final, 4, é exposto o estudo de caso desenvolvido a partir da interface da
vitrine interativa “Virtual Shoe Fitting”. O estudo foi baseado nos níveis de experiência
do usuário propostos por Garrett (2010) e teve objetivo de analisar o uso da interação
gestual, além de catalogar seus módulos gestuais e explicitar seu fluxo de tarefas
seguindo o referencial teórico exposto anteriormente neste trabalho.
14
Nas considerações finais, serão retomados o problema da pesquisa e os objetivos,
discutindo, então, as vantagens e desvantagens do uso de interfaces naturais do usuário
e interação gestual, a fim de contribuir para a área da interação humano-computador e
para a prática do designer digital.
15
1 Interação e Interfaces
1.1 Interação humano-computador e design de interação
A sociedade nunca foi a mesma depois do eclodir dos primeiros computadores e, desde
então, tem-se buscado ininterruptamente o aprimoramento das funcionalidades de
nossas máquinas. A evolução da capacidade de armazenamento e processamento de
dados dos computadores fez com que seus componentes eletrônicos se tornassem
verdadeiros sistemas complexos de valor imensurável (Landley & Raymond, 2004) e,
relacionado a isso, a maneira na qual as pessoas interagem com eles evoluiu
significativamente desde o surgimento dos gigantescos primeiros computadores digitais,
que eram programados usando-se chaves mecânicas e outros componentes analógicos.
Hoje, as pessoas interagem com máquinas de diferentes tamanhos e funções, que vão
desde o desktop no escritório, o notebook no quarto, o celular durante o almoço ou o
videogame nos finais de semana.
Enquanto as máquinas aumentaram seu poder de processamento e diminuiram em
tamanho e custo, novos formatos foram criados, novas plataformas evoluíram, novas
infra-estruturas se tornaram amplamente disponíveis, novas indústrias surgiram e novas
aplicações floresceram. Todas as tendências resultaram na democratização da
tecnologia, como o número crescente de pessoas interagindo diretamente com
computadores em contextos cada vez mais diversificados. Esta proliferação da
tecnologia transcendeu as fronteiras dos países e permeou, significativamente, todas as
classes sociais, modificando, drasticamente, a forma como as pessoas produzem,
trabalham, se divertem e interagem com os outros (Wigdor & Wixon, 2011, p. 3).
Porém, enquanto o avanço da capacidade das máquinas tem sido contínuo, as interfaces
entre usuários e computadores tem evoluído de forma descontínua e insuficiente. Desta
forma, entende-se como função da interface “permitir ao usuário obter uma visão
panorâmica do conteúdo, navegar na massa de dados sem perder a orientação e, por fim,
mover-se no espaço informacional de acordo com seus interesses” (BONSIEPE, 1997,
p.59). De fato, não se pode negar que hoje nossa relação com a tecnologia é mais
amigável e intuitiva que alguns anos atrás, porém, vale lembrar que, interagimos,
constantemente, com interfaces de diversos sistemas, produtos e serviços em diferentes
contextos por razões e necessidades distintas, sendo que, muitas vezes, nosso contato
16
com estas interfaces ainda se torna permeado por frustrações que afetam nossas
atividades cotidianas, não oferecendo o devido suporte aos usuários.
Refletindo sobre isso, percebe-se que mesmo sendo indiscutível a presença de interfaces
em nossas vidas, elas ainda encontram-se distantes de nós. Justamente por pensarmos
nelas como computadores, a relação que estabelecemos não é natural. Essa emergência
de novas tecnologias inseridas em contextos e aplicabilidades diferentes, trouxe a
necessidade de suprir uma demanda maior de requisitos e necessidades, dando foco,
principalmente, para a experiência do usuário. Neste contexto, surge o design de
interação que tem o objetivo de “fornecer suporte às atividades cotidianas das pessoas,
seja no lar ou trabalho, criando experiências que melhorem e estendam a maneira como
as pessoas trabalham, se comunicam e interagem” (PREECE et al, 2005, p.28). Para os
autores, o design de interação é multidisciplinar e resgata conhecimentos de diversas
áreas do conhecimento, como psicologia, antropologia, ciência da computação e outras.
Além disso, um de seus objetivos é otimizar a interação entre usuários e produtos,
levando em consideração contexto de uso e necessidades do usuário.
1.2 Trajetória das interfaces do usuário (UI)
Uma perspectiva amplamente aceita separa as interfaces em fases vagamente definidas
mas que podem auxiliar no entendimento da trajetória da interação humano-
computador:
1.2.1 Interface linha de comando (CLI)
As command-line interfaces (CLI) surgiram em meados dos anos 60 e a interação entre
o usuário e o sistema dava-se através e linhas de comando. Tal modelo era largamente
exclusório pois apenas indivíduos com conhecimento prévio em linguagens de
programação estavam aptos a interagir com essas interfaces nada amigáveis (Landley &
Raymond, 2004).
Figura 2 – Interface linha de comando (CLI)
Fonte: <http://lpr.brooksnet.com/sites/default/files/imported/images/isend-file.png>
Acesso em: 21.mai.2012.
17
1.2.2 Interfaces gráficas do usuário (GUI)
Em meados dos anos 80, com o incremento dos componentes gráfico-eletrônicos, houve
o surgimento das primeiras graphical user interfaces (GUI), nada mais que interfaces
gráficas que remontavam metáforas do cotidiano do usuário, fazendo com que a
interação se tornasse mais amigável (Landley & Raymond, 2004). Tal paradigma foi
responsável pela expansão dos computadores em escala global, sendo o cerne da
interação humano-computador até hoje, tornando-se a principal ponte entre as máquinas
eletrônicas e nós, usuários. Junto às interfaces gráficas, foram consolidados o uso do
mouse como input para as ações do usuário e o paradigma “WIMP” (sigla em inglês
para “janelas, ícones, menus e ponteiros”). Com isso, o pensamento de interfaces está
intrisecamente relacionado às interfaces gráficas por serem o modelo dominante na
atualidade.
Figura 3 – Interface gráfica do usuário (GUI)
Fonte: <http://img.tfd.com/cde/_GUIMOT.GIF>
Acesso em: 21.mai.2012.
1.3 Interfaces naturais do usuário
Hoje, estamos em frente de uma nova e potencial evolução no modo de interagir com
interfaces digitais. As interfaces naturais do usuário (NUI) encontram-se em uma
posição similar a que ocupada pelas interfaces gráficas no início dos anos 80. Wigdor &
Wixon (2011) defendem que as interfaces naturais prometem reduzir profundamente as
barreiras encontradas na interação humano-computador enquanto, simultaneamente,
concedem mais poder e controle ao usuário. A grande diferença entre as interfaces
18
tradicionais (GUI) e as interfaces naturais é que, ao contrário das das interfaces
tradicionais, as interfaces naturais oferecem um meio agradável para que usuários
novatos e inexperientes se tornem, rapidamente e sem esforço significativo, usuários
proficientes. Entende-se então que, uma interface natural do usuário é aquela que
oferece um caminho claro e agradável para uma interação irrefletida e intuitiva, ou seja,
que faça parecer natural o realizar de uma tarefa tanto na prática quanto em seu
aprendizado. Sendo assim, pode ser considerada uma interface que torna a experiência
do usuário agradável sem distrações significativas em sua prática. Neste sentido,
“natural” não significa cru ou primitivo mas pode ser melhor entendido pela frase “esta
pessoa é natural”, que dá a sensação de que o desempenho dela é ideal e que parece ser
fácil, sem esforços.
Com isso, durante a interação, o usuário tem a sensação de fazer parte do sistema
justamente por se tratar de uma experiência fluida e convidativa. Neste caso, o usuário
sente-se atraído e engajado a interagir com o sistema, fazendo com que sua interação
seja guiada “naturalmente”. Para isso, a interface deve refletir a capacidade do usuário,
suprir suas necessidades e tirar vantagem das características humanas, levando em conta
o contexto de uso. A grande premissa de uma interface natural é permitir que o usuário
compreenda, interaja e sinta-se fluente enquanto interagindo pela primeira vez com o
produtos ou sistema, e não depois de várias tentativas ou tempo de prática.
Ao pensar em uma interface natural do usuário, pensa-se, de acordo com Wigdor &
Wixon (2011), em uma interface que não imite ou copie paradigmas existentes, uma
interface que construa uma experiência do usuário autêntica e que resgate as habilidades
inerentes do ser humano. A interface deve permitir que o usuário, sem esforços, crie um
vínculo positivo ao interagir com ela, a ponto de se tornar invisível com o tempo.
Para os autores, interfaces naturais do usuário (NUI) devem, obrigatoriamente,
apresentar três características fundamentais: ser agradáveis, direcionar à proficiência e
ser apropriada ao contexto. As NUI devem conter estes três elementos em graus
variantes. Neste sentido, videogames e jogos eletrônicos podem ser agradáveis mas não
apresentam os outros dois elementos, sistemas de treinamento direcionam à proficiência
mas podem não ser apropriados ao contexto e, tampouco, agradáveis. Um caixa
eletrônico que utilize tela touchscreen e reconhecimento de voz pode ser apropriado ao
contexto mas dificilmente direciona à proficiência, acabando por afetar também o
elemento de agradabilidade.
19
As interfaces naturais do usuário (NUI) representam uma revolução na interação
humano-computador não por repensar o modo como interagimos com computadores
mas sim porque possibilita a expansão das máquinas para diferentes nichos, reduzindo a
curva de aprendizado e as limitações existentes no contexto de interfaces tradicionais.
1.3.1 Características de interfaces naturais do usuário
A partir das características baseadas nos autores Wigdor & Wixon (2011) e Saffer
(2008), foi construída uma tabela que cruza e categoriza as informações defendidas por
cada autor em sua área de estudo, interfaces naturais e interação gestual,
respectivamente. Esta tabela sintetiza as características que devem estar presentes em
uma interface para ser considerada natural.
Ser agradável
(Wigdor; NUI)
Direcionar à proficiência
(Wigdor; NUI)
Ser apropriada ao
contexto
(Wigdor; NUI)
Confiabilidade
(Saffer; gestual)
Detectabilidade
(Saffer; gestual)
Adequação
(Saffer; gestual)
Ser responsiva
(Saffer; gestual)
Habilidade
(Saffer; gestual)
Ética
(Saffer; gestual)
Significância
(Saffer; gestual)
Inteligência
(Saffer; gestual)
Divertimento
(Saffer; gestual)
Agradabilidade
(Saffer; gestual)
Tabela 1 – Comparativo entre autores.
Fonte: do autor
20
2 Interfaces naturais e gestos
2.1 Interfaces naturais baseadas na interação gestual
Billinghurst & Buxton (2011) definem um gesto como um movimento corporal que
contém informação. Neste contexto, acenar com a mão é considerado um gesto, assim
como o movimento realizado ao cumprimentar uma pessoa. Ao contrário deste
pensamento, o apertar de uma tecla não é considerado um gesto já que o movimento do
dedo não é observado nem significante, uma vez que o importante é, de fato, qual tecla
foi apertada. Com isso, é possível entender que o meio utilizado para apertar a tecla é
irrelevante tanto para o sistema quanto para o usuário. Segundo Saffer (2009), no
contexto da interação humano-computador, um gesto pode ser considerado como
qualquer movimento físico detectado através de sensores digitais, gerando uma resposta
sem o auxílio de mecanismos tradicionais como mouse e teclado. Deste modo, um
movimento com a cabeça, piscar de olhos ou bater palmas podem ser interpretados
como um gesto que dará subsídios para que um sistema processe uma ação. O
reconhecimento gestual não é um tópico recente, a interpretação das expressões gestuais
humanas a partir de algoritmos matemáticos está presente na pauta das ciências da
computação há décadas e, hoje, essa discussão vai além do ponto de vista técnico.
Percebe-se que a interação gestual está, antes de tudo, inclusa em um contexto
comunicacional, sendo que é um meio naturalmente humano de expressão. Gestos têm a
possibilidade de existir isoladamente ou envolver objetos externos e, relacionado a isso,
Cadoz (1994) classifica-os de acordo com sua função, podendo ser:
a) Semióticos: quando utilizados para comunicar informação significativa.
b) Manuais: quando usados para manipular e criar artefatos físicos.
c) Epistêmicos: quando utilizados para aprender com o ambiente através da
exploração tátil ou háptica.
Porém, ao centrar no entendimento de como o uso de gestos pode ser utilizado como
meio de comunicação dentro da interação humano-computador, há maneiras mais
pertinentes de categorizá-los. Rime & Schiaratura (1991), propõem a seguinte
taxonomia de gestos:
a) Gestos simbólicos: aqueles gestos que dentro de uma determinada cultura
podem ser utilizados para comunicar um significado específico.
21
b) Gestos dêiticos: são o tipo de gestos geralmente utilizados na interação
humano-computador e servem para apontar e direcionar a atenção a eventos
específicos ou a objetos ao redor.
c) Gestos icônicos: como o nome sugere, estes gestos são usados para transmitir
informações relativas a tamanho, forma ou orientação de objetos em um discurso
linguístico.
d) Gestos pantomímicos: são gestos tipicamente usados na gesticulação da fala,
com o objetivo de mostrar o movimento de uma ferramenta ou objeto
imaginário, uma mímica.
Pode-se inferir que os gestos estão intimamente relacionados à fala e ao discurso oral. O
gesto é, muitas vezes, dependente da linguagem falada e necessita dela para seu
entendimento. Com isso, apenas os gestos simbólicos podem ser interpretados sem
informação contextual mais profunda e, neste sentido, o uso da interação gestual em
interfaces está basicamente centrada nas interações de gestos simbólicos e dêiticos,
justamente por apresentarem configurações mais definidas e facilmente interpretadas
pelos sensores. É válido lembrar quão difícil pode se tornar, para um sistema, a
interpretação de um gesto e quão complexo pode se tornar um gesto ao se relacionar
intrisicamente com o discurso linguístico. Essas questões limitam a integração de gestos
mais complexos e subjetivos no desenvolvimento de interfaces baseadas na interação
gestual e muitas vezes estas interfaces fazem uso do reconhecimento de voz.
De acordo com Saffer (2009), a maioria das interfaces baseadas na interação gestual
podem ser classificadas em dois tipos distintos de interação, sendo elas:
a) Interações touchscreen: esse primeiro tipo de interface gestual pressupõe
que o usuário toque diretamente a tela de um dispositivo ou superfície. Para
Stevens (2011), esta pequena alteração no modo como as pessoas interagem,
através dos dedos em uma tela, fez com que fossem apresentadas novas
problemáticas aos designers e desenvolvedores, potencializando a gama de
recursos em suas aplicações. A interação touchscreen está presente, atualmente,
na maioria dos smartphones e tablets, além de alcançar, progressivamente,
espaço no ramo dos notebooks e das mesas e painéis interativos.
b) Interações de forma livre: as interfaces que permitem gestos livres (sem
estar em contato com alguma superfície) partem do princípio que o corpo
humano é o dispositivo de entrada da interação. Para isso, o movimento e a
configuração dos gestos são lidos por sensores digitais. Tal interação constrói
22
uma ponte intuitiva entre interfaces digitais e usuários, promovendo um nível de
imersão maior que as interfaces tradicionais ao habilitar o indivíduo a interagir
naturalmente sem o contato de dispositivos mecânicos. Este tipo de interação
está presente no Kinect, tanto para o videogame Xbox 360 quanto para o sistema
operacional Windows, e no dispositivo Asus Xtion Pro.
Wigdor & Wixon (2011) destacam que a configuração de um gesto consiste em três
estágios diferentes. O primeiro deles é chamado de “registro”, na qual o tipo de ação é
estabelecido. Já o segundo estágio, é nomeado “continuação”, onde há o ajuste dos
parâmetros do gesto. O terceiro e último é a “terminação”, que é o momento na qual o
gesto é finalizado. Com isso, é possível dissernir que o usuário seleciona a função do
gesto no estágio de registro e especifica seus parâmetros na fase de continuação. Sendo
assim, a função é executada até o estágio final de terminação. Essa lógica é essencial
para pensar interfaces que utilizem interação gestual como suporte para ações do
usuário, definindo claramente a realização de funções.
Registro Continuação Terminação
Colocar dois dedos sobre um
conteúdo em uma tela
touchscreen
Mover os dedos sobre a
superfície do dispositivo: as
mudanças na distância entre os
dois dedos implicam na
modificação da orientação e
posicionamento do conteúdo
Retirar os dedos em contato com
a superfície do dispositivo
Abrir a palma da mão em
direção a um sensor digital
Deslocar suavamente a mão para
passar e selecionar uma série de
ítens
Após escolher o item, posicionar
a mão e fechar sua palma
Tabela 2 – Exemplo de registro, continuação e terminação de um gesto em interfaces.
Fonte: do autor
O registro de um gesto é, efetivamente, o passo mais importante no pensamento de uma
interface baseada na interação gestual. O sobrecarregamento de registros, tendendo à
ambiguidade e dificuldade de distinguir ações físicas, pode criar um sistema repleto de
enganos e feedback deficiente. Relacionado a isso, Norman (2010) ressalta o caráter
efêmero dos gestos, tendo em vista que deixam para trás qualquer registro de sua
trajetória. Isso significa que, quando a ação de um gesto não obtém resposta (ou obtém
23
uma resposta indevida), há pouca informação disponível para entender o porquê. Por
isso, o pensamento cuidadoso do alcance e variedade das possibilidades de uma
interface gestual é necessário para reduzir a sobreposição de ações de registros e,
consequentemente, previnir erros críticos na interação humano-computador.
Ao aprofundar as diretrizes envolvidas na inclusão de gestos na interação de interfaces,
Wigdor & Wixon (2011) estabelecem certos procedimentos que podem ser adotados
durante o pensamento dessas interfaces:
a) Minimizar o número de passos que o usuário deve tomar antes de registrar a
ação de um gesto.
b) Reduzir a carga necessária na transição do estágio de registro para o de
continuação. Para o usuário, deve ser imediatamente claro como especificar
o comando que ele pretende executar.
c) Fornecer um feedback claro em cada etapa realizada pelo usuário,
assegurando que ele entenda quando passou do estágio de registro para o de
continuação e como finalizar o gesto.
Percebe-se então, a pertinência de pensar o que os mesmos autores chamam de “gestos
auto-reveladores”, tendo como base a premissa de que, para observar um
comportamento no usuário, é necessário induzi-lo e, principalmente, proporciona-lo.
Sendo assim, deve-se visar não sobrecarregar o usuário com opções não intuitivas e,
sim, proporcionar que ele aprenda a linguagem gestual apresentada na interface
enquanto interage com ela.
A linguagem gestual pode ser considerada como o conjunto de atributos empregados em
determinada ação gestual. São características que podem ser detectadas e, por
conseguinte, utilizadas ao pensar uma interface baseada na interação gestual. Saffer
(2009, p.22) enfatiza que, quanto mais sofisticada for a interface, mais atributos podem
ser inclusos. Alguns dos principais atributos dispostos pelo autor são:
a) Presença: é o mais básico dos atributos da linguagem gestual. Algo precisa
estar presente para realizar um gesto a fim de desencadear uma interação.
Para alguns sistemas, especialmente em alguns contextos, um indivíduo
meramente presente é o suficiente para causar uma ação. Em outro momento,
até mesmo nas interfaces touchscreen mais simplórias, a simples presença de
dedos pode criar um evento.
24
b) Duração: todos os gestos tomam forma ao longo de um determinado espaço
temporal e podem ser realizados rápida ou lentamente. Para algumas
interfaces, a habilidade de determinar a duração de um gesto pode ser de
fundamental importância.
c) Movimento: há diferentes questões a serem pensadas em relação ao
movimento empregado em uma determinada interação. O usuário pode
mover-se de um lugar a outro ou pode permanecer parado em uma pose
assim como o movimento, por sua vez, pode ser rápido ou lento, para cima
ou para baixo, e de lado a lado. Qualquer movimento pode ser o suficiente
para provocar uma resposta.
d) Inclusão de objetos: certas interfaces permitem que o usuário utilize objetos
físicos junto ao seu corpo a fim proporcionar maior engajamento. Simples
sistemas irão tratá-los como mera extensão do corpo humano, porém
sistemas mais complexos podem reconhecê-los e permitir seu uso em
determinado contexto.
e) Combinação: uma característica importante é a possibilidade de combinar
diferentes gestos enquanto meio de interação. É possível, por exemplo,
utilizar as mãos em funções diferentes ao mesmo tempo.
f) Sequência: este atributo parte do pressuposto que gestos não
necessariamente precisam ser singulares. Um gesto seguido de outro podem
causar uma ação diferente daquela desencadeada quando são realizados
separadamente.
g) Número de participantes: algumas interfaces são pensadas para serem
utilizadas coletivamente e permitem a interação de múltiplos usuários ao
mesmo tempo. Duas pessoas interagindo com um sistema usando uma mão
cada é diferente de uma pessoa interagindo utilizando as duas mãos.
Com isso, é possível compreender que, ao pensar em interfaces baseadas na interação
gestual, estes atributos e a variedade de movimentos físicos devem ser considerados,
assim como sua adequação ao contexto. Logo, depreende-se que interfaces mais simples
apresentam apenas uma ou duas destas características, sendo “presença” e “duração” as
mais comuns. Do mesmo modo, interfaces mais complexas, além de apresentar diversos
destes atributos, precisam apoiar-se em questões maiores, relacionadas à ergonomia e
usabilidade, com o intuito de manter sua consistência como um todo.
25
2.2 Interações gestuais sob o panorama das interfaces naturais do usuário
Há diversos motivos para a utilização de gestos em interfaces. Todas as tarefas em que
interfaces não-naturais são utilizadas (comunicação, manipulação de objetos, uso de
ferramentas, música, entre outros) podem ser facilmente realizadas utilizando interações
gestuais. As interfaces gestuais fornecem, de acordo com Saffer (2009), diversas
características como:
a) Interações mais naturais: usuários são pessoas que gostam de interagir
diretamente com objetos. Interações gestuais possibilitam que o usuário
interaja naturalmente com artefatos digitais de maneira física, assim como
fazemos como objetos físicos.
b) Dispositivos menos incômodos ou visíveis: na maioria das interfaces
gestuais, os tradicionais dispostivos do teclado e mouse são desnecessários.
Uma interface touchscreen ou de interação livre permitem que o usuário
interaja sem a presença destes dispositivos de entrada. Isso permite que
interfaces gestuais ganhem espaço onde computadores tradicionais não são
tão comuns, como lojas, museus, aeroportos e outros espaços públicos.
c) Flexibilidade: ao contrário de interfaces tradicionais que geralmente
possibilitam interações fixas e imóveis, interfaces gestuais dão suporte a uma
gama infinita de interações utilizando o espaço em que estão incluídas.
d) Mais nuances: Teclados, mouses e outros dispositivos de entrada, embora
excelentes para muitas situações, não são capazes de transmitir diferentes
níveis de sutileza como o corpo humano. Uma sobrancelha levantada, o
balançar de um dedo ou braços cruzados podem oferecer uma riqueza de
significado além de controlar uma ferramenta. Interfaces gestuais ainda não
levam em conta o grande complexo emocional dos seres humanos mas,
eventualmente, irão começar a explorá-lo.
e) Diversão: hoje, pode-se pensar em um game em que o jogador pressione um
botão e veja uma raquete balançando. Porém, é mais divertido (para todos os
envolvidos) imitar fisicamente o balançar de uma raquete e perceber a ação
refletida na tela. Interações gestuais encorajam, literalmente, a exploração da
interface através do engajamento imersivo e expontâneo do usuário.
26
2.3 Projetando interfaces naturais baseadas na interação gestual
O design de qualquer sistema, produto ou serviço, deve apresentar, em sua essência, a
solução para as necessidades de quem irá usufruí-lo. Saffer (2009) dá atenção ao fato de
que os projetos de interfaces geralmente são restritos por questões relativas ao contexto,
tecnologia utilizada, recursos e objetivos organizacionais, envolvendo desde
necessidades simples a muito complexas. Entretanto, o autor enfatiza que, até mesmo as
soluções mais naturais, interessantes ou inovadoras tendem a falhar se não se
posicionarem em direção às necessidades do usuário.
Ao projetar uma interface baseada na interação gestual, uma das principais questões a
serem pensadas é a pertinência do uso dos gestos. O fato de poder, atualmente, utilizar
interação gestual não quer dizer que ela seja apropriada em todas as situações. Há
diversas razões que limitam o uso de interações gestuais e que devem ser levadas em
consideração no momento de estruturar uma interface natural. Saffer (2009) lista
algumas delas:
a) Inserção de informações: a grande maioria do usuários está acostumada
com o uso do teclado para inserir dados e informações. A ausência do
teclado físico pode conduzir a situações não tão costumeiras aos que
interagem com uma interface gestual.
b) Confiança na informação visual: muitas das interfaces utilizam informação
visual para indicar e responder a uma ação do usuário (como um botão sendo
pressionado), porém o feedback tátil do uso do mouse, teclado ou tela
touchscreen é inexistente em interfaces gestuais. Sendo assim, conduzir a
interação apenas baseando-se nas informações visuais pode se tornar
inapropriado, tratando-se de deficientes visuais ou idosos.
c) Confiança na interação física: ao contrário das interfaces tradicionais,
interfaces gestuais podem exigir fisicamente de um usuário. Quanto mais
amplo e físico for um gesto, mais provável que certos usuários não serão
capazes de executá-lo devido à idade, enfermidade ou simplesmente por
condições contextuais.
d) Contexto inapropriado: o contexto pode restringir o uso de interações
gestuais em diferentes pontos, tanto devido a questões de privacidade quanto
a razões que levem a situações embaraçosas aos usuários.
27
Se após uma avaliação criteriosa, o uso de interações gestuais for considerado
apropriado tanto para os usuários quanto para o contexto na qual estão inseridos, haverá
a necessidade de definir os gestos que irão guiar as tarefas e os objetivos que os
usuários precisam realizar. Para isso, é preciso levar em conta a combinação de três
fatores diferentes: a disponibilidade do sensor e dos dispositivos envolvidos, os passos
que formam a tarefa a ser executada e a fisiologia do corpo humano. Os sensores
determinam como e o que, de fato, o sistema consegue detectar e interpretar; os passos
para realizar determinada tarefa são importantes para mostrar quais ações e decisões
deverão ser feitas pelo usuário; e o corpo humano fornece as restrições e pontos-chave
para os gestos que podem ser pensados a fim de responder às necessidades do usuário.
Isto significa que, por lógica, tarefas básicas devem ser realizadas através de simples
gestos enquanto tarefas mais complicadas podem envolver gestos mais complexos. Por
exemplo, o ato de ligar a luz pode ser resolvido com um simples bater de palmas ou
batida na parede enquanto controlar a claridade de uma lâmpada (uma tarefa mais
complexa) pode envolver o movimento do braço ou um número específico de palmas.
Contudo, isso não quer dizer que todas as tarefas mais trabalhosas devem ser
acompanhadas de gestos mais complexos. Pelo contrário, interfaces bem resolvidas
utilizam interações gestuais complexas e as fazem parecer simples e apropriadas.
Wigdor & Wixon (2011) defendem que o projeto de interfaces naturais deve estabelecer
alguns parâmetros prévios que ajudem a pensar uma interação que apresente
características além das interfaces tradicionais. Alguns parâmetros citados pelos autores
estão listados abaixo:
a) Esquecer estilos de interação antigos. Não se deve apenas traduzir uma interface
gráfica tradicional em uma interface natural utilizando modelos existentes.
b) Começar utilizando as interações mais fundamentais, refinando-as ao decorrer
do projeto da interface.
c) Forneça o menor número possível de elementos gráficos necessários para que a
interação aconteça.
d) Responder imediatamente cada ação feita pelo usuário.
e) Criar interações de fácil descoberta, criando confiança por parte do usuário.
Outro fator fundamental apontado por Saffer (2008) no projeto de interfaces naturais
baseadas em interação gestual é relativo ao corpo humano e suas limitações físicas. Para
28
isso, o designer deve estar ciente das características e limitações do usuário que irá
interagir com a interface.
2.4 Kinect e aplicabilidade das interações gestuais
Com o lançamento do Kinect (2010), dispositivo criado pela Microsoft que possibilita o
reconhecimento de movimentos corporais, fomos apresentados a um modo diferente de
jogar videogame; ao interagir utilizando gestos reconhecidos pelo sensor, e não
utilizando um controle remoto, os jogadores do console Xbox 360 entraram em contato
com uma novo modelo de interação mais intuitivo, humano e natural. Borenstein (2012)
detalha que, diferentemente das câmeras convencionais que capturam como os objetos
aparentam ser, a câmera de profundidade do Kinect rastreia onde os objetos estão e
possibilita o uso dessa informação para reconstruir, manipular e interagir com os
artefatos capturados pelo sensor, incluindo a detectação de partes do corpo humano.
Figura 4 – Interação gestual no Kinect
Fonte: <www.xbox.com/pt-BR/Kinect>. Acesso em: 08.jun.2012.
No que tange a quebra de paradigma proposta pela inserção do Kinect no universo dos
videogames, é possível refletir que, efetivamente, com sucesso e aprovação do público
leigo, um dispositivo fez com que a interação, que por décadas era autoritariamente
movida por controles remotos, fosse comandada não por meios mecânicos e sim por
meios naturalmente humanos como os gestos e o movimento corporal.
Constituído por um projetor de luz infravermelha, uma câmera RGB e um sensor de
vídeo captura infravermelho, o sistema do Kinect consegue identificar a distância em
que uma série de pontos se encontram no ambiente, possibilitando, assim, uma série de
29
aplicações quando esses pontos são traduzidos em imagem. Reconhecimento facial,
rastreamento do esqueleto, análise de profundidade e leitura de movimentos são
algumas das possibilidades trazidas com o sistema digital do Kinect. Além disso, o
conjunto de microfones presentes no dispositivo possibilita não somente a
detectabilidade sonora mas também possibilita a interpretação de onde se origina,
espacialmente, determinado som ou ruído. Sendo assim, o Kinect também dá suporte
para o reconhecimento de fala, porém de forma limitada ao levar-se em conta os poucos
idiomas que, de fato, consegue interpretar.
Figura 5 – Rastreamento do esqueleto feita pelo Kinect
Fonte: <www.microsoft.com/kinectforwindows>. Acesso em: 19.dez.2012.
Embora, inicialmente, o Kinect tenha sido criado para atuar em conjunto com o
videogame Xbox 360, desenvolvedores perceberam a possibilidade de aplicar a tecnologia
presente no sensor em outras situações. Pelo mundo, programadores “quebraram” o
sistema do Kinect e começaram a experimentar as qualidades do dispositivo
independentemente do console de videogame, originando uma verdadeira avalanche de
aplicações e protótipos que se espalharam colaborativamente pela rede. Com isso, a
Microsoft lançou, recentemente, a versão do Kinect para ambiente Windows,
30
incentivando o desenvolvimento de diversas aplicações além de jogos e estimulando o
uso do Kinect em contextos diversos. Além de dar suporte aos desenvolvedores através
de atualizações de software, a Microsoft propõe a disseminação do “efeito Kinect”,
divulgando em seu site diversos projetos envolvendo o uso do sensor em salas de
operações médicas, classes escolares, clínicas de reabilitação, performances artísticas e
outros diversos ambientes. Atualmente, empresas têm mostrado interesse em
experimentar as qualidades do dispositivo, criando aplicativos que se destacam quanto
ao nível de imersão percebido com o usuário, estabelecendo uma experiência mais
natural e prazerosa entre os consumidores e determinada marca, mostrando o grande
sucesso que o Kinect está atingindo no mercado da publicidade e propaganda. O uso do
dispositivo também tem crescido na área da robótica, educação e reabilitação de
pacientes, utilizando a tecnologia para a criação de soluções mais imersivas e
engajadoras. De acordo com as informações divulgadas pela própria Microsoft e pela
revista Wired (2011), desde 2010 já foram comercializadas mais de 10 milhões de
unidades do Kinect, fazendo com que o sensor seja considerado o dispositivo “mais
vendido em menor período de tempo” pela Guinnes World Records. Mesmo com tantas
possibilidades, o sistema do Kinect possui algumas limitações como a deficiência em
rastrear os dedos das mãos.
Porém, com a popularização do Kinect e suas potenciais contribuições a respeito da
aplicabilidade de interfaces naturais e interação gestual, há a necessidade de validar e
investigar como esses novos modelos de interação têm a contribuir para o projeto de
interfaces, além de analisar suas vantagens e limitações em relação a experiência do
usuário.
31
3 Documentação e prototipação
3.1 Documentando Interfaces Naturais Baseadas em Interação Gestual
Ao projetar um produto ou sistema, designers geralmente utilizam diferentes formas de
documentação para demonstrar e especificar suas características. Com isso, a
documentação de um projeto de design se torna de crucial importância por envolver
diferentes pessoas e equipes durante suas etapas, necessitando o registro de suas
características. Porém, ao tratar-se de interfaces baseadas na interação gestual, como
expor movimentos tridimensionais em um formato bidimensional?
Hoje, há diversas ferramentas e métodos disponíveis para auxiliar na documentação das
especificações e requerimentos de projetos que envolvam interfaces gestuais e, sem
dúvidas, sua prática tem papel fundamental durante o percurso projetual. Deste modo,
Saffer defende que a prática da documentação “engendra uma visão consistente do todo,
possibilitando que todos os envolvidos no projeto entendam o que está sendo
construído” (2008, p. 91). Na documentação são transcritas quais foram as decisões
tomadas e o seu porquê, estruturando um caminho eficientemente concreto para facilitar
a construção e desenvolvimento do produto final. Além disso, o autor concorda que as
melhores documentações ainda sugerem respostas para perguntas que podem surgir
durante o desenvolvimento do produto e não foram documentadas.
Diversos sistemas de documentação possuem enfoque no movimento e deles podem ser
extraídas metodologias para registrar e esquematizar interfaces baseadas em interação
gestual. Muitos desses sistemas de notação nasceram da dança, sendo utilizados para
análise e reprodução de coreografias. Sendo assim, Saffer (2008) lista alguns destes
sistemas que podem facilitar a documentação de interfaces baseadas em interação
gestual:
a) Labanotação
O sistema criado por Rudolf Laban permite a análise, performance, observação,
registro, descrição e notação do movimento humano. A labanotação utiliza
determinados símbolos abstratos para definir a parte do corpo que está
realizando o movimento, a direção e a intensidade dele, além de sua duração.
Com isso, é possível registrar exatamente uma coreografia, tornando-a
facilmente completamente reproduzível. Fernandes (2006) explica que esta
32
notação descreve padrões de colocação de peso, mudanças de nível e direção no
espaço, além de tempo e ritmo, padrões de toque e orientação.
Figura 6 – A figura humana na labanotação.
In.: SAFFER, 2008, p. 93
Parecida com a notação musical ocidental, a labanotação utiliza três linhas para
dispor os seus símbolos. Mas ao contrário das pautas musicais, a labanotação é
disposta verticalmente e é lida de baixo para cima. Desta forma, os movimentos
realizados no lado direito do corpo são escritos no lado direito da notação
enquanto os movimentos do lado esquerdo são escritos no lado esquerdo do
mesmo sistema. Sendo assim, as linhas representam o corpo humano e a linha do
centro marca o centro do corpo. Saltos, giros, distância espacial, circulação e
outros movimentos podem ser representados através de diferentes símbolos e
sua localização na notação define a parte do corpo que está envolvida.
O tempo pode ser mostrado em formas diferentes. Sendo que a dança é
geralmente sincronizada com a música, linhas horizontais são representadas para
coincidir o movimento com as nuances musicais, o comprimento do símbolo
define a duração do movimento e linhas duplas marcam a posição inicial do
dançarino e sua posição final.
33
Figura 7 – O sistema de labanotação.
In.: SAFFER, 2008, p. 94
b) Sistema Benesh
A notação de movimento Benesh é uma outra forma de documentar movimento
e coreografias, especialmente o balé. A notação criada por Rudolf e Joan Benesh
nos anos 40 e publicada em 1956 é semelhante à labanotação por utilizar
símbolos para marcar movimentos que podem ser sincronizados com música.
Porém, diferentemente da labanotação, o sistema Benesh possui cinco linhas que
são lidas da esquerda para a direita, onde a linha superior (primeira) indica a
cabeça do dançarino, seguida do ombro (segunda linha), cintura (terceira),
joelhos (quarta) e chão (quinta e última linha).
34
Figura 8 – O sistema Benesh.
In.: SAFFER, 2008, p. 95
c) Notação de movimento Eshkol Wachman
A notação de movimento Eshkol Wachman (EWMN) foi criada em 1958 por
Noa Eshkol e Avraham Wachman. Embora seja mais usada para dança, esta
notação também tem sido utilizada na fisioterapia, no estudo de comportamento
animal e, mais recentemente, no diagnóstico de autismo. Ao contrário das
notações anteriores, a EWMN não leva em conta estilos ou contexto de uso
(musical ou outro).
A EWMN enxerga o corpo como uma série de “membros” que estão ligados por
articulações. Por exemplo, o antebraço é um membro determinado entre o pulso
e o cotovelo e deste modo, a EWMN utiliza uma esfera tridimensional para
organizar os movimentos no espaço. Posições e movimentos podem ser
mapeados através de coordenadas similares às coordenadas de longitude e
latitude no globo terrestre.
Figura 9 – A esfera da notação EWMN.
In.: SAFFER, 2008, p. 97
Ao contrário dos outros sistemas, o diagrama da EWMN se torna mais
interessante se visto como uma planilha. Cada membro possui uma fila e a
posição do membro na esfera é indicada por dois números: o superior
corresponde à posição vertical e o inferior corresponde à posição horizontal.
35
Lido da esquerda para a direita, o estágio da ação (tempo) é indicado por linhas
duplas, ao passo que a direção e a quantidade de movimento são indicados por
setas numeradas a cada mudança de 45 graus. Neste caso, o número 2
significaria elevar o membro a 90 graus.
Figura 10 – Exemplo de planilha para notação EWMN.
In.: SAFFER, 2008, p. 98
Todos estes sistemas de notação de movimento são notoriamente massivos e difíceis de
ler. Eles requerem horas para transcrever movimentos simples e dificilmente seriam
utilizadas em situações cotidianas na vida de um designer. Mesmo podendo-se utilizar
de partes de cada sistema, designers de interfaces gestuais precisariam de alternativas
mais simples para documentar seu trabalho. Contudo, a importância desses meios
tradicionais de notação concerne no entendimento de que listar e especificar
movimentos (gestos) pode se tornar difícil e devem ser respondidas algumas perguntas
em relação a isso:
a) Quais são as partes do corpo humano envolvidas no movimento e como elas são
posicionadas?
b) Quanto tempo leva para o movimento ser realizado?
c) Quantos estágios possui o movimento? Qual seu ponto de partida e seu ponto
final?
Saffer dá atenção ao fato de que as notações tradicionais para dança não levam em conta
a ação recíproca entre usuários e sistemas interativos, fator que não pode ser descartado
durante a documentação de uma interface natural baseada em interação gestual. Com
isso, alguns questionamentos relacionados à interação usuário-sistema que devem ser
respondidos na documentação são:
a) Como os usuários se comunicam diretamente com o sistema?
b) Como o sistema demonstra que está pronto para a interação?
c) O que pode ser feito com a interação?
d) Como se dá a resposta do sistema?
36
e) Como o sistema evita ou se recupera de erros ou mal-entendidos?
Contudo, estes questionamentos não podem ser respondidos através das notações
tradicionais de movimento e precisam envolver formas de documentação já conhecidas
por designers e desenvolvedores. Não há, no entanto, uma técnica que dê conta de todas
as situações e deve-se visar um conjunto que englobe as necessidades do sistema e dos
envolvidos. Abaixo são listadas, baseando-se em Saffer (2008), algumas técnicas que
podem ser utilizadas para documentar interfaces naturais baseadas em interação gestual:
a) Cenários
Cenários são esboços feitos com palavras. São descrições de como o sistema
será utilizado levando em conta seu contexto de uso, são pequenas histórias. Um
cenário efetivo é aquele que descreve e imagina como seria o contexto de
primeiro-uso da interface, além de serem uma excelente fonte para extrair tarefas
e características que a interface deverá suportar. Questionamentos a serem
respondidos seriam “o que acontece quando o usuário encontra uma interface
natural pela primeira vez?”, “como o usuário sabe o que fazer e como usá-la?”.
Com isso, cenários são meios rápidos para explorar como o sistema irá
funcionar, ao passo que interfaces naturais podem se tornam difíceis de
prototipar em um curto período de tempo.
b) Casos de uso
Casos de uso servem para descrever situações de uso de um produto ou sistema
e começam por identificar um conjunto de “atores” em potencial, geralmente
sendo “usuário” e “sistema” os mais comuns. Para interfaces naturais mais
complexas, possíveis atores seriam “gestos”, “sensores” ou “dispositivos de
entrada”. Casos de uso devem apresentar as seguintes informações:
Titulo
O caso de uso deve apresentar um título objetivo para ser facilmente
referenciado.
Atores
Lista de “quem” ou “o que” está envolvido no caso de estudo. Possíveis atores
podem ser “usuário”, “sistema”, “interface” ou “gesto”.
37
Propósito
Uma descrição resumida do caso de uso e seu porquê. Exemplo.: “O usuário
deseja ligar as luzes da casa”.
Condição inicial
Descreve o estado do sistema e a posição do usuário durante o início do estudo
de caso. Exemplo.: “A sala está escura e o usuário está no ambiente”.
Condição final
Descreve o estado final do caso de uso. Exemplo.: “As luzes da sala estão
acesas”.
Estágios
Lista de breves momentos que englobam uma certa funcionalidade.
Alternativas
Listagem de outros casos de uso que podem considerar a mesma funcionalidade.
Para interfaces naturais baseadas em interação gestual, as partes mais
importantes de um caso de uso estudo são as condições inicial e final. Com elas,
desenvolvedores farão bom uso ao determinar padrões para identificar quando
um gesto se inicia e quando é finalizado.
c) Análise e fluxo de tarefas
Uma análise de tarefa é uma lista de atividades que a interface deverá suportar.
As tarefas podem ser retiradas de cenários ou casos de uso, assim como de
pesquisas com o usuário. Uma vez que as tarefas são definidas, é aconselhável
que elas sejam postas em ordem, gerando um fluxo de tarefas. Fluxo de tarefas
são fluxogramas que ilustram as atividades e decisões durante o processo de
interação entre o usuário e a interface. Interfaces naturais baseadas em interação
gestual necessitam que sejam mostrados pontos de decisão e o resultado destas
ações tanto para o usuário quanto para o sistema.
38
Figura 11 – Exemplo de fluxo de tarefas.
Fonte: do autor
d) Elementos arquitetônicos
Quanto maior forem as interfaces baseadas na interação gestual, maior será a
necessidade de indicar e documentar o ambiente na qual ela será inserida. Isso
significa que o ambiente pode ser ilustrado na documentação da interface,
incluindo fatores como altura, largura e posições-chave.
Usuário acena
para a interface
Mapa é mostrado
na tela
Usuário aproxima
as mãos
Zoom out
39
Figura 12– Exemplo de documentação do ambiente.
In.: SAFFER, 2008, p. 106
e) Módulos gestuais
Dependendo do tipo de interface natural que está sendo projetada, pode ser de
grande valia construir uma tabela que liste uma visão geral das possibilidades
gestuais presentes no sistema e suas regras. Para interfaces humano-computador
menos complexas, naturais ou não, uma lista de módulos gestuais pode ser a
única documentação necessária.
Gesto Ação
Bater palmas Ativar o sistema
Afastar as mãos Zoom in
Aproximar as mãos Zoom out
Mover a mão para a esquerda ou
direita
Selecionar item no menu
Tabela 3 – Exemplo de módulo gestual.
Fonte: do autor
Os modelos de documentação apresentados podem ser utilizados isoladamente ou em
conjunto, sendo que a complexidade e requisitos do projeto devem ser levados em
consideração ao planejar a estrutura do documento. Sendo assim, a documentação do
40
projeto de uma interface natural baseada em interação gestual é um atributo essencial
para o desenvolvimento correto do produto final.
3.2 Prototipando Interfaces Naturais Baseadas em Interação Gestual
Hoje, há inúmeras técnicas de prototipagem disponíveis para os designers. Os protótipos
podem ser simples ou extremamente refinados, porém, independentemente do formato,
são de fundamental importância para a validação do projeto de uma interface. Schildt
(2006) esclarece que protótipos auxiliam a expor e explicitar a mecânica da interação
promovida pela interface projetada, permitindo estudar melhorias antes mesmo do
desenvolvimento final do produto. Além disso, protótipos são úteis para demonstrar as
possibilidades da interface e manter as expectativas em um nível adequado sobre o
resultado final. Outro uso favorável dos protótipos é no campo da demonstração, sendo
que um objeto visualmente bem acabado pode se tornar uma ferramenta efetiva para
vender um projeto.
A confecção de um protótipo ajuda a encontrar deficiências não tão visíveis durante o
percurso do projeto, permitindo modificações preliminares que não afetam ou
comprometem o cronograma ou orçamento de um projeto de design. Saffer (2008)
defende que, quanto mais refinado for o protótipo, mais refinadas serão as respostas
surgidas dele. O autor ainda aconselha a criação de diversos tipos de protótipos, para
diversificar o tipo de feedback surgidos deles. Vale lembrar que em um projeto de
interfaces baseadas em interação gestual, as importantes reflexões a serem extraídas de
um protótipo não são sobre as escolhas tipográficas, cores ou composição e sim sobre o
conceito, gestos e o fluxo de interação.
O autor define algumas técnicas de prototipagem que, listadas a seguir, podem ser
utilizadas durante o projeto de uma interface natural baseada em interação gestual:
a) Protótipos de papel
São a forma mais simples de prototipagem e muitas vezes podem ser considerados
protótipos de “baixa fidelidade”. Por não serem digitais, os protótipos de papel
podem ser montados rapidamente e manipulados manualmente. Sendo um protótipo
de baixa fidelidade, esta técnica não deve ser utilizada para analisar detalhes e sim
para compreender o conceito geral do projeto.
41
Figura 13 – Exemplo de protótipo de papel.
In.: SAFFER, 2008, p. 118
b) Storyboards
Se uma interface natural baseada em interação gestual se tornar complexa de
entender fora do contexto, um storyboard pode ser utilizado para explicá-la. A
técnica de storyboarding surgiu do cinema e dos quadrinhos, onde ilustrações ou
fotografias são usadas para contar uma história em uma sequência de imagens com
auxílio, opcional, de texto. Para fins de prototipagem, o storyboard pode ser curto e
mostrar um gesto passo a passo e a ação resultante ou pode ser mais complexo,
envolvendo um contexto e uma narrativa.
Storyboards não necessariamente consomem muito tempo para serem feitos, já que
várias técnicas podem ser utilizadas para seu desenvolvimento, sendo algumas delas
a fotografia, ilustração, desenho ou diagramas. Desenhos à mão podem facilmente
representar gestos de uma maneira mais prática que em qualquer outra técnica de
storyboard.
42
Figura 14 – Exemplo de storyboard para uma interface touchscreen.
In.: SAFFER, 2008, p. 108
Porém, algumas vezes, interações gestuais podem se tornar difíceis de serem
transmitidas através de desenhos. Com isso, a fotografia pode ser uma ótima técnica
para fornecer a informação visual necessária em um storyboard.
Figura 15 – Exemplo de storyboard utilizando fotografia.
In.: SAFFER, 2008, p. 109
Além disso, storyboards podem ser combinados com técnicas alternativas, como
módulos gestuais e casos de uso, criando um quadro de ações ilustrativas. Estes
quadros ilustrativos apresentam, ao mesmo tempo, uma visão geral da interação a
partir de diferentes perspectivas. Aliado a isso, storyboards mesclados com outras
técnicas podem ser um meio efetivo e detalhado para documentar projetos de
43
interfaces baseadas em interação gestual, pelo fato de apresentarem a interação
acontecendo em determinado contexto e provocando certo efeito ou ação no sistema.
Usuário se
aproxima do
display
Usuário analisa o
display pela
primeira vez
Usuário encosta
seu dedo na tela
do display
Usuário toca uma
localização no
mapa
Usuário finaliza a
interação
A interface está
em estado ocioso
A interface está
em estado ocioso A interface passa
do estado ocioso
para a tela
principal
Mapa em zoom in A interface volta
para o estado
ocioso
Sistema em modo
de espera
Sistema em modo
de espera Sistema analisa a
localização do
usuário
Sistema detalha
informações do
mapa
Sistema retorna
ao modo de
espera
Tabela 4 – Exemplo de storyboard mesclado com outras técnicas.
In.: SAFFER, 2008, p. 110 (adaptado)
c) Animações
Storyboards pecam ao não serem capazes de expressar timing ou fluxos de tempo.
Com isso, animações são ferramentas que podem ser utilizadas como protótipos de
uma interface. Animações são estratégias que permitem inserir movimento ao
representar a interação gestual. Podem ser utilizadas para demonstrar uma única
interação gestual ou podem ilustrar um contexto maior e incluir uma história. Sendo
assim, animações podem ser meios efetivos para comunicar interações gestuais,
além de oferecer uma ideia mais consistente de como flui a interação entre o usuário
e o produto.
44
Figura 16 – Quadros-chave de animação de uma interação gestual.
Fonte.:
<http://pervasive297.wikispaces.com/file/view/storyboard3.png/270731626/800x533/storyboard3.png>.
Acesso em: 28.fev.2013
d) Vídeos
Muitas vezes, podem ser considerados melhores que animações pois permitem mostrar
pessoas realizando a interação em tempo real e, possivelmente, em um contexto. Esta
característica definitivamente anula ambiguidades advindas da documentação escrita,
ilustrações e até mesmo animações.
Figura 17 – Interações mostradas no vídeo “Kinect Effect”
Fonte.: < http://www.youtube.com/watch?v=oOtXYTnKWEE>. Acesso em: 04.dez.2012
45
e) Protótipos de alta fidelidade
Protótipos de baixa e média fidelidade podem ser de grande utilidade, porém protótipos
de alta fidelidade criam a experiência de uso do produto ou sistema final. Com isso,
enquanto protótipos de baixa fidelidade servem para testar conceitos e interações, os
protótipos de alta fidelidade servem para refina-las e garantir que as interações sejam
eficientes quando o usuário interagir com a interface final.
Há três tipos de protótipos de alta fidelidade, o primeiro deles é o “protótipo exato”, na
qual é projetado um ambiente fidedigno ao contexto real de uso, com os mesmos
dispositivos e softwares que serão utilizados na interface a ser desenvolvida. Este tipo
de prototipagem eh o que oferece o melhor cenário para analisar a interação entre o
usuário e a interface pois gera os resultados mais precisos. O segundo tipo é chamado
de “off-the-shelf, OTS” (“vindo da prateleira”, em tradução literal) e sua característica
é a utilização de dispositivos e softwares já existentes para a criação do protótipo. O
terceiro tipo de protótipo de alta fidelidade é conhecido como “do-it-yourself, DIY”
(“faça você mesmo”, em tradução literal) e é artesanal, sendo necessário conhecimento
para monta-lo e programa-lo para atender as necessidades do projeto. Atualmente, a
maioria dos protótipos para interfaces touchscreen são dos dois primeiros tipos de
protótipos de alta fidelidade, sendo que, para interfaces de interação livre os protótipos
do-it-yourself são mais comuns.
Figura 18 – Exemplo de protótipo de alta fidelidade.
In.: SAFFER, 2008, p. 123
Vale lembrar que, como o nome sugere, protótipos de alta fidelidade requerem um
investimento maior para serem desenvolvidos, além de tempo para sua execução.
46
Porém, indiferentemente de qual método ou técnica for utilizada para documentar o
projeto de interfaces naturais baseadas em interação gestual, é importante que a
documentação permita que a interface seja prototipada e, posteriormente, desenvolvida.
Para documentações mais precisas, a utilização de mais de uma técnica ou a mesclagem
de várias delas pode ser uma estratégia para garantir que o conceito geral seja posto no
papel, incumbindo-se de assegurar a consistência do projeto da interface.
47
4 Görtz Shoes e sua vitrine baseada em interação gestual: um estudo sobre seus módulos gestuais e fluxo de tarefas a partir dos elementos da experiência do usuário propostos por Garrett
Görtz Shoes (http://www.goertz.de/) é uma loja virtual de calçados com base na
Alemanha e juntamente com a agência de publicidade Kempertrautmann
(http://www.thjnk.de/) desenvolveu uma vitrine interativa para experimentar modelos
de calçados chamada de “Virtual Shoe Fitting”. A ideia surgiu pelo fato de que os
modelos de calçados comercializados pela loja só podem ser comprados pela internet,
fazendo com que os consumidores não t enham uma ideia concreta de como eles
ficariam em seus pés, já que não há lojas físicas para que os consumidores
experimentassem os pares de calçados que gostassem. Com isso, utilizando um sistema
de leitura do esqueleto humano criado pela empresa mexicana ArteFacto Estudio
(http://www.artefactoestudio.com/) e três sensores Microsoft Kinect, a loja apresentou
uma vitrine controlada através de interação gestual que possibilita ao usuário
experimentar diferentes modelos de calçados virtualmente. Os sensores presentes na
vitrine leem o corpo do usuário em tempo real, fazendo com que ele possa experimentar
vários modelos em questões de minutos.
48
Figura 19 – Vitrine “Virtual Shoe Fitting” que utiliza interação gestual
Fonte: <http://www.thjnk.de/project/gortz> Acesso: 05.mar.2013
Outra função presente na vitrine é a de gerar uma imagem sua experimentando o
calçado e compartilhá-la no Facebook para pedir a opinião dos seus amigos se ainda
estiver indeciso. Além disso, após escolher um determinado modelo, o usuário pode
gerar um QR Code2 e utilizá-lo no seu celular para comprar o calçado sem sair da
vitrine.
2 QR Code é um código de barras bidimensional que pode ser facilmente rastreado pela maioria dos
celulares com câmera. O código pode ser convertido em texto, localização geográfica, link para
determinado site, entre outros...
49
Figura 20 – Usuário utilizando o celular para comprar calçado presente na vitrine
Fonte: <http://www.thjnk.de/project/gortz> Acesso: 05.mar.2013
Sendo assim, este estudo de caso tem como objetivo avaliar o uso da interação gestual
na vitrine interativa projetada para a empresa Görtz Shoes, além de catalogar e analisar
seus módulos gestuais e o fluxo de tarefas provenientes da interação humano-
computador, relacionado-os com os elementos da experiência do usuário propostos por
Garrett (2010). Não obstante, visa-se aproximar a análise do caso com o conceito de
interfaces naturais do usuário baseadas em interação gestual, refletindo sobre como as
características da vitrine podem ser traduzidas em uma interação entre usuário-sistema
mais natural ao utilizar este novo paradigma de interação. O estudo é parte integrante
deste trabalho de conclusão de curso, sendo de fundamental importância para a
conclusão da pesquisa, justamente por possibilitar que o referencial teórico a respeito de
interfaces naturais e interação gestual incluídos na fase exploratória sejam utilizados
para analisar um caso real de interface baseada em interação gestual.
4.1 Materiais
O principal material utilizado durante este estudo de caso foi o vídeo de apresentação3
da vitrine interativa, mostrando suas funções e características. Também foram utilizadas
3 Virtual Shoe Fitting by Gortz
<http://www.youtube.com/watch?feature=player_embedded&v=uSn7c1uw1_A>. Acesso em:
01.mar.2013.
50
informações e imagens sobre o projeto disponíveis no site da agência Kempertrautmann
e do estúdio Artefacto, além de reportagens e artigos disponíveis na internet.
Figura 21 – Imagens da vitrine “Virtual Shoe Fitting”
Fonte: <http://www.youtube.com/watch?feature=player_embedded&v=uSn7c1uw1_A> Acesso:
01.mar.2013
4.2 Metodologia e fundamentação teórica
O procedimento metodológico percorrido neste estudo de caso segrega o objeto de
estudo (vitrine interativa) em planos propostos por Garrett (2010) que formam os
elementos da experiência do usuário. Sobre estes planos, o autor defende que estes
níveis formam as camadas da experiência do usuário durante sua interação com um
sistema ou produto, de modo que devem ser conscientemente pensados durante o
projeto de uma interface. Para Garrett, os planos vão dos mais abstrato ao mais
concreto, seguindo a ordem: estratégia, escopo, estrutura, esqueleto e superfície (2010).
51
Figura 22 – Planos propostos por Garrett para representar a experiência do usuário
In.: GARRETT, 2010
É evidente que cada plano possui suas próprias características e critérios que devem ser
pensados enquanto etapa integrante de um projeto de interface, porém, ao tratarmos de
mídias e suportes diferentes, a nomenclatura pode não ficar muito clara. Para isso, o
autor define certas atividades relacionadas ao projeto, auxiliando no entendimento do
que cada nível representa:
52
Figura 23 – Características a serem pensadas em cada plano da experiência do usuário
In.: GARRETT, 2010
A partir dos planos propostos pelo autor, o estudo de caso tem o objetivo de descontruir
a interface da vitrine interativa a fim de refletir sobre cada nível da experiência do
usuário e analisar o uso da interação gestual com o intuito de observar se o usuário está
em contato com uma possível interface natural.
4.3 Plano da estratégia
O plano mais abstrato, segundo o autor, é o de estratégia e incorpora o que os usuários
buscam conseguir atingir ao interagir com a interface. Este nível também abriga os
objetivos do projeto, porém as informações relativas ao planejamento não se encontram
disponíveis por se tratarem de informações internas. Contudo, é possível explicitar que,
para o usuário, seu objetivo é de conseguir experimentar o calçado virtual e sair
satisfeito da vitrine e sem dúvidas a respeito de como o modelo ficaria em seus pés.
53
4.4 Plano de escopo
O plano de escopo delimita a estratégia pensada para o projeto. Nele são explicadas as
especificações e as funções que a interface suportará, além de como o sistema
funcionará. No caso do Virtual Shoe Fitting, a interface funciona com o auxílio de três
sensores Microsoft Kinect que leem em tempo real o corpo do usuário e traduzem a
interação gestual em ações.
Figura 24 – Simulação de como os sensores leem o corpo do usuário
Fonte: <http://www.youtube.com/watch?feature=player_embedded&v=uSn7c1uw1_A> Acesso:
01.mar.2013
4.5 Plano de estrutura
Este nível estabelece a conexão entre as opções e categorias presentes no meio
informacional da interface e representa o encaixe entre as diferentes funções
disponíveis. Neste caso, o plano de estrutura pode ser expressado através da arquitetura
da informação presente na interface da vitrine interativa. A estrutura navegacional da
interface pode ser definida como hierárquica (em árvore), por permitir ao usuário
mover-se de um nó a outro em dimensões dependentes entre si (GARRETT, 2010).
54
Figura 25 – Estrutura hierárquica proposta por Garrett
In.: GARRETT, 2010
É válido lembrar que a articulação presente na estrutura da interface deve garantir que o
usuário consiga mover-se de uma função a outra e, se tratando de uma interface baseada
em interação gestual, que este meio seja intuitivo o suficiente para que o usuário confie
em suas escolhas e tenha uma experiência agradável enquanto interage com o sistema.
Para analisar o plano de estrutura presente na interface da vitrine interativa foi utilizado
a técnica de análise e fluxo de tarefas, a fim de listar funções e atividades-chave durante
a interação entre o usuário e a interface. O fluxograma resultante da análise encontra-se
abaixo:
55
Figura 26 – Fluxo de tarefas presentes no “Virtual Shoe Fitting”
Fonte: do autor
É possível observar através do fluxo de tarefas que para cada tarefa há uma ação
correspondente pelo sistema e, para que ela aconteça, deve-se haver um meio para que o
usuário possa ativá-la. Neste sentido, deve ser claro quando uma tarefa se inicia e
termina, para não que não haja ambiguidade durante a interação. No caso do Virtual
Shoe Fitting, por se tratar de uma estrutura hierárquica, este ciclo “iniciado-finalizado”
se apresenta bem definido, por permitir funções distintas e consecutivas durante a
interação.
Sensores Kinect
rastreiam o esqueleto
do usuário
Usuário deseja
escolher um modelo
de calçado
Usuário permanece
em frente à interface
Modelo virtual do
calçado é gerado
Usuário visualiza seu
calçado virtual no
display
Sistema rastreia os
movimentos do
usuário em tempo real
Usuário deseja gerar
uma imagem com o
calçado
Sistema captura e
gera uma imagem a
partir dos sensores
Usuário posiciona-se
em frente à interface
Modelos de calçados
são mostrados na
interface
Usuário deseja
escolher uma
numeração especifica
Diferentes
numerações são
mostradas na interface
Usuário tem a opção
de compartilhar a
imagem no Facebook
Sistema conecta-se
com o Facebook do
usuário
Usuário decide
prosseguir e comprar
o modelo
Sistema gera um QR
Code com as
informações escolhidas
Usuário captura o QR
Code com seu celular
O QR Code conduz o
usuário até a loja
virtual
56
4.6 Plano de esqueleto
O plano de esqueleto pode ser considerado como a forma concreta de como o usuário
poderá navegar pelas opções e categorias definidas na camada anterior, o plano de
estrutura. Neste caso, o plano de esqueleto da vitrine interativa é formado pelas formas
que o usuário pode navegar através das funcionalidades da interface, como por exemplo
as de customização dos modelos de calçados disponíveis. É válido lembrar que, neste
caso, é no plano de esqueleto que são definidos e configurados os gestos presentes na
interação entre o usuário e a interface, justamente por permitirem a navegação
propriamente dita. Sobre a navegação presente em uma interface, Nielsen (2000)
esclarece que a navegação deve ser pensada de modo que o usuário consiga responder
três perguntas: “onde estou?”, “onde estive?” e “aonde posso ir?” durante a interação
com o sistema.
A interação gestual em interfaces digitais pode ser considerada uma quebra de
paradigma por se distanciar dos meios tradicionais de interação (que utilizam mouse,
teclado e outros dispositivos) e pode se tornar uma estratégia efetiva para conduzir uma
experiência do usuário mais natural e intuitiva. Contudo, justamente por se distanciar
dos modelos tradicionais, deve-se ter cautela ao utilizá-la e, neste sentido, o plano de
esqueleto serve para definir os meios de navegação e como o usuário poderá utilizá-los.
Desta forma, visou-se catalogar os principais gestos que possibilitam a navegação do
usuário durante sua experiência com a vitrine virtual de calçados para entender as
particularidades presentes na dinâmica da interação gestual promovida neste caso. Os
gestos analisados foram catalogados e organizados utilizando a técnica de
documentação chamada de “módulos gestuais” mesclada com a técnica de
“storyboard”, visando um entendimento generalizado dos diferentes gestos presentes na
interface. O resultado do estudo sobre o plano de esqueleto encontra-se nos módulos
abaixo:
57
O usuário posiciona-se em
frente à vitrine
O usuário estende o braço
até o canto superior
O usuário movimenta sua
mão (aberta) para cima ou
para baixo para navegar
pelas opções de modelos
Os sensores reconhecem a
presença do usuário e
iniciam o sistema
O modo para escolher os
modelos de calçados é
ativado
Os calçados são mostrados
em forma de lista, que
desliza de acordo com o
movimento do usuário
Tabela 5 – Primeiros módulos gestuais presentes na interface
Fonte: do autor
Usuário fecha a palma da
mão para selecionar
determinado modelo
O usuário movimenta sua
mão (aberta) para cima ou
para baixo para navegar
pelas opções de tamanhos
Usuário fecha a palma da
mão para selecionar
determinada numeração
O modelo de calçado é
selecionado e, a seguir, o
usuário tem a opção de
escolher o tamanho do
calçado
Os números são mostrados
em forma de lista, que
desliza de acordo com o
movimento do usuário
O tamanho de calçado é
selecionado e, a seguir, o
sistema irá mostrar o
modelo virtual diretamente
nos pés do usuário
Tabela 6 - Módulos gestuais para seleção
Fonte: do autor
58
Usuário permanece em
frente da vitrine e visualiza
seu corpo no display,
percebendo o modelo de
calçado virtual nos seus pés
O usuário interage com sua
imagem no display e
observa o modelo virtual
em seus pés (gestos de
forma livre)
Para voltar para a lista de
modelos disponíveis, o
usuário estende o braço até
o canto superior do display
Os sensores reproduzem
todo o movimento realizado
pelo usuário através do
rastreamento do esqueleto
O modelo virtual se adapta
em tempo real ao ângulo e
posição dos pés do usuário
A lista com os modelos de
calçados disponíveis pode
ser acessada
Tabela 7 – Módulos gestuais e rastreamento do esqueleto
Fonte: do autor
O usuário utiliza as duas
mãos para gerar uma
imagem sua
O usuário visualiza a
contagem regressiva para a
captura da imagem e
posiciona-se
O usuário faz uma pose que
ficará registrada na imagem
capturada
O sistema ativa o modo de
captura e geração de
imagem
O sistema reproduz uma
contagem regressiva para
avisar o usuário que será
gerada uma imagem
O sistema gera a imagem
do usuário e de seu calçado
virtual
Tabela 8 – Módulos gestuais para geração de imagem
Fonte: do autor
59
O usuário pode
compartilhar sua imagem
no Facebook
Após decidir-se, o usuário
pode converter seu modelo
e tamanho de calçado em
um QR Code e utilizar seu
celular para lê-lo
O usuário pode utilizar o
QR Code para acessar o
modelo escolhido na loja
virtual da empresa e
comprá-lo sem sair da
vitrine
O sistema utiliza a rede
social Facebook para
compartilhar a imagem do
usuário
O sistema gera um QR
Code contendo informações
a respeito do modelo e da
numeração do calçado
escolhido
O celular do usuário
converte o QR Code e
direciona-se para a loja
virtual da empresa
Tabela 9 – Módulos gestuais compartilhamento de imagem e compra do modelo
Fonte: do autor
O estudo do plano de esqueleto realizado através da construção de módulos gestuais
ilustrados foi de grande valia para explicitar e sintetizar a visão geral das interações
possíveis no Virtual Shoe Fitting. Com isso, foi possível perceber que os gestos
presentes na interação são efetivos para conduzir a experiência do usuário de forma
positiva.
4.7 Plano de superfície
No caso do “Virtual Shoe Fitting”, o plano de superfície representa todos os aspectos
visuais da interface, suas metáforas e aspectos formais como tipografia, composição dos
elementos, fotografia, modelo tridimensional dos modelos de calçados e iconografia.
Pode ser considerado o plano visível ao usuário e a tradução sensível do sistema que
funciona por trás da interface. Ao utilizar interação gestual, o plano de superfície é o
responsável por guiar o usuário e mostrar o caminho e as direções possíveis de forma
clara e concisa. Neste nível são pensadas as metáforas e estratégias para que o usuário,
visualmente, entenda como interagir com o a interface.
60
A vitrine possui aspectos retirados das interfaces gráficas tradicionais, como o uso de
menus e listas de itens, que por sua vez têm papel fundamental na experiência do
usuário. Estas estratégias gráficas são utilizadas para complementar o uso da interação
gestual que, muitas vezes, pode se tornar limitada se for usada isoladamente já que o
usuário pode não compreendê-la sem auxílio e retorno visual.
Figura 27 – Plano de superfície do Virtual Shoe Fitting
Fonte: <http://www.thjnk.de/project/gortz> Acesso: 05.mar.2013
4.8 Interação natural
O Virtual Shoe Fitting utiliza uma interface não-tradicional, ou seja, uma interface que
se distancia dos modelos de interação baseados em dispositivos e meios usuais. A
interação gestual presente na vitrine é responsável por um engajamento mais expressivo
por parte do usuário, justamente por fazer com que ele tenha que utilizar seu corpo para
ativar as funções disponíveis no sistema.
Como explorado no percurso deste trabalho, pode-se dizer que interações gestuais são
um passo para que a interação se torne mais natural e necessitam apresentar certas
qualidades visíveis ao usuário. Para Wigdor & Wixon (2011), interfaces naturais do
usuário devem, obrigatoriamente, apresentar três qualidades essenciais: serem
agradáveis, direcionarem à proficiência e serem apropriadas ao contexto. Relacionado a
61
isso, a dinâmica de poder experimentar um modelo de calçado realístico sem calcá-lo de
fato se torna agradável e divertida para o usuário, trazendo curiosidade ao contexto da
interação. Quanto a direcionar o usuário à proficiência durante a interação, a interface
promove uma interação relativamente intuitiva por apresentar uma estrutura hierárquica,
suportada por auxílio visual e gestos simples de serem realizados. Contudo, baseando-se
nos materiais disponíveis, não se pode afirmar precisamente se a interface oferece
feedback suficiente para usuários que estão interagindo pela primeira vez ou como o
sistema evita erros ou mal-entendidos por parte do usuário. A interface pode ser
considerada apropriada ao contexto, tornando-se uma tentativa significativa para sanar
uma limitação da experiência presente na loja virtual, além de engajar o usuário através
de suas funcionalidades que se diferenciam do contexto tradicional do processo de
compra de um calçado em uma loja física.
Neste caso, pode-se dizer que, através de uma análise geral, a interface apresenta uma
interação natural, apoiada através da interação gestual e do rastreamento do corpo do
usuário a modo de tornar a experiência do usuário mais fluida, intuitiva e agradável,
evocando a sensação de ser parte integrante da interface por parte do usuário.
62
Considerações finais
Voltando no tempo, a promessa das interfaces gráficas (GUI) era a de tornar mais fácil o
uso do computador e permitir que o usuário realizasse suas tarefas de modo mais rápido.
O advento das interfaces gráficas minimizou a demanda cognitiva e memória necessária
envolvida no uso de uma interface baseada em linhas de comando, porém inseriu,
gradativamente, uma série de escolhas e paradigmas que, muitas vezes, se distanciam do
usuário. Neste sentido, as interfaces naturais do usuário (NUI) apresentam duas
principais promessas, a primeira delas é que uma interação fluente pode ser obtida
rapidamente e a segunda defende que a interação pode ser agradável e prazerosa. Para
transformar estas promessas em realidade, a interface deve ser eficiente e fácil de
aprender, além de ser aprazível de usar, promovendo uma interação fluida e intuitiva.
Contudo, interfaces naturais não devem ser utilizadas em todos os contextos. Por
exemplo, interfaces naturais baseadas em interação gestual não são uma boa escolha
quando o usuário precisa manipular e entrar em contato com uma grande quantidade de
dados. Entretanto, vê-se grande futuro para o uso de interfaces naturais no campo do
entretenimento e lazer.
Novas tecnologias e novas formas de interação têm seu lugar próprio e leva-se um certo
tempo para compreender a melhor maneira de utilizá-las, porém elas sempre serão uma
forma em potencial de suprir as limitações e deficiências dos modelos predominantes.
Logo, mesmo com o entusiasmo de muitos, as interfaces naturais não irão substituir as
interfaces gráficas. As interfaces gráficas tradicionais estão, hoje, muito bem adaptadas
em seu nicho e realizam certas tarefas muito bem, como por exemplo, a digitação deste
trabalho de conclusão de curso que levaria muito mais tempo para ser digitado se fosse
utilizado um teclado touchscreen.
Hoje, igualmente como aconteceu no surgimento das interfaces gráficas tradicionais,
estamos explorando e experimentando novas formas de pensar interfaces humano-
computador, pondo em cheque certos padrões e dando lugar a novas possibilidades
trazidas pelo avanço da tecnologia. Interfaces naturais e interação gestual não são
diferentes de qualquer outra forma de interação, elas devem seguir os princípios básicos
do design de interação que são modos de expressão bem-definidos, um modelo
63
conceitual claro e meios de navegação sem ambiguidade. Elas devem promover
feedback imediato e conduzir o usuário durante sua interação.
Interações gestuais, por serem um meio natural de comunicação, necessitam de um
sistema que distingue falsas respostas provenientes de movimentos não intencionados
justamente pelo fato de que gestos podem se tornar ambíguos ou despretensiosos. Sendo
assim, interações gestuais irão cada vez mais ser inseridas no nosso cotidiano, porém
elas precisam de tempo para serem desenvolvidas e aperfeiçoadas ou para nós
entendermos melhor como tirar proveito delas. Aliado a isso, é válido lembrar que estes
novos meios de interação vêm com novos problemas, novos desafios e novas potenciais
limitações mesmo trazendo características positivas.
Interfaces naturais podem ser agradáveis de usar, interagir e experienciar, adicionando
sentimentos e sensações mais profundas que apenas clicar com um mouse ou digitar
através do teclado. Contudo, elas podem apresentar uma falta de consistência e
visibilidade por parte do usuário. Com isso, este trabalho mostra que o papel do
designer é fundamental e decisivo para que a interação humano-computador
possibilitada através de interfaces seja bem-sucedida e efetiva, sendo que novas formas
de pensar interfaces geram novos paradigmas e novos desafios a serem solucionados.
64
Referências
BILLINGHURST, M; BUXTON, B. Gesture based interaction. In.: Haptic input.
2011. Disponível em: <http://www.billbuxton.com/input14.Gesture.pdf> Acesso em:
01.nov.2012.
BONSIEPE, G. Design do material ao digital. Florianópolis: SEBRAE, 1997.
BONSIEPE, G. Design, cultura e o sociedade. Edgar Blucher, 2011.
BORENSTEIN, G. Making things see. Make, 2012.
CADOZ, C. Le gest, canal de communication homme/machine: la communication
instrumentale. In.: Technique et science de l'information, 13:31-61. 1994.
FERNANDES, Ciane. O corpo em movimento: o sistema Laban / Bartenieff na
formação e pesquisa em artes cênicas. São Paulo: Annablume, 2006.
GARRETT, Jesse James. The Elements of User Experience: User-Centered Design
for the Web and Beyond. Berkeley, New Rider: 2010.
GEERE, D. Kinect breaks fastest-selling gadget record. In.: WIRED, 2011.
Disponível em: <http://www.wired.co.uk/news/archive/2011-03/10/kinect-fastest-
selling-device>. Acesso em: 02.nov.2012.
IMDb. Minority Report. 2012. Disponível em:<http://www.imdb.com/title/tt0181689/>.
Acesso em: 15.nov.2012.
LANDLEY, R; RAYMOND, E. The art of unix usability. 2004. Disponível em:
<http://www.catb.org/~esr/writing/taouu/html/index.html>. Acesso em: 21.mai.2012.
MICROSOFT. Kinect for windows. 2012. Disponível em:
<http://www.microsoft.com/en-us/kinectforwindows/discover/features.aspx>. Acesso
em: 06.mai.2012.
MICROSOFT. Xbox 360 + Kinect. 2012. Disponível em: <http://www.xbox.com/pt-
BR/Kinect/Home-new>. Acesso em: 06.mai.2012.
NIELSEN, J. Projetando websites. Tradução de Ana Gibson. Rio de Janeiro: Elsevier,
2000.
NORMAN, D. A. O Design do futuro. Rio de Janeiro: Editora Rocco, 2010.
NORMAN, D. A. Natural user interfaces are not natural. In.: Interactions, 17. n3.
(mai-jun), 2010. Disponível em:
<http://www.jnd.org/dn.mss/natural_user_interfa.html>. Acesso em: 1.nov.2012.
NORMAN, D. A. Gestural Interfaces: a step backwards in usability. In.:
Interactions, 17. n5. (mai-jun), 2010. Disponível em:
65
<http://www.jnd.org/dn.mss/gestural_interfaces_a_step_backwards_in_usability_6.html
>. Acesso em: 1.nov.2012.
PREECE, J.; ROGERS, Y.; SHARP, H. Design de Interação: além da interação
humano-computador. Bookman, 2005.
RIME, B; SCHIARATURA, L. Gesture and speech: fundamentals of nonverbal
behavior. New York: Feldman & Rime, 1991.
SAFFER, D. Designing gestural interfaces. O'Reilly Media, 2008.
SANTA ROSA; J. G.; MORAES, A. Design participativo. Rio de Janeiro: Rio Books,
2012.
SCHILDT, Giles. The Paper Chase: Saving Money via Paper Prototyping. 2006.
Disponível em:
http://www.gamasutra.com/view/feature/131099/the_paper_chase_saving_money_via_.
php. Acesso em: jan. 2013.
SEVERINO, A. J. Metodologia do trabalho científico. 23ª ed. São Paulo: Cortez,
2007.
STEVENS, C. Designing for the ipad. John Wiley & Sons, 2011.
WIGDOR, D; WIXON, D. Brave NUI World: designing natural user interfaces for
touch and gesture. Morgan Kaufmann, 2011.