Pensando interfaces naturais baseadas na interação gestual ... · Ao professor e orientador...

65
Arthur Theil Cabreira Pensando interfaces naturais baseadas na interação gestual: contribuições no campo do design de interação humano-computador Monografia apresentada ao curso de Bacharelado em Design Digital da Universidade Federal de Pelotas, como requisito parcial para conclusão do mesmo, sob orientação do Prof. Tobias Mülling. Pelotas, 2013

Transcript of Pensando interfaces naturais baseadas na interação gestual ... · Ao professor e orientador...

Arthur Theil Cabreira

Pensando interfaces naturais baseadas na interação gestual: contribuições no campo do design de

interação humano-computador

Monografia apresentada ao curso de Bacharelado em

Design Digital da Universidade Federal de Pelotas, como

requisito parcial para conclusão do mesmo, sob orientação

do Prof. Tobias Mülling.

Pelotas, 2013

2

Banca examinadora

Ana Bandeira

Pablo Lisboa

3

Agradecimentos

Aos meus pais, por me apoiarem e me darem suporte para persistir nas minhas escolhas

e sonhos.

Ao professor e orientador Tobias Mülling por acreditar no meu potencial, incentivar e

aceitar o desafio de orientar mesmo à distância.

À Bruna e Larissa por serem grandes companheiras e serem minhas maiores

incentivadoras.

À banca examinadora, Ana Bandeira e Pablo Lisboa, pelas contribuições acrescidas ao

trabalho.

Mais do que máquinas,

Precisamos de humanidade.

- Charles Chaplin

4

CABREIRA, Arthur Theil. Pensando interfaces naturais baseadas na interação

gestual: contribuições no campo do design de interação humano-computador.

Pelotas: 2013. Monografia (Bacharelado em Design Digital) – Universidade Federal de

Pelotas, 20113.

Resumo

Este trabalho tem como objetivo analisar o conceito de interfaces naturais do usuário e

refletir sobre suas qualidades e limitações no contexto da interação humano-

computador, explicitando o papel do design durante o projeto. Os principais autores que

guiaram a fundamentação teórica da pesquisa foram Wigdor & Wixon (2011) e Saffer

(2008), dando destaque para a interação gestual como um tipo de interface natural. Foi

desenvolvido um estudo de caso da vitrine baseada em interação gestual chamada

“Virtual Shoe Fitting” s partir dos elementos da experiência do usuário de Garrett.

Palavras-chave: Interfaces Naturais do Usuário, Interação Gestual, Kinect, Interação

Humano-computador.

5

CABREIRA, Arthur Theil. Designing natural user interfaces basead on gestural

interactions: contributions in the field of human-computer interaction design.

Pelotas: 2011. Monograph (Bachelor in Digital Design) – Federal University of Pelotas,

2011. 100p.

Abstract

This study aims to analyze the concept of natural user interfaces and clarify their

strengths and limitations in the field of human-computer interaction, explaining the role

of design throughout the project. The main authors who guided the theoretical

foundation of the research were Wigdor & Wixon (2011) and Saffer (2008),

highlighting the gestural interaction as a type of natural interface. A study case was

developed based on gestural interaction showcase called "Virtual Shoe Fitting"starting

from the Garrett’s elements of the user experience.

Keywords: Natural User Interfaces, Gestural Interactions, Kinect, Human-computer

Interaction.

6

Lista de Figuras

Figura 01 – Interação gestual no filme “Minority Report”............................................ 09

Figura 02 – Interface linha de comando (CLI)............................................................... 16

Figura 03 – Interface gráfica do usuário (GUI).............................................................. 17

Figura 04 – Interação gestual no Kinect........................................................................ 28

Figura 05 – Interação gestual no Kinect........................................................................ 29

Figura 06 – A figura humana na labanotação................................................................ 32

Figura 07 – O sistema de labanotação .......................................................................... 33

Figura 08 – O sistema Benesh ...................................................................................... 34

Figura 09 – A esfera da notação EWMN ..................................................................... 34

Figura 10 – Exemplo de planilha para notação EWMN .............................................. 35

Figura 11 – Exemplo de fluxo de tarefas ...................................................................... 38

Figura 12 – Exemplo de documentação do ambiente .................................................. 39

Figura 13 – Exemplo de protótipo de papel .................................................................. 41

Figura 14 – Exemplo de storyboard para uma interface touchscreen .......................... 42

Figura 15 – Exemplo de storyboard utilizando fotografia ........................................... 42

Figura 16 – Quadros-chave de animação de uma interação gestual ............................. 44

Figura 17 – Interações mostradas no vídeo “Kinect Effect".......................................... 44

Figura 18 – Exemplo de protótipo de alta fidelidade..................................................... 45

Figura 19 – Vitrine “Virtual Shoe Fitting” que utiliza interação gestual ..................... 48

Figura 20 – Usuário utilizando o celular para comprar calçado presente na vitrine..... 49

Figura 21 – Imagens da vitrine “Virtual Shoe Fitting”................................................. 50

Figura 22 – Planos propostos por Garrett para representar a experiência do usuário ... 51

Figura 23 – Características a serem pensadas em cada plano da experiência do us.... 52

Figura 24 – Simulação de como os sensores leem o corpo do usuário......................... 53

Figura 25 – Estrutura hierárquica proposta por Garrett ............................................... 54

Figura 26 – Fluxo de tarefas presentes no “Virtual Shoe Fitting”................................ 55

Figura 27 – Plano de superfície do Virtual Shoe Fitting.............................................. 60

7

Sumário

Introdução ...................................................................................................................... 09

Problema de pesquisa ...................................................................................................... 11

Objetivos .......................................................................................................................... 11

Objetivo geral ............................................................................................................... 11

Objetivos específicos .................................................................................................... 11

Proposta de desenvolvimento metodológico ................................................................... 12

Descrição dos capítulos ................................................................................................... 13

1 Interação e interfaces ................................................................................................. 15

1.1 Interação humano-computador e design de interação ............................................... 15

1.2 Trajetória das interfaces do usuário (UI) ................................................................... 16

1.2.1 Interface linha de comando (CLI) ...................................................................... 16

1.2.2 Interfaces gráficas do usuário (GUI) .................................................................. 17

1.3 Interfaces naturais do usuário .................................................................................... 17

1.3.1 Características de interfaces naturais do usuário ................................................. 19

2 Interfaces naturais e gestos ........................................................................................ 20

2.1 Interfaces naturais baseadas na interação gestual ...................................................... 20

2.2 Interações gestuais sob o panorama das interfaces naturais do usuário .................... 25

2.3 Projetando interfaces naturais baseadas na interação gestual .................................... 26

2.4 Kinect e aplicabilidade das interações gestuais ......................................................... 28

3 Documentação e prototipação ................................................................................... 30

3.1 Documentando Interfaces Naturais Baseadas em Interação Gestual ......................... 30

3.2 Prototipando Interfaces Naturais Baseadas em Interação Gestual ............................ 39

4 Görtz Shoes e sua vitrine baseada em interação gestual ......................................... 47

4.1 Materiais .................................................................................................................... 49

4.2 Metodologia e fundamentação teórica ....................................................................... 50

4.3 Plano da estratégia ..................................................................................................... 52

4.4 Plano de escopo ......................................................................................................... 53

4.5 Plano de estrutura ...................................................................................................... 53

8

4.6 Plano de esqueleto ..................................................................................................... 56

4.7 Plano de superfície..................................................................................................... 59

4.8 Interação natural ........................................................................................................ 60

Considerações finais ...................................................................................................... 62

Referências ..................................................................................................................... 64

9

Introdução

Em 2002, Steven Spielberg dirigiu o filme de ficção científica Minority Report1 onde

Tom Cruise fazia o papel de John Anderton, um detetive atuante na cidade de

Washington. Ambientada no futuro próximo de 2054, a obra cinematográfica

apresentava a divisão “pré-crime”, uma espécie de elite policial responsável por

solucionar assassinatos antes mesmo deles acontecerem, através de informações

fornecidas a partir de visões concebidas por três entidades videntes chamadas

“precogs”. Assim, quando eles tinham uma visão, o nome da vítima era mostrado em

uma esfera enquanto o nome do assassino era apresentado em outra. Junto a isso, eram

disponibilizadas imagens e o horário exato do crime, fazendo com que o grupo de

policiais trabalhasse para evitar o assassinato. O enredo apresenta uma reviravolta

quando Anderton, líder da equipe de policiais, aparece em uma das visões dos precogs

como assassino de um desconhecido, pondo em questão sua confiança no sistema e,

consequentemente, tornando-o alvo da investigação policial.

Figura 1 – Interação gestual no filme “Minority Report”

Fonte: IMDb

O filme dá suporte para várias discussões pertinentes, como, por exemplo, o dilema

“pode uma pessoa ser julgada e, consequentemente, presa por um crime que nunca

chegou a cometer?”, além de outros debates éticos. Porém, uma das questões cruciais a

respeito das indagações propostas pela ficção dirigida por Spielberg concerne na

1 Informações, dados, imagens e sinopse disponíveis em: <http://www.imdb.com/title/tt0181689/>.

Acesso em: 15.dez.2012.

10

importante reflexão em relação ao modo como o futuro e nossa relação com a

tecnologia são mostrados na obra. Fomos apresentados à clássica cena na qual Tom

Cruise interage com um enorme display enquanto arrasta, amplia e manipula imagens

utilizando apenas os gestos de suas mãos, sem necessariamente entrar em contato com

qualquer superfície. A interface presente no filme, projetada pelo designer John

Underkoffler, serviu como antecipação de uma realidade em que hoje podemos nos

considerar inclusos.

Dez anos se passaram desde o lançamento do longa e a tecnologia experienciada em

2054 não é mais ficção. Estamos envoltos em um cotidiano no qual smartphones e

tablets dependem do deslizar de nossos dedos para funcionarem e a cada semestre novos

dispositivos são lançados no mercado, capazes de realizar uma gama infinita de novas

funções e de múltiplas formas, como é o caso do Kinect, sensor que revolucionou o

modo de jogar videogame ao permitir que os jogadores utilizassem o movimento do

próprio corpo para interagir com o jogo. Sendo assim, a tecnologia não é mais um

obstáculo no que tange a interação humano-computador e, hoje, é possível imaginar

diferentes formas de interação, apropriando-se de meios de comunicação naturalmente

humanos, como a interação gestual e o reconhecimento de fala. Essa efervescência

tecnológica abre espaço para discussões referentes ao pensamento em torno de

interfaces naturais do usuário, um conceito que propõe uma visão que se distancia da

maioria dos paradigmas pré-existentes e se concentra na construção de uma interação

naturalmente humana, tornando-as mais fluídas e intuitivas.

Diariamente, somos forçados a navegar por sistemas complexos para obter simples

informações. Somos obrigados a interagir com interfaces não-amigáveis, incoerentes e

que nos causam frustrações de diferentes níveis. Desse modo, usuários ocupam seu

tempo focando esforços na própria interface e como utilizá-la ao invés de direcionar

seus esforços no trabalho que deve ser feito e em seus próprios objetivos. Questiona-se,

assim, a possibilidade de pensar a interação de uma forma natural para o usuário,

desprendendo-se de mecanismos e modelos tradicionais que muitas vezes se mostram

inerentemente inaturais.

Neste momento, revela-se o papel do designer, ao ser responsável por pensar e

estruturar essas interfaces tendo em vista a perspectiva do usuário, considerando seu

contexto de uso e suas necessidades. Percebe-se, então, a conveniência de aprofundar a

relação entre teoria e prática acerca dos desafios e possibilidades de interação humano-

computador provenientes de projetos de design envolvendo interfaces naturais e, assim,

11

contribuir para a construção de conhecimento na área. Sendo assim, este trabalho de

conclusão de curso tem a pretensão de pesquisar a respeito das interfaces naturais do

usuário e relacioná-las com a prática do design digital.

Problema de pesquisa

Partindo da premissa de que novas tecnologias oferecem a oportunidade de pensar

interações cada vez mais próximas do ser humano, vê-se a necessidade de refletir sobre

estes novos modelos de interação humano-computador e contribuir para o campo do

design de interfaces. Aspira-se, então, responder a questão: as características presentes

nas interfaces naturais do usuário são pontes efetivas para uma interação humano-

computador bem-sucedida? Esta indagação justifica-se com a ausência de ampla

literatura em português sobre o assunto, sendo formada, em sua grande maioria, por

autores de língua inglesa. Além disso, podem ser consideradas escassas as publicações

em torno do campo de estudo de interfaces baseadas em interação gestual, mesmo com

o surgimento de novos dispositivos tecnológicos que permitam sua ascenção. Logo,

tendo como foco o pensando em torno das interfaces naturais do usuário e interação

gestual, posiciona-se seu conceito e suas implicações como objeto de estudo. Desta

forma, as principais questões que norteiam o escopo da pesquisa são referentes à

pertinência do uso de interfaces naturais do usuário na interação humano-computador,

quando e como aplicá-las, suas limitações e quais são os desafios procedentes à prática

do designer ao projetá-las, além de refletir sobre o cenário futuro envolvendo estas

interfaces.

Sendo assim, pretende-se abordar fundamentos do design de interação e interação

humano-computador para embasar a construção da investigação e responder o problema

de pesquisa. Há o interesse de focar o estudo nas interações gestuais para fins de

embasamento da parte prática do trabalho, que é justamente o projeto de uma interface

natural baseada em interações com gestos.

Objetivos

Esta pesquisa tem como principal objetivo o entendimento do conceito e de como o uso

de interfaces naturais podem contribuir no campo da interação humano-computador,

além de fornecer subsídios para guiar o projeto de interfaces baseadas nestes modelos

emergentes de interação. Além disso, outras metas da investigação concernem em

12

discussões sobre as características de interfaces naturais, catalogando padrões e práticas

para guiar a prática do designer. Outro intuito específico da pesquisa é a compreensão

de como a inclusão do usuário no processo projetual (design participativo) pode facilitar

no pensamento de interfaces naturais. Não obstante, a pesquisa pretende orientar uma

reflexão sobre as qualidades e limitações do conceito de interfaces naturais do usuário e,

por isso, propõe-se, ao final do aporte teórico, o desenvolvimento de um estudo de caso

referente à vitrine interativa “Virtual Shoe Fitting” que é baseada em interação gestual e

rastreamento do corpo humano. Este trabalho de conclusão de curso não anseia o

desenvolvimento de um projeto prático de design, mas sim, visa-se utilizar o referencial

englobado na pesquisa para estabelecer uma relação intrínseca entre a teoria e a prática

e contribuir para os estudos no campo do design de interfaces naturais do usuário

baseadas em interação gestual.

Proposta de desenvolvimento metodológico

Trata-se de uma pesquisa de natureza aplicada, com abordagem qualitativa, tendo como

suporte o procedimento exploratório do tema ligado às interfaces naturais do usuário.

Há a conveniência de atribuir um recorte ao tema, focando nas interações gestuais por

serem meios de interação em grande expansão e com aplicabilidades diversas, servindo

como embasamento para o desenvolvimento da parte aplicada do trabalho. Além de

levantar informações a respeito do objeto de estudo, o intuito da pesquisa prevê a

interpretação do material levantado através de uma análise reflexiva de suas

manifestações.

A pesquisa exploratória busca levantar informações sobre um determinado

objeto, delimitando assim um campo de trabalho, mapeando as condições de

manifestação desse objeto. Na verdade, ela é uma preparação para a pesquisa

explicativa. A pesquisa explicativa é aquela que, além de registrar e analisar

os fenômenos estudados, busca identificar suas causas, seja através da

aplicação do método experimental/matemático, seja através da interpretação

possibilitada pelos métodos qualitativos (SEVERINO, 2003, p.123).

Com isso, a revisão bibliográfica foi fundamentada através de autores como Preece

(design de interação), Norman (usabilidade e experiência do usuário), Bonsiepe (design

e cultura), Santa Rosa & Moraes (design participativo e ergodesign), Wigdor & Wixon

(interfaces naturais do usuário), Saffer (interação gestual), Buxton (interação) e Garrett

(experiência do usuário). Após o levantamento bibliográfico de fontes acerca do foco

da investigação (publicações, projetos, estudos, protótipos), dá-se a catalogação e

13

análise dos dados levantados para atribuir respostas às questões norteadoras da

pesquisa, além de conciliar os resultados em um estudo de caso, a fim de verificar a

abordagem prosseguida e os procedimentos adotados.

Descrição dos capítulos

O trabalho mostra-se estruturado em 4 capítulos, englobando uma perspectiva que vai

da teoria à prática. Sendo assim, pode-se determinar um procedimento estrutural

seguindo, primeiramente, a abordagem de fundamentos e reflexões primordiais e,

posteriormente, a contextualização destes conceitos aplicados. Ao final, pretende-se

gerar uma reflexão a respeito dos resultados da pesquisa.

Sendo assim, no primeiro capítulo 1 são tratados de conceitos e reflexões fundamentais

a respeito da interação humano-computador e design de interação, além de apresentar,

brevemente, a trajetória das interfaces digitais e aspectos culturais das interfaces, além

de expor a noção de interfaces naturais do usuário. Ao final do capítulo, são expostas

algumas reflexões sobre o design centrado no usuário.

No capítulo 2, é apresentada a noção de interações gestuais relacionadas às interfaces

naturais do usuário, além de comparar os conceitos de Saffer (interação gestual) com os

de Wigdor & Wixon (interfaces naturais) e estruturar um guia de boas práticas para o

projeto de interfaces utilizando o conceito de interfaces naturais do usuário. Por fim, é

apresentado o Kinect, dispositivo que fez com que fosse possível a massificação do uso

das interações gestuais, relacionando-o com as reflexões acerca das interfaces naturais.

No capítulo 3, é mostrado um inventário de técnicas e métodos para documentação de

projetos de interfaces naturais baseadas em interação gestual a fim de auxiliar na

estruturação das especificações e características da interface a ser desenvolvida. Aliado

a isso, são mostradas técnicas de prototipação de interfaces no contexto da interação

gestual com o intuito de permitir ao designer modificar o projeto e melhorá-lo antes de

seu desenvolvimento final.

No capítulo final, 4, é exposto o estudo de caso desenvolvido a partir da interface da

vitrine interativa “Virtual Shoe Fitting”. O estudo foi baseado nos níveis de experiência

do usuário propostos por Garrett (2010) e teve objetivo de analisar o uso da interação

gestual, além de catalogar seus módulos gestuais e explicitar seu fluxo de tarefas

seguindo o referencial teórico exposto anteriormente neste trabalho.

14

Nas considerações finais, serão retomados o problema da pesquisa e os objetivos,

discutindo, então, as vantagens e desvantagens do uso de interfaces naturais do usuário

e interação gestual, a fim de contribuir para a área da interação humano-computador e

para a prática do designer digital.

15

1 Interação e Interfaces

1.1 Interação humano-computador e design de interação

A sociedade nunca foi a mesma depois do eclodir dos primeiros computadores e, desde

então, tem-se buscado ininterruptamente o aprimoramento das funcionalidades de

nossas máquinas. A evolução da capacidade de armazenamento e processamento de

dados dos computadores fez com que seus componentes eletrônicos se tornassem

verdadeiros sistemas complexos de valor imensurável (Landley & Raymond, 2004) e,

relacionado a isso, a maneira na qual as pessoas interagem com eles evoluiu

significativamente desde o surgimento dos gigantescos primeiros computadores digitais,

que eram programados usando-se chaves mecânicas e outros componentes analógicos.

Hoje, as pessoas interagem com máquinas de diferentes tamanhos e funções, que vão

desde o desktop no escritório, o notebook no quarto, o celular durante o almoço ou o

videogame nos finais de semana.

Enquanto as máquinas aumentaram seu poder de processamento e diminuiram em

tamanho e custo, novos formatos foram criados, novas plataformas evoluíram, novas

infra-estruturas se tornaram amplamente disponíveis, novas indústrias surgiram e novas

aplicações floresceram. Todas as tendências resultaram na democratização da

tecnologia, como o número crescente de pessoas interagindo diretamente com

computadores em contextos cada vez mais diversificados. Esta proliferação da

tecnologia transcendeu as fronteiras dos países e permeou, significativamente, todas as

classes sociais, modificando, drasticamente, a forma como as pessoas produzem,

trabalham, se divertem e interagem com os outros (Wigdor & Wixon, 2011, p. 3).

Porém, enquanto o avanço da capacidade das máquinas tem sido contínuo, as interfaces

entre usuários e computadores tem evoluído de forma descontínua e insuficiente. Desta

forma, entende-se como função da interface “permitir ao usuário obter uma visão

panorâmica do conteúdo, navegar na massa de dados sem perder a orientação e, por fim,

mover-se no espaço informacional de acordo com seus interesses” (BONSIEPE, 1997,

p.59). De fato, não se pode negar que hoje nossa relação com a tecnologia é mais

amigável e intuitiva que alguns anos atrás, porém, vale lembrar que, interagimos,

constantemente, com interfaces de diversos sistemas, produtos e serviços em diferentes

contextos por razões e necessidades distintas, sendo que, muitas vezes, nosso contato

16

com estas interfaces ainda se torna permeado por frustrações que afetam nossas

atividades cotidianas, não oferecendo o devido suporte aos usuários.

Refletindo sobre isso, percebe-se que mesmo sendo indiscutível a presença de interfaces

em nossas vidas, elas ainda encontram-se distantes de nós. Justamente por pensarmos

nelas como computadores, a relação que estabelecemos não é natural. Essa emergência

de novas tecnologias inseridas em contextos e aplicabilidades diferentes, trouxe a

necessidade de suprir uma demanda maior de requisitos e necessidades, dando foco,

principalmente, para a experiência do usuário. Neste contexto, surge o design de

interação que tem o objetivo de “fornecer suporte às atividades cotidianas das pessoas,

seja no lar ou trabalho, criando experiências que melhorem e estendam a maneira como

as pessoas trabalham, se comunicam e interagem” (PREECE et al, 2005, p.28). Para os

autores, o design de interação é multidisciplinar e resgata conhecimentos de diversas

áreas do conhecimento, como psicologia, antropologia, ciência da computação e outras.

Além disso, um de seus objetivos é otimizar a interação entre usuários e produtos,

levando em consideração contexto de uso e necessidades do usuário.

1.2 Trajetória das interfaces do usuário (UI)

Uma perspectiva amplamente aceita separa as interfaces em fases vagamente definidas

mas que podem auxiliar no entendimento da trajetória da interação humano-

computador:

1.2.1 Interface linha de comando (CLI)

As command-line interfaces (CLI) surgiram em meados dos anos 60 e a interação entre

o usuário e o sistema dava-se através e linhas de comando. Tal modelo era largamente

exclusório pois apenas indivíduos com conhecimento prévio em linguagens de

programação estavam aptos a interagir com essas interfaces nada amigáveis (Landley &

Raymond, 2004).

Figura 2 – Interface linha de comando (CLI)

Fonte: <http://lpr.brooksnet.com/sites/default/files/imported/images/isend-file.png>

Acesso em: 21.mai.2012.

17

1.2.2 Interfaces gráficas do usuário (GUI)

Em meados dos anos 80, com o incremento dos componentes gráfico-eletrônicos, houve

o surgimento das primeiras graphical user interfaces (GUI), nada mais que interfaces

gráficas que remontavam metáforas do cotidiano do usuário, fazendo com que a

interação se tornasse mais amigável (Landley & Raymond, 2004). Tal paradigma foi

responsável pela expansão dos computadores em escala global, sendo o cerne da

interação humano-computador até hoje, tornando-se a principal ponte entre as máquinas

eletrônicas e nós, usuários. Junto às interfaces gráficas, foram consolidados o uso do

mouse como input para as ações do usuário e o paradigma “WIMP” (sigla em inglês

para “janelas, ícones, menus e ponteiros”). Com isso, o pensamento de interfaces está

intrisecamente relacionado às interfaces gráficas por serem o modelo dominante na

atualidade.

Figura 3 – Interface gráfica do usuário (GUI)

Fonte: <http://img.tfd.com/cde/_GUIMOT.GIF>

Acesso em: 21.mai.2012.

1.3 Interfaces naturais do usuário

Hoje, estamos em frente de uma nova e potencial evolução no modo de interagir com

interfaces digitais. As interfaces naturais do usuário (NUI) encontram-se em uma

posição similar a que ocupada pelas interfaces gráficas no início dos anos 80. Wigdor &

Wixon (2011) defendem que as interfaces naturais prometem reduzir profundamente as

barreiras encontradas na interação humano-computador enquanto, simultaneamente,

concedem mais poder e controle ao usuário. A grande diferença entre as interfaces

18

tradicionais (GUI) e as interfaces naturais é que, ao contrário das das interfaces

tradicionais, as interfaces naturais oferecem um meio agradável para que usuários

novatos e inexperientes se tornem, rapidamente e sem esforço significativo, usuários

proficientes. Entende-se então que, uma interface natural do usuário é aquela que

oferece um caminho claro e agradável para uma interação irrefletida e intuitiva, ou seja,

que faça parecer natural o realizar de uma tarefa tanto na prática quanto em seu

aprendizado. Sendo assim, pode ser considerada uma interface que torna a experiência

do usuário agradável sem distrações significativas em sua prática. Neste sentido,

“natural” não significa cru ou primitivo mas pode ser melhor entendido pela frase “esta

pessoa é natural”, que dá a sensação de que o desempenho dela é ideal e que parece ser

fácil, sem esforços.

Com isso, durante a interação, o usuário tem a sensação de fazer parte do sistema

justamente por se tratar de uma experiência fluida e convidativa. Neste caso, o usuário

sente-se atraído e engajado a interagir com o sistema, fazendo com que sua interação

seja guiada “naturalmente”. Para isso, a interface deve refletir a capacidade do usuário,

suprir suas necessidades e tirar vantagem das características humanas, levando em conta

o contexto de uso. A grande premissa de uma interface natural é permitir que o usuário

compreenda, interaja e sinta-se fluente enquanto interagindo pela primeira vez com o

produtos ou sistema, e não depois de várias tentativas ou tempo de prática.

Ao pensar em uma interface natural do usuário, pensa-se, de acordo com Wigdor &

Wixon (2011), em uma interface que não imite ou copie paradigmas existentes, uma

interface que construa uma experiência do usuário autêntica e que resgate as habilidades

inerentes do ser humano. A interface deve permitir que o usuário, sem esforços, crie um

vínculo positivo ao interagir com ela, a ponto de se tornar invisível com o tempo.

Para os autores, interfaces naturais do usuário (NUI) devem, obrigatoriamente,

apresentar três características fundamentais: ser agradáveis, direcionar à proficiência e

ser apropriada ao contexto. As NUI devem conter estes três elementos em graus

variantes. Neste sentido, videogames e jogos eletrônicos podem ser agradáveis mas não

apresentam os outros dois elementos, sistemas de treinamento direcionam à proficiência

mas podem não ser apropriados ao contexto e, tampouco, agradáveis. Um caixa

eletrônico que utilize tela touchscreen e reconhecimento de voz pode ser apropriado ao

contexto mas dificilmente direciona à proficiência, acabando por afetar também o

elemento de agradabilidade.

19

As interfaces naturais do usuário (NUI) representam uma revolução na interação

humano-computador não por repensar o modo como interagimos com computadores

mas sim porque possibilita a expansão das máquinas para diferentes nichos, reduzindo a

curva de aprendizado e as limitações existentes no contexto de interfaces tradicionais.

1.3.1 Características de interfaces naturais do usuário

A partir das características baseadas nos autores Wigdor & Wixon (2011) e Saffer

(2008), foi construída uma tabela que cruza e categoriza as informações defendidas por

cada autor em sua área de estudo, interfaces naturais e interação gestual,

respectivamente. Esta tabela sintetiza as características que devem estar presentes em

uma interface para ser considerada natural.

Ser agradável

(Wigdor; NUI)

Direcionar à proficiência

(Wigdor; NUI)

Ser apropriada ao

contexto

(Wigdor; NUI)

Confiabilidade

(Saffer; gestual)

Detectabilidade

(Saffer; gestual)

Adequação

(Saffer; gestual)

Ser responsiva

(Saffer; gestual)

Habilidade

(Saffer; gestual)

Ética

(Saffer; gestual)

Significância

(Saffer; gestual)

Inteligência

(Saffer; gestual)

Divertimento

(Saffer; gestual)

Agradabilidade

(Saffer; gestual)

Tabela 1 – Comparativo entre autores.

Fonte: do autor

20

2 Interfaces naturais e gestos

2.1 Interfaces naturais baseadas na interação gestual

Billinghurst & Buxton (2011) definem um gesto como um movimento corporal que

contém informação. Neste contexto, acenar com a mão é considerado um gesto, assim

como o movimento realizado ao cumprimentar uma pessoa. Ao contrário deste

pensamento, o apertar de uma tecla não é considerado um gesto já que o movimento do

dedo não é observado nem significante, uma vez que o importante é, de fato, qual tecla

foi apertada. Com isso, é possível entender que o meio utilizado para apertar a tecla é

irrelevante tanto para o sistema quanto para o usuário. Segundo Saffer (2009), no

contexto da interação humano-computador, um gesto pode ser considerado como

qualquer movimento físico detectado através de sensores digitais, gerando uma resposta

sem o auxílio de mecanismos tradicionais como mouse e teclado. Deste modo, um

movimento com a cabeça, piscar de olhos ou bater palmas podem ser interpretados

como um gesto que dará subsídios para que um sistema processe uma ação. O

reconhecimento gestual não é um tópico recente, a interpretação das expressões gestuais

humanas a partir de algoritmos matemáticos está presente na pauta das ciências da

computação há décadas e, hoje, essa discussão vai além do ponto de vista técnico.

Percebe-se que a interação gestual está, antes de tudo, inclusa em um contexto

comunicacional, sendo que é um meio naturalmente humano de expressão. Gestos têm a

possibilidade de existir isoladamente ou envolver objetos externos e, relacionado a isso,

Cadoz (1994) classifica-os de acordo com sua função, podendo ser:

a) Semióticos: quando utilizados para comunicar informação significativa.

b) Manuais: quando usados para manipular e criar artefatos físicos.

c) Epistêmicos: quando utilizados para aprender com o ambiente através da

exploração tátil ou háptica.

Porém, ao centrar no entendimento de como o uso de gestos pode ser utilizado como

meio de comunicação dentro da interação humano-computador, há maneiras mais

pertinentes de categorizá-los. Rime & Schiaratura (1991), propõem a seguinte

taxonomia de gestos:

a) Gestos simbólicos: aqueles gestos que dentro de uma determinada cultura

podem ser utilizados para comunicar um significado específico.

21

b) Gestos dêiticos: são o tipo de gestos geralmente utilizados na interação

humano-computador e servem para apontar e direcionar a atenção a eventos

específicos ou a objetos ao redor.

c) Gestos icônicos: como o nome sugere, estes gestos são usados para transmitir

informações relativas a tamanho, forma ou orientação de objetos em um discurso

linguístico.

d) Gestos pantomímicos: são gestos tipicamente usados na gesticulação da fala,

com o objetivo de mostrar o movimento de uma ferramenta ou objeto

imaginário, uma mímica.

Pode-se inferir que os gestos estão intimamente relacionados à fala e ao discurso oral. O

gesto é, muitas vezes, dependente da linguagem falada e necessita dela para seu

entendimento. Com isso, apenas os gestos simbólicos podem ser interpretados sem

informação contextual mais profunda e, neste sentido, o uso da interação gestual em

interfaces está basicamente centrada nas interações de gestos simbólicos e dêiticos,

justamente por apresentarem configurações mais definidas e facilmente interpretadas

pelos sensores. É válido lembrar quão difícil pode se tornar, para um sistema, a

interpretação de um gesto e quão complexo pode se tornar um gesto ao se relacionar

intrisicamente com o discurso linguístico. Essas questões limitam a integração de gestos

mais complexos e subjetivos no desenvolvimento de interfaces baseadas na interação

gestual e muitas vezes estas interfaces fazem uso do reconhecimento de voz.

De acordo com Saffer (2009), a maioria das interfaces baseadas na interação gestual

podem ser classificadas em dois tipos distintos de interação, sendo elas:

a) Interações touchscreen: esse primeiro tipo de interface gestual pressupõe

que o usuário toque diretamente a tela de um dispositivo ou superfície. Para

Stevens (2011), esta pequena alteração no modo como as pessoas interagem,

através dos dedos em uma tela, fez com que fossem apresentadas novas

problemáticas aos designers e desenvolvedores, potencializando a gama de

recursos em suas aplicações. A interação touchscreen está presente, atualmente,

na maioria dos smartphones e tablets, além de alcançar, progressivamente,

espaço no ramo dos notebooks e das mesas e painéis interativos.

b) Interações de forma livre: as interfaces que permitem gestos livres (sem

estar em contato com alguma superfície) partem do princípio que o corpo

humano é o dispositivo de entrada da interação. Para isso, o movimento e a

configuração dos gestos são lidos por sensores digitais. Tal interação constrói

22

uma ponte intuitiva entre interfaces digitais e usuários, promovendo um nível de

imersão maior que as interfaces tradicionais ao habilitar o indivíduo a interagir

naturalmente sem o contato de dispositivos mecânicos. Este tipo de interação

está presente no Kinect, tanto para o videogame Xbox 360 quanto para o sistema

operacional Windows, e no dispositivo Asus Xtion Pro.

Wigdor & Wixon (2011) destacam que a configuração de um gesto consiste em três

estágios diferentes. O primeiro deles é chamado de “registro”, na qual o tipo de ação é

estabelecido. Já o segundo estágio, é nomeado “continuação”, onde há o ajuste dos

parâmetros do gesto. O terceiro e último é a “terminação”, que é o momento na qual o

gesto é finalizado. Com isso, é possível dissernir que o usuário seleciona a função do

gesto no estágio de registro e especifica seus parâmetros na fase de continuação. Sendo

assim, a função é executada até o estágio final de terminação. Essa lógica é essencial

para pensar interfaces que utilizem interação gestual como suporte para ações do

usuário, definindo claramente a realização de funções.

Registro Continuação Terminação

Colocar dois dedos sobre um

conteúdo em uma tela

touchscreen

Mover os dedos sobre a

superfície do dispositivo: as

mudanças na distância entre os

dois dedos implicam na

modificação da orientação e

posicionamento do conteúdo

Retirar os dedos em contato com

a superfície do dispositivo

Abrir a palma da mão em

direção a um sensor digital

Deslocar suavamente a mão para

passar e selecionar uma série de

ítens

Após escolher o item, posicionar

a mão e fechar sua palma

Tabela 2 – Exemplo de registro, continuação e terminação de um gesto em interfaces.

Fonte: do autor

O registro de um gesto é, efetivamente, o passo mais importante no pensamento de uma

interface baseada na interação gestual. O sobrecarregamento de registros, tendendo à

ambiguidade e dificuldade de distinguir ações físicas, pode criar um sistema repleto de

enganos e feedback deficiente. Relacionado a isso, Norman (2010) ressalta o caráter

efêmero dos gestos, tendo em vista que deixam para trás qualquer registro de sua

trajetória. Isso significa que, quando a ação de um gesto não obtém resposta (ou obtém

23

uma resposta indevida), há pouca informação disponível para entender o porquê. Por

isso, o pensamento cuidadoso do alcance e variedade das possibilidades de uma

interface gestual é necessário para reduzir a sobreposição de ações de registros e,

consequentemente, previnir erros críticos na interação humano-computador.

Ao aprofundar as diretrizes envolvidas na inclusão de gestos na interação de interfaces,

Wigdor & Wixon (2011) estabelecem certos procedimentos que podem ser adotados

durante o pensamento dessas interfaces:

a) Minimizar o número de passos que o usuário deve tomar antes de registrar a

ação de um gesto.

b) Reduzir a carga necessária na transição do estágio de registro para o de

continuação. Para o usuário, deve ser imediatamente claro como especificar

o comando que ele pretende executar.

c) Fornecer um feedback claro em cada etapa realizada pelo usuário,

assegurando que ele entenda quando passou do estágio de registro para o de

continuação e como finalizar o gesto.

Percebe-se então, a pertinência de pensar o que os mesmos autores chamam de “gestos

auto-reveladores”, tendo como base a premissa de que, para observar um

comportamento no usuário, é necessário induzi-lo e, principalmente, proporciona-lo.

Sendo assim, deve-se visar não sobrecarregar o usuário com opções não intuitivas e,

sim, proporcionar que ele aprenda a linguagem gestual apresentada na interface

enquanto interage com ela.

A linguagem gestual pode ser considerada como o conjunto de atributos empregados em

determinada ação gestual. São características que podem ser detectadas e, por

conseguinte, utilizadas ao pensar uma interface baseada na interação gestual. Saffer

(2009, p.22) enfatiza que, quanto mais sofisticada for a interface, mais atributos podem

ser inclusos. Alguns dos principais atributos dispostos pelo autor são:

a) Presença: é o mais básico dos atributos da linguagem gestual. Algo precisa

estar presente para realizar um gesto a fim de desencadear uma interação.

Para alguns sistemas, especialmente em alguns contextos, um indivíduo

meramente presente é o suficiente para causar uma ação. Em outro momento,

até mesmo nas interfaces touchscreen mais simplórias, a simples presença de

dedos pode criar um evento.

24

b) Duração: todos os gestos tomam forma ao longo de um determinado espaço

temporal e podem ser realizados rápida ou lentamente. Para algumas

interfaces, a habilidade de determinar a duração de um gesto pode ser de

fundamental importância.

c) Movimento: há diferentes questões a serem pensadas em relação ao

movimento empregado em uma determinada interação. O usuário pode

mover-se de um lugar a outro ou pode permanecer parado em uma pose

assim como o movimento, por sua vez, pode ser rápido ou lento, para cima

ou para baixo, e de lado a lado. Qualquer movimento pode ser o suficiente

para provocar uma resposta.

d) Inclusão de objetos: certas interfaces permitem que o usuário utilize objetos

físicos junto ao seu corpo a fim proporcionar maior engajamento. Simples

sistemas irão tratá-los como mera extensão do corpo humano, porém

sistemas mais complexos podem reconhecê-los e permitir seu uso em

determinado contexto.

e) Combinação: uma característica importante é a possibilidade de combinar

diferentes gestos enquanto meio de interação. É possível, por exemplo,

utilizar as mãos em funções diferentes ao mesmo tempo.

f) Sequência: este atributo parte do pressuposto que gestos não

necessariamente precisam ser singulares. Um gesto seguido de outro podem

causar uma ação diferente daquela desencadeada quando são realizados

separadamente.

g) Número de participantes: algumas interfaces são pensadas para serem

utilizadas coletivamente e permitem a interação de múltiplos usuários ao

mesmo tempo. Duas pessoas interagindo com um sistema usando uma mão

cada é diferente de uma pessoa interagindo utilizando as duas mãos.

Com isso, é possível compreender que, ao pensar em interfaces baseadas na interação

gestual, estes atributos e a variedade de movimentos físicos devem ser considerados,

assim como sua adequação ao contexto. Logo, depreende-se que interfaces mais simples

apresentam apenas uma ou duas destas características, sendo “presença” e “duração” as

mais comuns. Do mesmo modo, interfaces mais complexas, além de apresentar diversos

destes atributos, precisam apoiar-se em questões maiores, relacionadas à ergonomia e

usabilidade, com o intuito de manter sua consistência como um todo.

25

2.2 Interações gestuais sob o panorama das interfaces naturais do usuário

Há diversos motivos para a utilização de gestos em interfaces. Todas as tarefas em que

interfaces não-naturais são utilizadas (comunicação, manipulação de objetos, uso de

ferramentas, música, entre outros) podem ser facilmente realizadas utilizando interações

gestuais. As interfaces gestuais fornecem, de acordo com Saffer (2009), diversas

características como:

a) Interações mais naturais: usuários são pessoas que gostam de interagir

diretamente com objetos. Interações gestuais possibilitam que o usuário

interaja naturalmente com artefatos digitais de maneira física, assim como

fazemos como objetos físicos.

b) Dispositivos menos incômodos ou visíveis: na maioria das interfaces

gestuais, os tradicionais dispostivos do teclado e mouse são desnecessários.

Uma interface touchscreen ou de interação livre permitem que o usuário

interaja sem a presença destes dispositivos de entrada. Isso permite que

interfaces gestuais ganhem espaço onde computadores tradicionais não são

tão comuns, como lojas, museus, aeroportos e outros espaços públicos.

c) Flexibilidade: ao contrário de interfaces tradicionais que geralmente

possibilitam interações fixas e imóveis, interfaces gestuais dão suporte a uma

gama infinita de interações utilizando o espaço em que estão incluídas.

d) Mais nuances: Teclados, mouses e outros dispositivos de entrada, embora

excelentes para muitas situações, não são capazes de transmitir diferentes

níveis de sutileza como o corpo humano. Uma sobrancelha levantada, o

balançar de um dedo ou braços cruzados podem oferecer uma riqueza de

significado além de controlar uma ferramenta. Interfaces gestuais ainda não

levam em conta o grande complexo emocional dos seres humanos mas,

eventualmente, irão começar a explorá-lo.

e) Diversão: hoje, pode-se pensar em um game em que o jogador pressione um

botão e veja uma raquete balançando. Porém, é mais divertido (para todos os

envolvidos) imitar fisicamente o balançar de uma raquete e perceber a ação

refletida na tela. Interações gestuais encorajam, literalmente, a exploração da

interface através do engajamento imersivo e expontâneo do usuário.

26

2.3 Projetando interfaces naturais baseadas na interação gestual

O design de qualquer sistema, produto ou serviço, deve apresentar, em sua essência, a

solução para as necessidades de quem irá usufruí-lo. Saffer (2009) dá atenção ao fato de

que os projetos de interfaces geralmente são restritos por questões relativas ao contexto,

tecnologia utilizada, recursos e objetivos organizacionais, envolvendo desde

necessidades simples a muito complexas. Entretanto, o autor enfatiza que, até mesmo as

soluções mais naturais, interessantes ou inovadoras tendem a falhar se não se

posicionarem em direção às necessidades do usuário.

Ao projetar uma interface baseada na interação gestual, uma das principais questões a

serem pensadas é a pertinência do uso dos gestos. O fato de poder, atualmente, utilizar

interação gestual não quer dizer que ela seja apropriada em todas as situações. Há

diversas razões que limitam o uso de interações gestuais e que devem ser levadas em

consideração no momento de estruturar uma interface natural. Saffer (2009) lista

algumas delas:

a) Inserção de informações: a grande maioria do usuários está acostumada

com o uso do teclado para inserir dados e informações. A ausência do

teclado físico pode conduzir a situações não tão costumeiras aos que

interagem com uma interface gestual.

b) Confiança na informação visual: muitas das interfaces utilizam informação

visual para indicar e responder a uma ação do usuário (como um botão sendo

pressionado), porém o feedback tátil do uso do mouse, teclado ou tela

touchscreen é inexistente em interfaces gestuais. Sendo assim, conduzir a

interação apenas baseando-se nas informações visuais pode se tornar

inapropriado, tratando-se de deficientes visuais ou idosos.

c) Confiança na interação física: ao contrário das interfaces tradicionais,

interfaces gestuais podem exigir fisicamente de um usuário. Quanto mais

amplo e físico for um gesto, mais provável que certos usuários não serão

capazes de executá-lo devido à idade, enfermidade ou simplesmente por

condições contextuais.

d) Contexto inapropriado: o contexto pode restringir o uso de interações

gestuais em diferentes pontos, tanto devido a questões de privacidade quanto

a razões que levem a situações embaraçosas aos usuários.

27

Se após uma avaliação criteriosa, o uso de interações gestuais for considerado

apropriado tanto para os usuários quanto para o contexto na qual estão inseridos, haverá

a necessidade de definir os gestos que irão guiar as tarefas e os objetivos que os

usuários precisam realizar. Para isso, é preciso levar em conta a combinação de três

fatores diferentes: a disponibilidade do sensor e dos dispositivos envolvidos, os passos

que formam a tarefa a ser executada e a fisiologia do corpo humano. Os sensores

determinam como e o que, de fato, o sistema consegue detectar e interpretar; os passos

para realizar determinada tarefa são importantes para mostrar quais ações e decisões

deverão ser feitas pelo usuário; e o corpo humano fornece as restrições e pontos-chave

para os gestos que podem ser pensados a fim de responder às necessidades do usuário.

Isto significa que, por lógica, tarefas básicas devem ser realizadas através de simples

gestos enquanto tarefas mais complicadas podem envolver gestos mais complexos. Por

exemplo, o ato de ligar a luz pode ser resolvido com um simples bater de palmas ou

batida na parede enquanto controlar a claridade de uma lâmpada (uma tarefa mais

complexa) pode envolver o movimento do braço ou um número específico de palmas.

Contudo, isso não quer dizer que todas as tarefas mais trabalhosas devem ser

acompanhadas de gestos mais complexos. Pelo contrário, interfaces bem resolvidas

utilizam interações gestuais complexas e as fazem parecer simples e apropriadas.

Wigdor & Wixon (2011) defendem que o projeto de interfaces naturais deve estabelecer

alguns parâmetros prévios que ajudem a pensar uma interação que apresente

características além das interfaces tradicionais. Alguns parâmetros citados pelos autores

estão listados abaixo:

a) Esquecer estilos de interação antigos. Não se deve apenas traduzir uma interface

gráfica tradicional em uma interface natural utilizando modelos existentes.

b) Começar utilizando as interações mais fundamentais, refinando-as ao decorrer

do projeto da interface.

c) Forneça o menor número possível de elementos gráficos necessários para que a

interação aconteça.

d) Responder imediatamente cada ação feita pelo usuário.

e) Criar interações de fácil descoberta, criando confiança por parte do usuário.

Outro fator fundamental apontado por Saffer (2008) no projeto de interfaces naturais

baseadas em interação gestual é relativo ao corpo humano e suas limitações físicas. Para

28

isso, o designer deve estar ciente das características e limitações do usuário que irá

interagir com a interface.

2.4 Kinect e aplicabilidade das interações gestuais

Com o lançamento do Kinect (2010), dispositivo criado pela Microsoft que possibilita o

reconhecimento de movimentos corporais, fomos apresentados a um modo diferente de

jogar videogame; ao interagir utilizando gestos reconhecidos pelo sensor, e não

utilizando um controle remoto, os jogadores do console Xbox 360 entraram em contato

com uma novo modelo de interação mais intuitivo, humano e natural. Borenstein (2012)

detalha que, diferentemente das câmeras convencionais que capturam como os objetos

aparentam ser, a câmera de profundidade do Kinect rastreia onde os objetos estão e

possibilita o uso dessa informação para reconstruir, manipular e interagir com os

artefatos capturados pelo sensor, incluindo a detectação de partes do corpo humano.

Figura 4 – Interação gestual no Kinect

Fonte: <www.xbox.com/pt-BR/Kinect>. Acesso em: 08.jun.2012.

No que tange a quebra de paradigma proposta pela inserção do Kinect no universo dos

videogames, é possível refletir que, efetivamente, com sucesso e aprovação do público

leigo, um dispositivo fez com que a interação, que por décadas era autoritariamente

movida por controles remotos, fosse comandada não por meios mecânicos e sim por

meios naturalmente humanos como os gestos e o movimento corporal.

Constituído por um projetor de luz infravermelha, uma câmera RGB e um sensor de

vídeo captura infravermelho, o sistema do Kinect consegue identificar a distância em

que uma série de pontos se encontram no ambiente, possibilitando, assim, uma série de

29

aplicações quando esses pontos são traduzidos em imagem. Reconhecimento facial,

rastreamento do esqueleto, análise de profundidade e leitura de movimentos são

algumas das possibilidades trazidas com o sistema digital do Kinect. Além disso, o

conjunto de microfones presentes no dispositivo possibilita não somente a

detectabilidade sonora mas também possibilita a interpretação de onde se origina,

espacialmente, determinado som ou ruído. Sendo assim, o Kinect também dá suporte

para o reconhecimento de fala, porém de forma limitada ao levar-se em conta os poucos

idiomas que, de fato, consegue interpretar.

Figura 5 – Rastreamento do esqueleto feita pelo Kinect

Fonte: <www.microsoft.com/kinectforwindows>. Acesso em: 19.dez.2012.

Embora, inicialmente, o Kinect tenha sido criado para atuar em conjunto com o

videogame Xbox 360, desenvolvedores perceberam a possibilidade de aplicar a tecnologia

presente no sensor em outras situações. Pelo mundo, programadores “quebraram” o

sistema do Kinect e começaram a experimentar as qualidades do dispositivo

independentemente do console de videogame, originando uma verdadeira avalanche de

aplicações e protótipos que se espalharam colaborativamente pela rede. Com isso, a

Microsoft lançou, recentemente, a versão do Kinect para ambiente Windows,

30

incentivando o desenvolvimento de diversas aplicações além de jogos e estimulando o

uso do Kinect em contextos diversos. Além de dar suporte aos desenvolvedores através

de atualizações de software, a Microsoft propõe a disseminação do “efeito Kinect”,

divulgando em seu site diversos projetos envolvendo o uso do sensor em salas de

operações médicas, classes escolares, clínicas de reabilitação, performances artísticas e

outros diversos ambientes. Atualmente, empresas têm mostrado interesse em

experimentar as qualidades do dispositivo, criando aplicativos que se destacam quanto

ao nível de imersão percebido com o usuário, estabelecendo uma experiência mais

natural e prazerosa entre os consumidores e determinada marca, mostrando o grande

sucesso que o Kinect está atingindo no mercado da publicidade e propaganda. O uso do

dispositivo também tem crescido na área da robótica, educação e reabilitação de

pacientes, utilizando a tecnologia para a criação de soluções mais imersivas e

engajadoras. De acordo com as informações divulgadas pela própria Microsoft e pela

revista Wired (2011), desde 2010 já foram comercializadas mais de 10 milhões de

unidades do Kinect, fazendo com que o sensor seja considerado o dispositivo “mais

vendido em menor período de tempo” pela Guinnes World Records. Mesmo com tantas

possibilidades, o sistema do Kinect possui algumas limitações como a deficiência em

rastrear os dedos das mãos.

Porém, com a popularização do Kinect e suas potenciais contribuições a respeito da

aplicabilidade de interfaces naturais e interação gestual, há a necessidade de validar e

investigar como esses novos modelos de interação têm a contribuir para o projeto de

interfaces, além de analisar suas vantagens e limitações em relação a experiência do

usuário.

31

3 Documentação e prototipação

3.1 Documentando Interfaces Naturais Baseadas em Interação Gestual

Ao projetar um produto ou sistema, designers geralmente utilizam diferentes formas de

documentação para demonstrar e especificar suas características. Com isso, a

documentação de um projeto de design se torna de crucial importância por envolver

diferentes pessoas e equipes durante suas etapas, necessitando o registro de suas

características. Porém, ao tratar-se de interfaces baseadas na interação gestual, como

expor movimentos tridimensionais em um formato bidimensional?

Hoje, há diversas ferramentas e métodos disponíveis para auxiliar na documentação das

especificações e requerimentos de projetos que envolvam interfaces gestuais e, sem

dúvidas, sua prática tem papel fundamental durante o percurso projetual. Deste modo,

Saffer defende que a prática da documentação “engendra uma visão consistente do todo,

possibilitando que todos os envolvidos no projeto entendam o que está sendo

construído” (2008, p. 91). Na documentação são transcritas quais foram as decisões

tomadas e o seu porquê, estruturando um caminho eficientemente concreto para facilitar

a construção e desenvolvimento do produto final. Além disso, o autor concorda que as

melhores documentações ainda sugerem respostas para perguntas que podem surgir

durante o desenvolvimento do produto e não foram documentadas.

Diversos sistemas de documentação possuem enfoque no movimento e deles podem ser

extraídas metodologias para registrar e esquematizar interfaces baseadas em interação

gestual. Muitos desses sistemas de notação nasceram da dança, sendo utilizados para

análise e reprodução de coreografias. Sendo assim, Saffer (2008) lista alguns destes

sistemas que podem facilitar a documentação de interfaces baseadas em interação

gestual:

a) Labanotação

O sistema criado por Rudolf Laban permite a análise, performance, observação,

registro, descrição e notação do movimento humano. A labanotação utiliza

determinados símbolos abstratos para definir a parte do corpo que está

realizando o movimento, a direção e a intensidade dele, além de sua duração.

Com isso, é possível registrar exatamente uma coreografia, tornando-a

facilmente completamente reproduzível. Fernandes (2006) explica que esta

32

notação descreve padrões de colocação de peso, mudanças de nível e direção no

espaço, além de tempo e ritmo, padrões de toque e orientação.

Figura 6 – A figura humana na labanotação.

In.: SAFFER, 2008, p. 93

Parecida com a notação musical ocidental, a labanotação utiliza três linhas para

dispor os seus símbolos. Mas ao contrário das pautas musicais, a labanotação é

disposta verticalmente e é lida de baixo para cima. Desta forma, os movimentos

realizados no lado direito do corpo são escritos no lado direito da notação

enquanto os movimentos do lado esquerdo são escritos no lado esquerdo do

mesmo sistema. Sendo assim, as linhas representam o corpo humano e a linha do

centro marca o centro do corpo. Saltos, giros, distância espacial, circulação e

outros movimentos podem ser representados através de diferentes símbolos e

sua localização na notação define a parte do corpo que está envolvida.

O tempo pode ser mostrado em formas diferentes. Sendo que a dança é

geralmente sincronizada com a música, linhas horizontais são representadas para

coincidir o movimento com as nuances musicais, o comprimento do símbolo

define a duração do movimento e linhas duplas marcam a posição inicial do

dançarino e sua posição final.

33

Figura 7 – O sistema de labanotação.

In.: SAFFER, 2008, p. 94

b) Sistema Benesh

A notação de movimento Benesh é uma outra forma de documentar movimento

e coreografias, especialmente o balé. A notação criada por Rudolf e Joan Benesh

nos anos 40 e publicada em 1956 é semelhante à labanotação por utilizar

símbolos para marcar movimentos que podem ser sincronizados com música.

Porém, diferentemente da labanotação, o sistema Benesh possui cinco linhas que

são lidas da esquerda para a direita, onde a linha superior (primeira) indica a

cabeça do dançarino, seguida do ombro (segunda linha), cintura (terceira),

joelhos (quarta) e chão (quinta e última linha).

34

Figura 8 – O sistema Benesh.

In.: SAFFER, 2008, p. 95

c) Notação de movimento Eshkol Wachman

A notação de movimento Eshkol Wachman (EWMN) foi criada em 1958 por

Noa Eshkol e Avraham Wachman. Embora seja mais usada para dança, esta

notação também tem sido utilizada na fisioterapia, no estudo de comportamento

animal e, mais recentemente, no diagnóstico de autismo. Ao contrário das

notações anteriores, a EWMN não leva em conta estilos ou contexto de uso

(musical ou outro).

A EWMN enxerga o corpo como uma série de “membros” que estão ligados por

articulações. Por exemplo, o antebraço é um membro determinado entre o pulso

e o cotovelo e deste modo, a EWMN utiliza uma esfera tridimensional para

organizar os movimentos no espaço. Posições e movimentos podem ser

mapeados através de coordenadas similares às coordenadas de longitude e

latitude no globo terrestre.

Figura 9 – A esfera da notação EWMN.

In.: SAFFER, 2008, p. 97

Ao contrário dos outros sistemas, o diagrama da EWMN se torna mais

interessante se visto como uma planilha. Cada membro possui uma fila e a

posição do membro na esfera é indicada por dois números: o superior

corresponde à posição vertical e o inferior corresponde à posição horizontal.

35

Lido da esquerda para a direita, o estágio da ação (tempo) é indicado por linhas

duplas, ao passo que a direção e a quantidade de movimento são indicados por

setas numeradas a cada mudança de 45 graus. Neste caso, o número 2

significaria elevar o membro a 90 graus.

Figura 10 – Exemplo de planilha para notação EWMN.

In.: SAFFER, 2008, p. 98

Todos estes sistemas de notação de movimento são notoriamente massivos e difíceis de

ler. Eles requerem horas para transcrever movimentos simples e dificilmente seriam

utilizadas em situações cotidianas na vida de um designer. Mesmo podendo-se utilizar

de partes de cada sistema, designers de interfaces gestuais precisariam de alternativas

mais simples para documentar seu trabalho. Contudo, a importância desses meios

tradicionais de notação concerne no entendimento de que listar e especificar

movimentos (gestos) pode se tornar difícil e devem ser respondidas algumas perguntas

em relação a isso:

a) Quais são as partes do corpo humano envolvidas no movimento e como elas são

posicionadas?

b) Quanto tempo leva para o movimento ser realizado?

c) Quantos estágios possui o movimento? Qual seu ponto de partida e seu ponto

final?

Saffer dá atenção ao fato de que as notações tradicionais para dança não levam em conta

a ação recíproca entre usuários e sistemas interativos, fator que não pode ser descartado

durante a documentação de uma interface natural baseada em interação gestual. Com

isso, alguns questionamentos relacionados à interação usuário-sistema que devem ser

respondidos na documentação são:

a) Como os usuários se comunicam diretamente com o sistema?

b) Como o sistema demonstra que está pronto para a interação?

c) O que pode ser feito com a interação?

d) Como se dá a resposta do sistema?

36

e) Como o sistema evita ou se recupera de erros ou mal-entendidos?

Contudo, estes questionamentos não podem ser respondidos através das notações

tradicionais de movimento e precisam envolver formas de documentação já conhecidas

por designers e desenvolvedores. Não há, no entanto, uma técnica que dê conta de todas

as situações e deve-se visar um conjunto que englobe as necessidades do sistema e dos

envolvidos. Abaixo são listadas, baseando-se em Saffer (2008), algumas técnicas que

podem ser utilizadas para documentar interfaces naturais baseadas em interação gestual:

a) Cenários

Cenários são esboços feitos com palavras. São descrições de como o sistema

será utilizado levando em conta seu contexto de uso, são pequenas histórias. Um

cenário efetivo é aquele que descreve e imagina como seria o contexto de

primeiro-uso da interface, além de serem uma excelente fonte para extrair tarefas

e características que a interface deverá suportar. Questionamentos a serem

respondidos seriam “o que acontece quando o usuário encontra uma interface

natural pela primeira vez?”, “como o usuário sabe o que fazer e como usá-la?”.

Com isso, cenários são meios rápidos para explorar como o sistema irá

funcionar, ao passo que interfaces naturais podem se tornam difíceis de

prototipar em um curto período de tempo.

b) Casos de uso

Casos de uso servem para descrever situações de uso de um produto ou sistema

e começam por identificar um conjunto de “atores” em potencial, geralmente

sendo “usuário” e “sistema” os mais comuns. Para interfaces naturais mais

complexas, possíveis atores seriam “gestos”, “sensores” ou “dispositivos de

entrada”. Casos de uso devem apresentar as seguintes informações:

Titulo

O caso de uso deve apresentar um título objetivo para ser facilmente

referenciado.

Atores

Lista de “quem” ou “o que” está envolvido no caso de estudo. Possíveis atores

podem ser “usuário”, “sistema”, “interface” ou “gesto”.

37

Propósito

Uma descrição resumida do caso de uso e seu porquê. Exemplo.: “O usuário

deseja ligar as luzes da casa”.

Condição inicial

Descreve o estado do sistema e a posição do usuário durante o início do estudo

de caso. Exemplo.: “A sala está escura e o usuário está no ambiente”.

Condição final

Descreve o estado final do caso de uso. Exemplo.: “As luzes da sala estão

acesas”.

Estágios

Lista de breves momentos que englobam uma certa funcionalidade.

Alternativas

Listagem de outros casos de uso que podem considerar a mesma funcionalidade.

Para interfaces naturais baseadas em interação gestual, as partes mais

importantes de um caso de uso estudo são as condições inicial e final. Com elas,

desenvolvedores farão bom uso ao determinar padrões para identificar quando

um gesto se inicia e quando é finalizado.

c) Análise e fluxo de tarefas

Uma análise de tarefa é uma lista de atividades que a interface deverá suportar.

As tarefas podem ser retiradas de cenários ou casos de uso, assim como de

pesquisas com o usuário. Uma vez que as tarefas são definidas, é aconselhável

que elas sejam postas em ordem, gerando um fluxo de tarefas. Fluxo de tarefas

são fluxogramas que ilustram as atividades e decisões durante o processo de

interação entre o usuário e a interface. Interfaces naturais baseadas em interação

gestual necessitam que sejam mostrados pontos de decisão e o resultado destas

ações tanto para o usuário quanto para o sistema.

38

Figura 11 – Exemplo de fluxo de tarefas.

Fonte: do autor

d) Elementos arquitetônicos

Quanto maior forem as interfaces baseadas na interação gestual, maior será a

necessidade de indicar e documentar o ambiente na qual ela será inserida. Isso

significa que o ambiente pode ser ilustrado na documentação da interface,

incluindo fatores como altura, largura e posições-chave.

Usuário acena

para a interface

Mapa é mostrado

na tela

Usuário aproxima

as mãos

Zoom out

39

Figura 12– Exemplo de documentação do ambiente.

In.: SAFFER, 2008, p. 106

e) Módulos gestuais

Dependendo do tipo de interface natural que está sendo projetada, pode ser de

grande valia construir uma tabela que liste uma visão geral das possibilidades

gestuais presentes no sistema e suas regras. Para interfaces humano-computador

menos complexas, naturais ou não, uma lista de módulos gestuais pode ser a

única documentação necessária.

Gesto Ação

Bater palmas Ativar o sistema

Afastar as mãos Zoom in

Aproximar as mãos Zoom out

Mover a mão para a esquerda ou

direita

Selecionar item no menu

Tabela 3 – Exemplo de módulo gestual.

Fonte: do autor

Os modelos de documentação apresentados podem ser utilizados isoladamente ou em

conjunto, sendo que a complexidade e requisitos do projeto devem ser levados em

consideração ao planejar a estrutura do documento. Sendo assim, a documentação do

40

projeto de uma interface natural baseada em interação gestual é um atributo essencial

para o desenvolvimento correto do produto final.

3.2 Prototipando Interfaces Naturais Baseadas em Interação Gestual

Hoje, há inúmeras técnicas de prototipagem disponíveis para os designers. Os protótipos

podem ser simples ou extremamente refinados, porém, independentemente do formato,

são de fundamental importância para a validação do projeto de uma interface. Schildt

(2006) esclarece que protótipos auxiliam a expor e explicitar a mecânica da interação

promovida pela interface projetada, permitindo estudar melhorias antes mesmo do

desenvolvimento final do produto. Além disso, protótipos são úteis para demonstrar as

possibilidades da interface e manter as expectativas em um nível adequado sobre o

resultado final. Outro uso favorável dos protótipos é no campo da demonstração, sendo

que um objeto visualmente bem acabado pode se tornar uma ferramenta efetiva para

vender um projeto.

A confecção de um protótipo ajuda a encontrar deficiências não tão visíveis durante o

percurso do projeto, permitindo modificações preliminares que não afetam ou

comprometem o cronograma ou orçamento de um projeto de design. Saffer (2008)

defende que, quanto mais refinado for o protótipo, mais refinadas serão as respostas

surgidas dele. O autor ainda aconselha a criação de diversos tipos de protótipos, para

diversificar o tipo de feedback surgidos deles. Vale lembrar que em um projeto de

interfaces baseadas em interação gestual, as importantes reflexões a serem extraídas de

um protótipo não são sobre as escolhas tipográficas, cores ou composição e sim sobre o

conceito, gestos e o fluxo de interação.

O autor define algumas técnicas de prototipagem que, listadas a seguir, podem ser

utilizadas durante o projeto de uma interface natural baseada em interação gestual:

a) Protótipos de papel

São a forma mais simples de prototipagem e muitas vezes podem ser considerados

protótipos de “baixa fidelidade”. Por não serem digitais, os protótipos de papel

podem ser montados rapidamente e manipulados manualmente. Sendo um protótipo

de baixa fidelidade, esta técnica não deve ser utilizada para analisar detalhes e sim

para compreender o conceito geral do projeto.

41

Figura 13 – Exemplo de protótipo de papel.

In.: SAFFER, 2008, p. 118

b) Storyboards

Se uma interface natural baseada em interação gestual se tornar complexa de

entender fora do contexto, um storyboard pode ser utilizado para explicá-la. A

técnica de storyboarding surgiu do cinema e dos quadrinhos, onde ilustrações ou

fotografias são usadas para contar uma história em uma sequência de imagens com

auxílio, opcional, de texto. Para fins de prototipagem, o storyboard pode ser curto e

mostrar um gesto passo a passo e a ação resultante ou pode ser mais complexo,

envolvendo um contexto e uma narrativa.

Storyboards não necessariamente consomem muito tempo para serem feitos, já que

várias técnicas podem ser utilizadas para seu desenvolvimento, sendo algumas delas

a fotografia, ilustração, desenho ou diagramas. Desenhos à mão podem facilmente

representar gestos de uma maneira mais prática que em qualquer outra técnica de

storyboard.

42

Figura 14 – Exemplo de storyboard para uma interface touchscreen.

In.: SAFFER, 2008, p. 108

Porém, algumas vezes, interações gestuais podem se tornar difíceis de serem

transmitidas através de desenhos. Com isso, a fotografia pode ser uma ótima técnica

para fornecer a informação visual necessária em um storyboard.

Figura 15 – Exemplo de storyboard utilizando fotografia.

In.: SAFFER, 2008, p. 109

Além disso, storyboards podem ser combinados com técnicas alternativas, como

módulos gestuais e casos de uso, criando um quadro de ações ilustrativas. Estes

quadros ilustrativos apresentam, ao mesmo tempo, uma visão geral da interação a

partir de diferentes perspectivas. Aliado a isso, storyboards mesclados com outras

técnicas podem ser um meio efetivo e detalhado para documentar projetos de

43

interfaces baseadas em interação gestual, pelo fato de apresentarem a interação

acontecendo em determinado contexto e provocando certo efeito ou ação no sistema.

Usuário se

aproxima do

display

Usuário analisa o

display pela

primeira vez

Usuário encosta

seu dedo na tela

do display

Usuário toca uma

localização no

mapa

Usuário finaliza a

interação

A interface está

em estado ocioso

A interface está

em estado ocioso A interface passa

do estado ocioso

para a tela

principal

Mapa em zoom in A interface volta

para o estado

ocioso

Sistema em modo

de espera

Sistema em modo

de espera Sistema analisa a

localização do

usuário

Sistema detalha

informações do

mapa

Sistema retorna

ao modo de

espera

Tabela 4 – Exemplo de storyboard mesclado com outras técnicas.

In.: SAFFER, 2008, p. 110 (adaptado)

c) Animações

Storyboards pecam ao não serem capazes de expressar timing ou fluxos de tempo.

Com isso, animações são ferramentas que podem ser utilizadas como protótipos de

uma interface. Animações são estratégias que permitem inserir movimento ao

representar a interação gestual. Podem ser utilizadas para demonstrar uma única

interação gestual ou podem ilustrar um contexto maior e incluir uma história. Sendo

assim, animações podem ser meios efetivos para comunicar interações gestuais,

além de oferecer uma ideia mais consistente de como flui a interação entre o usuário

e o produto.

44

Figura 16 – Quadros-chave de animação de uma interação gestual.

Fonte.:

<http://pervasive297.wikispaces.com/file/view/storyboard3.png/270731626/800x533/storyboard3.png>.

Acesso em: 28.fev.2013

d) Vídeos

Muitas vezes, podem ser considerados melhores que animações pois permitem mostrar

pessoas realizando a interação em tempo real e, possivelmente, em um contexto. Esta

característica definitivamente anula ambiguidades advindas da documentação escrita,

ilustrações e até mesmo animações.

Figura 17 – Interações mostradas no vídeo “Kinect Effect”

Fonte.: < http://www.youtube.com/watch?v=oOtXYTnKWEE>. Acesso em: 04.dez.2012

45

e) Protótipos de alta fidelidade

Protótipos de baixa e média fidelidade podem ser de grande utilidade, porém protótipos

de alta fidelidade criam a experiência de uso do produto ou sistema final. Com isso,

enquanto protótipos de baixa fidelidade servem para testar conceitos e interações, os

protótipos de alta fidelidade servem para refina-las e garantir que as interações sejam

eficientes quando o usuário interagir com a interface final.

Há três tipos de protótipos de alta fidelidade, o primeiro deles é o “protótipo exato”, na

qual é projetado um ambiente fidedigno ao contexto real de uso, com os mesmos

dispositivos e softwares que serão utilizados na interface a ser desenvolvida. Este tipo

de prototipagem eh o que oferece o melhor cenário para analisar a interação entre o

usuário e a interface pois gera os resultados mais precisos. O segundo tipo é chamado

de “off-the-shelf, OTS” (“vindo da prateleira”, em tradução literal) e sua característica

é a utilização de dispositivos e softwares já existentes para a criação do protótipo. O

terceiro tipo de protótipo de alta fidelidade é conhecido como “do-it-yourself, DIY”

(“faça você mesmo”, em tradução literal) e é artesanal, sendo necessário conhecimento

para monta-lo e programa-lo para atender as necessidades do projeto. Atualmente, a

maioria dos protótipos para interfaces touchscreen são dos dois primeiros tipos de

protótipos de alta fidelidade, sendo que, para interfaces de interação livre os protótipos

do-it-yourself são mais comuns.

Figura 18 – Exemplo de protótipo de alta fidelidade.

In.: SAFFER, 2008, p. 123

Vale lembrar que, como o nome sugere, protótipos de alta fidelidade requerem um

investimento maior para serem desenvolvidos, além de tempo para sua execução.

46

Porém, indiferentemente de qual método ou técnica for utilizada para documentar o

projeto de interfaces naturais baseadas em interação gestual, é importante que a

documentação permita que a interface seja prototipada e, posteriormente, desenvolvida.

Para documentações mais precisas, a utilização de mais de uma técnica ou a mesclagem

de várias delas pode ser uma estratégia para garantir que o conceito geral seja posto no

papel, incumbindo-se de assegurar a consistência do projeto da interface.

47

4 Görtz Shoes e sua vitrine baseada em interação gestual: um estudo sobre seus módulos gestuais e fluxo de tarefas a partir dos elementos da experiência do usuário propostos por Garrett

Görtz Shoes (http://www.goertz.de/) é uma loja virtual de calçados com base na

Alemanha e juntamente com a agência de publicidade Kempertrautmann

(http://www.thjnk.de/) desenvolveu uma vitrine interativa para experimentar modelos

de calçados chamada de “Virtual Shoe Fitting”. A ideia surgiu pelo fato de que os

modelos de calçados comercializados pela loja só podem ser comprados pela internet,

fazendo com que os consumidores não t enham uma ideia concreta de como eles

ficariam em seus pés, já que não há lojas físicas para que os consumidores

experimentassem os pares de calçados que gostassem. Com isso, utilizando um sistema

de leitura do esqueleto humano criado pela empresa mexicana ArteFacto Estudio

(http://www.artefactoestudio.com/) e três sensores Microsoft Kinect, a loja apresentou

uma vitrine controlada através de interação gestual que possibilita ao usuário

experimentar diferentes modelos de calçados virtualmente. Os sensores presentes na

vitrine leem o corpo do usuário em tempo real, fazendo com que ele possa experimentar

vários modelos em questões de minutos.

48

Figura 19 – Vitrine “Virtual Shoe Fitting” que utiliza interação gestual

Fonte: <http://www.thjnk.de/project/gortz> Acesso: 05.mar.2013

Outra função presente na vitrine é a de gerar uma imagem sua experimentando o

calçado e compartilhá-la no Facebook para pedir a opinião dos seus amigos se ainda

estiver indeciso. Além disso, após escolher um determinado modelo, o usuário pode

gerar um QR Code2 e utilizá-lo no seu celular para comprar o calçado sem sair da

vitrine.

2 QR Code é um código de barras bidimensional que pode ser facilmente rastreado pela maioria dos

celulares com câmera. O código pode ser convertido em texto, localização geográfica, link para

determinado site, entre outros...

49

Figura 20 – Usuário utilizando o celular para comprar calçado presente na vitrine

Fonte: <http://www.thjnk.de/project/gortz> Acesso: 05.mar.2013

Sendo assim, este estudo de caso tem como objetivo avaliar o uso da interação gestual

na vitrine interativa projetada para a empresa Görtz Shoes, além de catalogar e analisar

seus módulos gestuais e o fluxo de tarefas provenientes da interação humano-

computador, relacionado-os com os elementos da experiência do usuário propostos por

Garrett (2010). Não obstante, visa-se aproximar a análise do caso com o conceito de

interfaces naturais do usuário baseadas em interação gestual, refletindo sobre como as

características da vitrine podem ser traduzidas em uma interação entre usuário-sistema

mais natural ao utilizar este novo paradigma de interação. O estudo é parte integrante

deste trabalho de conclusão de curso, sendo de fundamental importância para a

conclusão da pesquisa, justamente por possibilitar que o referencial teórico a respeito de

interfaces naturais e interação gestual incluídos na fase exploratória sejam utilizados

para analisar um caso real de interface baseada em interação gestual.

4.1 Materiais

O principal material utilizado durante este estudo de caso foi o vídeo de apresentação3

da vitrine interativa, mostrando suas funções e características. Também foram utilizadas

3 Virtual Shoe Fitting by Gortz

<http://www.youtube.com/watch?feature=player_embedded&v=uSn7c1uw1_A>. Acesso em:

01.mar.2013.

50

informações e imagens sobre o projeto disponíveis no site da agência Kempertrautmann

e do estúdio Artefacto, além de reportagens e artigos disponíveis na internet.

Figura 21 – Imagens da vitrine “Virtual Shoe Fitting”

Fonte: <http://www.youtube.com/watch?feature=player_embedded&v=uSn7c1uw1_A> Acesso:

01.mar.2013

4.2 Metodologia e fundamentação teórica

O procedimento metodológico percorrido neste estudo de caso segrega o objeto de

estudo (vitrine interativa) em planos propostos por Garrett (2010) que formam os

elementos da experiência do usuário. Sobre estes planos, o autor defende que estes

níveis formam as camadas da experiência do usuário durante sua interação com um

sistema ou produto, de modo que devem ser conscientemente pensados durante o

projeto de uma interface. Para Garrett, os planos vão dos mais abstrato ao mais

concreto, seguindo a ordem: estratégia, escopo, estrutura, esqueleto e superfície (2010).

51

Figura 22 – Planos propostos por Garrett para representar a experiência do usuário

In.: GARRETT, 2010

É evidente que cada plano possui suas próprias características e critérios que devem ser

pensados enquanto etapa integrante de um projeto de interface, porém, ao tratarmos de

mídias e suportes diferentes, a nomenclatura pode não ficar muito clara. Para isso, o

autor define certas atividades relacionadas ao projeto, auxiliando no entendimento do

que cada nível representa:

52

Figura 23 – Características a serem pensadas em cada plano da experiência do usuário

In.: GARRETT, 2010

A partir dos planos propostos pelo autor, o estudo de caso tem o objetivo de descontruir

a interface da vitrine interativa a fim de refletir sobre cada nível da experiência do

usuário e analisar o uso da interação gestual com o intuito de observar se o usuário está

em contato com uma possível interface natural.

4.3 Plano da estratégia

O plano mais abstrato, segundo o autor, é o de estratégia e incorpora o que os usuários

buscam conseguir atingir ao interagir com a interface. Este nível também abriga os

objetivos do projeto, porém as informações relativas ao planejamento não se encontram

disponíveis por se tratarem de informações internas. Contudo, é possível explicitar que,

para o usuário, seu objetivo é de conseguir experimentar o calçado virtual e sair

satisfeito da vitrine e sem dúvidas a respeito de como o modelo ficaria em seus pés.

53

4.4 Plano de escopo

O plano de escopo delimita a estratégia pensada para o projeto. Nele são explicadas as

especificações e as funções que a interface suportará, além de como o sistema

funcionará. No caso do Virtual Shoe Fitting, a interface funciona com o auxílio de três

sensores Microsoft Kinect que leem em tempo real o corpo do usuário e traduzem a

interação gestual em ações.

Figura 24 – Simulação de como os sensores leem o corpo do usuário

Fonte: <http://www.youtube.com/watch?feature=player_embedded&v=uSn7c1uw1_A> Acesso:

01.mar.2013

4.5 Plano de estrutura

Este nível estabelece a conexão entre as opções e categorias presentes no meio

informacional da interface e representa o encaixe entre as diferentes funções

disponíveis. Neste caso, o plano de estrutura pode ser expressado através da arquitetura

da informação presente na interface da vitrine interativa. A estrutura navegacional da

interface pode ser definida como hierárquica (em árvore), por permitir ao usuário

mover-se de um nó a outro em dimensões dependentes entre si (GARRETT, 2010).

54

Figura 25 – Estrutura hierárquica proposta por Garrett

In.: GARRETT, 2010

É válido lembrar que a articulação presente na estrutura da interface deve garantir que o

usuário consiga mover-se de uma função a outra e, se tratando de uma interface baseada

em interação gestual, que este meio seja intuitivo o suficiente para que o usuário confie

em suas escolhas e tenha uma experiência agradável enquanto interage com o sistema.

Para analisar o plano de estrutura presente na interface da vitrine interativa foi utilizado

a técnica de análise e fluxo de tarefas, a fim de listar funções e atividades-chave durante

a interação entre o usuário e a interface. O fluxograma resultante da análise encontra-se

abaixo:

55

Figura 26 – Fluxo de tarefas presentes no “Virtual Shoe Fitting”

Fonte: do autor

É possível observar através do fluxo de tarefas que para cada tarefa há uma ação

correspondente pelo sistema e, para que ela aconteça, deve-se haver um meio para que o

usuário possa ativá-la. Neste sentido, deve ser claro quando uma tarefa se inicia e

termina, para não que não haja ambiguidade durante a interação. No caso do Virtual

Shoe Fitting, por se tratar de uma estrutura hierárquica, este ciclo “iniciado-finalizado”

se apresenta bem definido, por permitir funções distintas e consecutivas durante a

interação.

Sensores Kinect

rastreiam o esqueleto

do usuário

Usuário deseja

escolher um modelo

de calçado

Usuário permanece

em frente à interface

Modelo virtual do

calçado é gerado

Usuário visualiza seu

calçado virtual no

display

Sistema rastreia os

movimentos do

usuário em tempo real

Usuário deseja gerar

uma imagem com o

calçado

Sistema captura e

gera uma imagem a

partir dos sensores

Usuário posiciona-se

em frente à interface

Modelos de calçados

são mostrados na

interface

Usuário deseja

escolher uma

numeração especifica

Diferentes

numerações são

mostradas na interface

Usuário tem a opção

de compartilhar a

imagem no Facebook

Sistema conecta-se

com o Facebook do

usuário

Usuário decide

prosseguir e comprar

o modelo

Sistema gera um QR

Code com as

informações escolhidas

Usuário captura o QR

Code com seu celular

O QR Code conduz o

usuário até a loja

virtual

56

4.6 Plano de esqueleto

O plano de esqueleto pode ser considerado como a forma concreta de como o usuário

poderá navegar pelas opções e categorias definidas na camada anterior, o plano de

estrutura. Neste caso, o plano de esqueleto da vitrine interativa é formado pelas formas

que o usuário pode navegar através das funcionalidades da interface, como por exemplo

as de customização dos modelos de calçados disponíveis. É válido lembrar que, neste

caso, é no plano de esqueleto que são definidos e configurados os gestos presentes na

interação entre o usuário e a interface, justamente por permitirem a navegação

propriamente dita. Sobre a navegação presente em uma interface, Nielsen (2000)

esclarece que a navegação deve ser pensada de modo que o usuário consiga responder

três perguntas: “onde estou?”, “onde estive?” e “aonde posso ir?” durante a interação

com o sistema.

A interação gestual em interfaces digitais pode ser considerada uma quebra de

paradigma por se distanciar dos meios tradicionais de interação (que utilizam mouse,

teclado e outros dispositivos) e pode se tornar uma estratégia efetiva para conduzir uma

experiência do usuário mais natural e intuitiva. Contudo, justamente por se distanciar

dos modelos tradicionais, deve-se ter cautela ao utilizá-la e, neste sentido, o plano de

esqueleto serve para definir os meios de navegação e como o usuário poderá utilizá-los.

Desta forma, visou-se catalogar os principais gestos que possibilitam a navegação do

usuário durante sua experiência com a vitrine virtual de calçados para entender as

particularidades presentes na dinâmica da interação gestual promovida neste caso. Os

gestos analisados foram catalogados e organizados utilizando a técnica de

documentação chamada de “módulos gestuais” mesclada com a técnica de

“storyboard”, visando um entendimento generalizado dos diferentes gestos presentes na

interface. O resultado do estudo sobre o plano de esqueleto encontra-se nos módulos

abaixo:

57

O usuário posiciona-se em

frente à vitrine

O usuário estende o braço

até o canto superior

O usuário movimenta sua

mão (aberta) para cima ou

para baixo para navegar

pelas opções de modelos

Os sensores reconhecem a

presença do usuário e

iniciam o sistema

O modo para escolher os

modelos de calçados é

ativado

Os calçados são mostrados

em forma de lista, que

desliza de acordo com o

movimento do usuário

Tabela 5 – Primeiros módulos gestuais presentes na interface

Fonte: do autor

Usuário fecha a palma da

mão para selecionar

determinado modelo

O usuário movimenta sua

mão (aberta) para cima ou

para baixo para navegar

pelas opções de tamanhos

Usuário fecha a palma da

mão para selecionar

determinada numeração

O modelo de calçado é

selecionado e, a seguir, o

usuário tem a opção de

escolher o tamanho do

calçado

Os números são mostrados

em forma de lista, que

desliza de acordo com o

movimento do usuário

O tamanho de calçado é

selecionado e, a seguir, o

sistema irá mostrar o

modelo virtual diretamente

nos pés do usuário

Tabela 6 - Módulos gestuais para seleção

Fonte: do autor

58

Usuário permanece em

frente da vitrine e visualiza

seu corpo no display,

percebendo o modelo de

calçado virtual nos seus pés

O usuário interage com sua

imagem no display e

observa o modelo virtual

em seus pés (gestos de

forma livre)

Para voltar para a lista de

modelos disponíveis, o

usuário estende o braço até

o canto superior do display

Os sensores reproduzem

todo o movimento realizado

pelo usuário através do

rastreamento do esqueleto

O modelo virtual se adapta

em tempo real ao ângulo e

posição dos pés do usuário

A lista com os modelos de

calçados disponíveis pode

ser acessada

Tabela 7 – Módulos gestuais e rastreamento do esqueleto

Fonte: do autor

O usuário utiliza as duas

mãos para gerar uma

imagem sua

O usuário visualiza a

contagem regressiva para a

captura da imagem e

posiciona-se

O usuário faz uma pose que

ficará registrada na imagem

capturada

O sistema ativa o modo de

captura e geração de

imagem

O sistema reproduz uma

contagem regressiva para

avisar o usuário que será

gerada uma imagem

O sistema gera a imagem

do usuário e de seu calçado

virtual

Tabela 8 – Módulos gestuais para geração de imagem

Fonte: do autor

59

O usuário pode

compartilhar sua imagem

no Facebook

Após decidir-se, o usuário

pode converter seu modelo

e tamanho de calçado em

um QR Code e utilizar seu

celular para lê-lo

O usuário pode utilizar o

QR Code para acessar o

modelo escolhido na loja

virtual da empresa e

comprá-lo sem sair da

vitrine

O sistema utiliza a rede

social Facebook para

compartilhar a imagem do

usuário

O sistema gera um QR

Code contendo informações

a respeito do modelo e da

numeração do calçado

escolhido

O celular do usuário

converte o QR Code e

direciona-se para a loja

virtual da empresa

Tabela 9 – Módulos gestuais compartilhamento de imagem e compra do modelo

Fonte: do autor

O estudo do plano de esqueleto realizado através da construção de módulos gestuais

ilustrados foi de grande valia para explicitar e sintetizar a visão geral das interações

possíveis no Virtual Shoe Fitting. Com isso, foi possível perceber que os gestos

presentes na interação são efetivos para conduzir a experiência do usuário de forma

positiva.

4.7 Plano de superfície

No caso do “Virtual Shoe Fitting”, o plano de superfície representa todos os aspectos

visuais da interface, suas metáforas e aspectos formais como tipografia, composição dos

elementos, fotografia, modelo tridimensional dos modelos de calçados e iconografia.

Pode ser considerado o plano visível ao usuário e a tradução sensível do sistema que

funciona por trás da interface. Ao utilizar interação gestual, o plano de superfície é o

responsável por guiar o usuário e mostrar o caminho e as direções possíveis de forma

clara e concisa. Neste nível são pensadas as metáforas e estratégias para que o usuário,

visualmente, entenda como interagir com o a interface.

60

A vitrine possui aspectos retirados das interfaces gráficas tradicionais, como o uso de

menus e listas de itens, que por sua vez têm papel fundamental na experiência do

usuário. Estas estratégias gráficas são utilizadas para complementar o uso da interação

gestual que, muitas vezes, pode se tornar limitada se for usada isoladamente já que o

usuário pode não compreendê-la sem auxílio e retorno visual.

Figura 27 – Plano de superfície do Virtual Shoe Fitting

Fonte: <http://www.thjnk.de/project/gortz> Acesso: 05.mar.2013

4.8 Interação natural

O Virtual Shoe Fitting utiliza uma interface não-tradicional, ou seja, uma interface que

se distancia dos modelos de interação baseados em dispositivos e meios usuais. A

interação gestual presente na vitrine é responsável por um engajamento mais expressivo

por parte do usuário, justamente por fazer com que ele tenha que utilizar seu corpo para

ativar as funções disponíveis no sistema.

Como explorado no percurso deste trabalho, pode-se dizer que interações gestuais são

um passo para que a interação se torne mais natural e necessitam apresentar certas

qualidades visíveis ao usuário. Para Wigdor & Wixon (2011), interfaces naturais do

usuário devem, obrigatoriamente, apresentar três qualidades essenciais: serem

agradáveis, direcionarem à proficiência e serem apropriadas ao contexto. Relacionado a

61

isso, a dinâmica de poder experimentar um modelo de calçado realístico sem calcá-lo de

fato se torna agradável e divertida para o usuário, trazendo curiosidade ao contexto da

interação. Quanto a direcionar o usuário à proficiência durante a interação, a interface

promove uma interação relativamente intuitiva por apresentar uma estrutura hierárquica,

suportada por auxílio visual e gestos simples de serem realizados. Contudo, baseando-se

nos materiais disponíveis, não se pode afirmar precisamente se a interface oferece

feedback suficiente para usuários que estão interagindo pela primeira vez ou como o

sistema evita erros ou mal-entendidos por parte do usuário. A interface pode ser

considerada apropriada ao contexto, tornando-se uma tentativa significativa para sanar

uma limitação da experiência presente na loja virtual, além de engajar o usuário através

de suas funcionalidades que se diferenciam do contexto tradicional do processo de

compra de um calçado em uma loja física.

Neste caso, pode-se dizer que, através de uma análise geral, a interface apresenta uma

interação natural, apoiada através da interação gestual e do rastreamento do corpo do

usuário a modo de tornar a experiência do usuário mais fluida, intuitiva e agradável,

evocando a sensação de ser parte integrante da interface por parte do usuário.

62

Considerações finais

Voltando no tempo, a promessa das interfaces gráficas (GUI) era a de tornar mais fácil o

uso do computador e permitir que o usuário realizasse suas tarefas de modo mais rápido.

O advento das interfaces gráficas minimizou a demanda cognitiva e memória necessária

envolvida no uso de uma interface baseada em linhas de comando, porém inseriu,

gradativamente, uma série de escolhas e paradigmas que, muitas vezes, se distanciam do

usuário. Neste sentido, as interfaces naturais do usuário (NUI) apresentam duas

principais promessas, a primeira delas é que uma interação fluente pode ser obtida

rapidamente e a segunda defende que a interação pode ser agradável e prazerosa. Para

transformar estas promessas em realidade, a interface deve ser eficiente e fácil de

aprender, além de ser aprazível de usar, promovendo uma interação fluida e intuitiva.

Contudo, interfaces naturais não devem ser utilizadas em todos os contextos. Por

exemplo, interfaces naturais baseadas em interação gestual não são uma boa escolha

quando o usuário precisa manipular e entrar em contato com uma grande quantidade de

dados. Entretanto, vê-se grande futuro para o uso de interfaces naturais no campo do

entretenimento e lazer.

Novas tecnologias e novas formas de interação têm seu lugar próprio e leva-se um certo

tempo para compreender a melhor maneira de utilizá-las, porém elas sempre serão uma

forma em potencial de suprir as limitações e deficiências dos modelos predominantes.

Logo, mesmo com o entusiasmo de muitos, as interfaces naturais não irão substituir as

interfaces gráficas. As interfaces gráficas tradicionais estão, hoje, muito bem adaptadas

em seu nicho e realizam certas tarefas muito bem, como por exemplo, a digitação deste

trabalho de conclusão de curso que levaria muito mais tempo para ser digitado se fosse

utilizado um teclado touchscreen.

Hoje, igualmente como aconteceu no surgimento das interfaces gráficas tradicionais,

estamos explorando e experimentando novas formas de pensar interfaces humano-

computador, pondo em cheque certos padrões e dando lugar a novas possibilidades

trazidas pelo avanço da tecnologia. Interfaces naturais e interação gestual não são

diferentes de qualquer outra forma de interação, elas devem seguir os princípios básicos

do design de interação que são modos de expressão bem-definidos, um modelo

63

conceitual claro e meios de navegação sem ambiguidade. Elas devem promover

feedback imediato e conduzir o usuário durante sua interação.

Interações gestuais, por serem um meio natural de comunicação, necessitam de um

sistema que distingue falsas respostas provenientes de movimentos não intencionados

justamente pelo fato de que gestos podem se tornar ambíguos ou despretensiosos. Sendo

assim, interações gestuais irão cada vez mais ser inseridas no nosso cotidiano, porém

elas precisam de tempo para serem desenvolvidas e aperfeiçoadas ou para nós

entendermos melhor como tirar proveito delas. Aliado a isso, é válido lembrar que estes

novos meios de interação vêm com novos problemas, novos desafios e novas potenciais

limitações mesmo trazendo características positivas.

Interfaces naturais podem ser agradáveis de usar, interagir e experienciar, adicionando

sentimentos e sensações mais profundas que apenas clicar com um mouse ou digitar

através do teclado. Contudo, elas podem apresentar uma falta de consistência e

visibilidade por parte do usuário. Com isso, este trabalho mostra que o papel do

designer é fundamental e decisivo para que a interação humano-computador

possibilitada através de interfaces seja bem-sucedida e efetiva, sendo que novas formas

de pensar interfaces geram novos paradigmas e novos desafios a serem solucionados.

64

Referências

BILLINGHURST, M; BUXTON, B. Gesture based interaction. In.: Haptic input.

2011. Disponível em: <http://www.billbuxton.com/input14.Gesture.pdf> Acesso em:

01.nov.2012.

BONSIEPE, G. Design do material ao digital. Florianópolis: SEBRAE, 1997.

BONSIEPE, G. Design, cultura e o sociedade. Edgar Blucher, 2011.

BORENSTEIN, G. Making things see. Make, 2012.

CADOZ, C. Le gest, canal de communication homme/machine: la communication

instrumentale. In.: Technique et science de l'information, 13:31-61. 1994.

FERNANDES, Ciane. O corpo em movimento: o sistema Laban / Bartenieff na

formação e pesquisa em artes cênicas. São Paulo: Annablume, 2006.

GARRETT, Jesse James. The Elements of User Experience: User-Centered Design

for the Web and Beyond. Berkeley, New Rider: 2010.

GEERE, D. Kinect breaks fastest-selling gadget record. In.: WIRED, 2011.

Disponível em: <http://www.wired.co.uk/news/archive/2011-03/10/kinect-fastest-

selling-device>. Acesso em: 02.nov.2012.

IMDb. Minority Report. 2012. Disponível em:<http://www.imdb.com/title/tt0181689/>.

Acesso em: 15.nov.2012.

LANDLEY, R; RAYMOND, E. The art of unix usability. 2004. Disponível em:

<http://www.catb.org/~esr/writing/taouu/html/index.html>. Acesso em: 21.mai.2012.

MICROSOFT. Kinect for windows. 2012. Disponível em:

<http://www.microsoft.com/en-us/kinectforwindows/discover/features.aspx>. Acesso

em: 06.mai.2012.

MICROSOFT. Xbox 360 + Kinect. 2012. Disponível em: <http://www.xbox.com/pt-

BR/Kinect/Home-new>. Acesso em: 06.mai.2012.

NIELSEN, J. Projetando websites. Tradução de Ana Gibson. Rio de Janeiro: Elsevier,

2000.

NORMAN, D. A. O Design do futuro. Rio de Janeiro: Editora Rocco, 2010.

NORMAN, D. A. Natural user interfaces are not natural. In.: Interactions, 17. n3.

(mai-jun), 2010. Disponível em:

<http://www.jnd.org/dn.mss/natural_user_interfa.html>. Acesso em: 1.nov.2012.

NORMAN, D. A. Gestural Interfaces: a step backwards in usability. In.:

Interactions, 17. n5. (mai-jun), 2010. Disponível em:

65

<http://www.jnd.org/dn.mss/gestural_interfaces_a_step_backwards_in_usability_6.html

>. Acesso em: 1.nov.2012.

PREECE, J.; ROGERS, Y.; SHARP, H. Design de Interação: além da interação

humano-computador. Bookman, 2005.

RIME, B; SCHIARATURA, L. Gesture and speech: fundamentals of nonverbal

behavior. New York: Feldman & Rime, 1991.

SAFFER, D. Designing gestural interfaces. O'Reilly Media, 2008.

SANTA ROSA; J. G.; MORAES, A. Design participativo. Rio de Janeiro: Rio Books,

2012.

SCHILDT, Giles. The Paper Chase: Saving Money via Paper Prototyping. 2006.

Disponível em:

http://www.gamasutra.com/view/feature/131099/the_paper_chase_saving_money_via_.

php. Acesso em: jan. 2013.

SEVERINO, A. J. Metodologia do trabalho científico. 23ª ed. São Paulo: Cortez,

2007.

STEVENS, C. Designing for the ipad. John Wiley & Sons, 2011.

WIGDOR, D; WIXON, D. Brave NUI World: designing natural user interfaces for

touch and gesture. Morgan Kaufmann, 2011.