2. Ao final
• Apreciar os usos de uma série de técnicas de
avaliação;
• Entender os métodos de avaliação baseado em
usuários;
• Aprender a aplicar as técnicas nos contextos
adequados.
5. Avaliando Idéias Iniciais
• É comum utilizar a avaliação para avaliar novas
idéias, principalmente quando o produto é
novo, rapidamente protótipos podem ser
construídos para entender a nova idéia.
6. Diferentes Opções de Desgin
• Podemos avaliar diferentes opções de design,
em busca da opção que mais se adapte com as
pessoas.
7. Envolvendo Pessoas no
Processo
• No design com abordagem participativa, os
stakeholders ajudam os designers a
estabelecer metas para o trabalho de
avaliação.
8. Avaliação por Usuários
Experientes
• Utilizar um grupo de usuários experientes pode
agilizar o processo de design.
• Usuários experientes podem antecipar
problemas comuns.
9. Heurística
• O ideal é que várias pessoas com experiência
no design de sistemas avaliem, cada um
especialista anota os problemas e a heurística
relevante.
• Os dados são então reunidos e avaliados.
11. Engenharia Econômica de Usabilidade
• A lista pode ser resumida em três princípios
abrangentes:
• (A) Aprendabilidade
• (E) Efetividade
• (C) Acomodação.
12. Acompanhamento Cognitivo
• Uma técnica rigorosa baseada em papel para
verificar o design em detalhes e a lógica das
etapas em uma interação.
• Está intimamente relacionada as tarefas
humanas e analisa tais tarefas.
13. Acompanhamento Cognitivo
• Entradas do processo:
• Entendimento das pessoas
• Conjunto de cenários concretos;
• Atividades muito comuns
• Atividades incomuns porem críticas
• Uma descrição completa das interfaces do sistema
14. Acompanhamento Cognitivo
• Para cada etapa o analista faz as 4 perguntas
clássicas:
• As pessoas que estão usando o sistema tentarão obter o
efeito correto?
• Elas perceberão que a ação correta está disponível?
• Elas associarão a ação coorte ao efeito que estão tentando
obter?
• Se a ação for correta, as pessoas verão que está sendo
feito progresso em direção a meta?
15. Avaliação Baseada no Participante
• É fundamental a introdução de pessoas
(personas) no envolvimento de avaliação do
design, a avaliação baseada no participante
tem este objetivo.
16. Avaliação Cooperativa
• Desenvolvida para maximizar os dados
reunidos com uma simples sessão teste, os
participantes não são passivos, logo a entrada
de dados é direta.
19. Avaliação Cooperativa
• Amostras de perguntas para fazer durante
avaliação:
• O que você quer fazer?
• O que você espera que aconteça?
• O que o sistema está lhe dizendo?
• Por que o sistema fez isso?
• O que você está fazendo agora?
20. Avaliação Cooperativa
• Amostra de perguntas para fazer após a
sessão:
• O que foi o melhor/pior sobre o protótipo?
• O que mais precisa mudar?
• As tarefas foram fáceis?
• As tarefas foram realistas?
• Fazer um comentário distraiu você?
21. Avaliação heurística participativa
• Os participantes são envolvidos como
'especialistas do domínio de trabalho', ao lado
dos especialista em usabilidade.
22. Codescoberta
• Uma técnica naturalista e informal, boa para
captar as primeiras impressões.
• A abordagem padrão é observar pessoas
individualmente interagindo com a tecnologia e
possivelmente expressando seus
pensamentos.
23. Avaliação na Prática
• Uma pesquisa com 103 profissionais
experientes em IHC em 2000 revelou os
seguintes números:
• 40% usam avaliação de usabilidade;
• 30% usam avaliação informal;
• 15% usam avaliação heurística formal.
25. Etapas Processo de Avaliação
• Estabelecer objetivos, participantes, contexto, tecnologia
(oportunidades);
• Selecionar métodos de avaliação;
• Realize a revisão com especialistas;
• Planeje os testes com participantes;
• Recrute pessoas e organize o local;
• Realize a avaliação;
• Analise os resultados, documente e relate aos Designs.
26. Objetivos da avaliação
• Definir o objetivo ajuda a determinar o tipo de
dado necessário, seja qualitativo ou
quantitativo.
• Rever o projeto DISCOVER do capítulo 7.
27. Métrica
• O que deve ser medido e como?
• Não é porque algo pode ser medido que ele
deve ser medido;
• Tenha sempre como referência o objetivo
geral e o contexto de uso da tecnologia;
• Avalie a utilidade dos dados que você
provavelmente obterá contra os recursos
necessários para o teste;
28.
29. Pessoas
• As pessoas mais importantes em uma
avaliação são as que usarão o sistema.
• Na análise deve ter uma quantidade de
pessoas, essa quantidade depende das
características do projeto.
30. Plano de Teste e Especificação de Tarefa
• Os objetivos da sessão de teste;
• Detalhes práticos, inclusive onde e quando ela
será realizada;
• Números e tipo de participantes;
• Tarefas a serem realizadas com a definição de
termino bem sucedido.
31. Relatando os resultados da avaliação
• Por mais competente e completa que seja a
avaliação, ela só vale a pena se os resultados
gerarem ações.
• Os relatórios devem ser ordenados por áreas
do sistema em questão ou por gravidade do
problema.
32. Avaliação: Outras questões
• Avaliação sem estar presente;
• Medidas físicas e fisiológicas;
• Avaliando a presença;
• Avaliação em casa.