Planejando e construindo as instruções para a avaliação heurística

Ok, consegui criar as instruções (já foram, também, devidamente revisadas e enviadas).

Elas são um misto de roteiro que explica o que vai acontecer e como os avaliadores devem proceder, com uma síntese dos conceitos abordados na sessão (o que e quais são as heurísticas, como classificá-las), para que as pessoas se sintam confortáveis com a tarefa que está por vir.

Consegui confirmação de 8 pessoas para participarem dessa etapa de inspeção, incluindo os dois orientadores. Comigo, serão 9 pessoas realizando a avaliação, sendo 2 delas designers formados (Yays para isso, quero ver se – e como – esse aspecto vai influenciar na percepção dos problemas de usabilidade). Meus próximos passos são:

  • acompanhar as sessões de avaliação
  • compilar os problemas identificados, repassar para que as pessoas classifiquem
  • revisar as classificações e gerar grau de severidade médio para cada problema

Ah, um post com exemplos de boas práticas para cada uma das dez heurísticas: 6 tips for a great flex design – review usability best practices. Bom para ajudar a visualizar as coisas. E explicando de um jeito legal cada heurística.

Abaixo, alguns destaques de artigos de Nielsen em que me baseei para construir as instruções. Relendo-os, lembrei que esqueci da possibilidade de criar um cenário de uso. Acho que vou aproveitar que tenho um tempo até a data das sessões e pensar em um, para repassar pras pessoas, mais a guiza de contextuação.

In principle, the evaluators decide on their own how they want to proceed with evaluating the interface. A general recommendation would be that they go through the interface at least twice, however. The first pass would be intended to get a feel for the flow of the interaction and the general scope of the system. The second pass then allows the evaluator to focus on specific interface elements while knowing how they fit into the larger whole.

(…)

One approach that has been applied successfully is to supply the evaluators with a typical usage scenario, listing the various steps a user would take to perform a sample set of realistic tasks. Such a scenario should be constructed on the basis of a task analysis of the actual users and their work in order to be as representative as possible of the eventual use of the system. The output from using the heuristic evaluation method is a list of usability problems in the interface with references to those usability principles that were violated by the design in each case in the opinion of the evaluator. It is not sufficient for evaluators to simply say that they do not like something; they should explain why they do not like it with reference to the heuristics or to other usability results. The evaluators should try to be as specific as possible and should list each usability problem separately. For example, if there are three things wrong with a certain dialogue element, all three should be listed with reference to the various usability principles that explain why each particular aspect of the interface element is a usability problem. There are two main reasons to note each problem separately: First, there is a risk of repeating some problematic aspect of a dialogue element, even if it were to be completely replaced with a new design, unless one is aware of all its problems. Second, it may not be possible to fix all usability problems in an interface element or to replace it with a new design, but it could still be possible to fix some of the problems if they are all known.

Referências deste post:

Nielsen, Jakob. Ten Heuristics for User Interface Design.

____________. Severity Ratings for Usability Problems

____________. How to conduct a heuristic evaluation

Diretrizes para interfaces de busca para o usuário

Lendo Clarifying Search: A User-Interface Framework for Text Searches, de Ben Shneiderman, Don Byrd e W. Bruce Croft. Hearst cita ele como um artigo influente na área, e pela temática consigo entender. Entretanto, talvez por ser de janeiro de 1997, algumas das recomendações e descrições de funcionamento de mecanismos de busca parecem meio obsoletas hoje em dia. Creio que terminarei a leitura para poder fazer uma comparação mais embasada com as sugestões de Hearst (2009), e para entender de onde as diretrizes dela surgem, também.

Mercun cita um artigo mais recente de Shneiderman, publicado em 2008, que aborda uma temática mais específica, mas que, dado o contexto do fazDelivery, talvez seja útil: Users can change their web search tactics: Design guidelines for categorized overviews (Bill Kules, Ben Shneiderman).

Preciso concluir hoje a parte de usabilidade, para haver tempo hábil para os capítulos sobre Engenhos de Busca e o descritivo do fazDelivery.

(…)

O artigo de Shneiderman de 1997 apresenta um framework com quatro partes para apoiar quem projeta interfaces de sistemas para recuperação da informação:

  1. Formulação da consulta – a ideia é prover controle ao usuário para que ele possa decidir e escolher, ou, no mínimo tomar conhecimento de como se processam:
    • Fontes: onde realizar a pesquisa, no caso de haver diferentes bases de dados, ou diferentes coleções possíveis;
    • Campos: sobre que campos dos documentos da coleção será realizada a consulta;
    • O que buscar: deve ser possível prover o texto para pesquisa, separando-o em mais de uma frases, se necessário; stop lists devem ser conhecidas (e, como dito, preferencialmente o usuário deve ter controle sobre elas);
    • Variantes: diferenciação de maiúsculas ou minúsculas, radicais extraídos e escolhidos, aproximações fonéticas ou de sinônimos devem ser mostrados como opções, se existirem, ou no mínimo informados, mesmo que não possam ser alterados.
  2. Ação – como a busca é iniciada: a ideia aqui é que isto pode ser feito de forma explícita, com um enter ou um clique, ou como uma consulta dinâmica;
  3. Revisão dos resultados – permitir, por exemplo, que os usuários limitem o número de resultados retornado, estilo de ordenamento (e.g., alfabético, índice de relevância), e o que compõem os resumos dos documentos;
  4. Refinamento – Shneiderman sugere que se mantenham um histórico de pesquisa, para que os usuários possam reutilizar esforços anteriores. Isso pode significar tanto manter o histórico de pesquisa dentro de uma sessão quanto ao longo de sessões (por exemplo, permitindo que o usuário salve conjuntos de resultado e query para mandar por e-mail ou consultas posteriores). Feedback útil sobre o set de resultados também pode ajudar.

Ok, além deste framework, o autor adapta oito diretrizes para construção de interfaces em geral para o contexto da recuperação de informação. Já as postei aqui anteriormente, porque Hearst as cita em seu livro.

A parte final do artigo são dois estudos de caso em que, similar a uma análise de usabilidade a partir de heurísticas, os autores apresentam duas interfaces (uma web, outra para desktop), avaliam onde precisam melhorar, com base em seu framework e diretrizes, e depois apresentam alterações feitas com o intuito de torná-las melhores (dã, péssima frase).

Eles são especialistas, então creio que isto baste, mas dos trabalhos que tenho visto, senti falta de eles fazerem testes com usuários com as duas interfaces (ou quatro, já que foram dois estudos de caso) para dizer como cada uma se saiu, para além das avaliações heurísticas.

Reescritas e embasamentos

Começando a me sentir insegura de citar Nielsen, porque ele em si, às vezes, não cita nada. Talvez seja porque se trate de senso comum, mas torna tudo meio frágil para se construir sobre. Anyway, li The Mud-Throwing Theory of Usability, dele, buscando algum embasamento para explicar por que sites em geral costumam ter tantos problemas de usabilidade. A justificativa geral de Nielsen gira em torno do time to market (ou seja, da pressa de lançar logo), misturada com a ideia corrente de que, qualquer coisa, conserta-se o que estiver ruim depois. Nielsen é da opinião de que sai mais barato e menos custoso realizar alguns testes e prototipações antes de desenvolver, e, assim, lançar um produto com menos problemas de usabilidade.

(…)

Reescrevi minha introdução. Estava devendo deixá-la com duas páginas e mais objetiva desde antes de 20 de outubro. Agora, ela está com o tamanho adequado e, teoricamente, aborda, ainda que de forma primária, os três tópicos mais importantes: i) problema, ii) contribuições e iii) organização do trabalho. Sinto que, do que escrevi, há duas correntes brigando para ganhar espaço em meu trabalho:

  • uma compilação de heurísticas e inovações em usabilidade de buscadores;
  • uma avaliação e melhoria do fazDelivery, que poderia talvez ser extrapolada para melhoria de buscadores tipo catálogo.

O que eu sinto que quero e tenho como fazer é o segundo. Mas ao mesmo tempo parece que me falta estofo para falar com propriedade do que quer que seja. Sinto que nunca vou ter um trabalho bem amarrado e justificado. >.<‘

Mas, ok. Continuar.

Estudo Comparativo da Usabilidade de Interfaces para Dispositivos Móveis

O trabalho de Jussi faz uma comparação entre a produtividade de interfaces rasas vs. profundas em dispositivos móveis tipo touchscreen. Para realizar a comparação ela criou uma ferramenta para simular tarefas comuns a um gerenciador de arquivos, que ao mesmo tempo mensurava tempo e quantidade de cliques gastos em cada tarefa.

É uma monografia bem detalhada do ponto de vista do percurso seguido, e me soou bem embasada – com um bom diálogo entre as fontes, e cada referência parece bem justificada ou encaixada no conjunto do trabalho.

Para seguir de exemplo: mesmo roteiro para as duas interfaces – Claybony teve a mesma abordagem (do contrário, como comparar?). Jussi também define claramente critérios de comparação.

Achei particularmente interessantes as referências:

FAULKNER, L. Beyond the five-user assumption: Benefits of increased sample sizes in usability testing. Austin, Texas, 2003. => aprofunda a discussão em torno da quantidade ideal de pessoas para um teste de usabilidade (para contrabalançar o ponto de vista de Nielsen).

PORTER, J. Testing the three-click rule. User Interface Engineering, 2003. => Não há correlação direta entre número de cliques e abandono de página ou sucesso para completar uma tarefa, na web.

WEINSCHENCK, S. 100 Things Every Designer Needs to Know About People. USA: New Riders, 2011. => outra fonte que fala sobre os modelos mentais dos usuários serem baseados em experiências prévias com outros produtos (similar à Lei de Jakob, em alguma medida, certo?) e que o stress pode fazer tarefas parecerem mais complicadas do que são.

Finding examples

Li a monografia de Claybony Souza Moraes, que se formou em Análise de Sistemas pela UNEB, com um trabalho também em IHC: Um estudo de usabilidade para software de prescrição de treinamento neuromuscular (Digital Trainer), 2010.

Como o título sugere, ele faz uma análise e melhoria do Digital Trainer, um software feito pela Polisystem, empresa dele e do irmão (pelo que me lembro), que oferece apoio na construção e manutenção de programas de exercícios em academias (para instrutores usarem).

Ele lista os aspectos de usabilidade a serem considerados de acordo com Nielsen, com a ISO 9241 (parte 11) e com alguns outros autores, como Preece, Rogers & Sharp (2005). Detalha também, um pouco, métodos para avaliar uma interface, de acordo com três abordagens: testes, inspeção e investigação.

Médotos de teste de usabilidade:

  • thinking aloud protocol
  • perfomance measurement
  • métodos empíricos
  • co-discovery method

Uma coisa que ele fala que não entendi bem é que

Netto et. al (2004), ressaltam que testes de usabilidade avaliam somente o produto em termos meramente quantitativos, enquanto testes de comunicabilidade produzem tanto dados quantitativos como qualitativos, sugerindo a aplicação de ambos os testes complementarmente para uma única interface.

A parte que não entendo é que, de minhas leituras que citam testes de usabilidade, nenhuma me deu a entender que eram avaliações meramente quantitativas. Talvez ler o que Netto et. al dizem ajude a entender isso e ver se faz sentido para meu contexto ou não.

Métodos de inspeção:

  • avaliação heurística
  • percurso cognitivo
  • inspeção de padrões
  • revisão de guidelines

métodos de investigação:

  • investigação contextual
  • estudos etnográficos ou de campo
  • entrevistas
  • questionários
  • grupos focais

Claybony utiliza testes de usabilidade (10 usuários, sendo 5 novatos e 5 experientes, em cada rodada de testes) e avaliação heurística (três pessoas que desenvolviam o software) para analisar o Digital Trainer. Assim ele contrabalançou a opinião dos especialistas (heurísticas) com a experiência relatada pelos usuários, e operou e comparou métricas quantitativas e qualitativas, conseguindo, por exemplo, avaliar que houve redução de tempo para execução de tarefas específicas e redução de quantidades de cliques por tarefa.

Há muitos livros e artigos citados, preciso olhar novamente com calma a lista de referências. De antemão, uma das coisas que ele cita que quero ler, pra variar, é Nielsen, sobre a quantidade de usuários necessária em um teste de usabilidade: http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/.

A referência de Netto et. al é: OLIVEIRA NETTO, Alvim Antônio de. IHC – Interação Humano Computador: modelagem e gerência de interfaces com o usuário. Florianópolis: Visual Books, 2004. 120 p. (ao menos, creio que seja, porque na parte das referências só aparece esta, e nenhum Netto et al.).

Para amanhã: voltar a escrever, ou ler a monografia de Jussi? Que tal ambas as coisas?

[LaTeX] Adicionar data de acesso a referências (ABNTeX2)

Estou citando alguns sites, mas estava esquecendo de acrescentar a data de acesso (importantíssimo quando buscadores não tão conhecidos, por exemplo, morrem todos os dias). Pesquisei em inglês e encrontei que, usando as entradas @online ou @misc é possível acrescentar uma data com urldate. Este campo, entretanto, não estava sendo interpretado pelo LaTeX + ABTeX2 por aqui. Pesquisei novamente e encontrei o campo urlaccessdate, também para a entrada @online. Assim funciona.

O formato da data, pro Brasil fica 09.10.2013, mesmo. Quer dizer, eu li que era sem os zeros. Mas prefiro com. Se não reclamarem, ficará assim.

Fontes:
p.s.: voltando a postar coisas de LaTeX por aqui pois volta e meia tenho dificuldade de encontrar as informações, então parece-me uma boa ideia compartilhar as soluções que encontro…

56 dias: metas atrasadas.

De acordo com o cronograma que tentei fazer, hoje e amanhã eu deveria focar em trabalhos relacionados. No entanto, ainda estou longe de terminar o referencial teórico…

Há alguns artigos do Nielsen que me parecem interessantes, mas que preciso avaliar quanto de fato poderão agregar ao TCC, para decidir se os leio agora ou não. Pensei em fazer uma priorização, mas não sei se farei algo de fato ou só os deixo para outra ocasião, tenho a sensação de que o TCC parecerá “pobre” se citar muitos artigos online desse tipo…

Outro dia sem render praticamente nada. Não posso fazer isso. >.<‘

Confesso: por incrível que pareça, estou perdida entre as leituras.

58 dias: Design of search user interfaces

Hearst, Marti. Capítulo 1 – The Design of Search User Interfaces.

Destaques interessantes (perdoem, estou fazendo fichamentos aqui):

The job of the search user interface is to aid users in the expression of their information needs, in the formulation of their queries, in the understanding of their search results, and in keeping track of the progress of their information seeking efforts.

Some important reasons for the relative simplicity and unchanging nature of the standard Web search interface are:

  • Search is a means towards some other end, rather than a goal in itself. When a person is looking for information, they are usually engaged in some larger task, and do not want their flow of thought interrupted by an intrusive interface.
  • Related to the first point, search is a mentally intensive task. When a person reads text, they are focused on that task; it is not possible to read and to think about something else at the same time. Thus, the fewer distractions while reading, the more usable the interface.
  • Since nearly everyone who uses the Web uses search, the interface design must be understandable and appealing to a wide variety of users of all ages, cultures and backgrounds, applied to an enormous variety of information needs.

Although today’s standard search is a big improvement in usability over older command-line based Boolean systems, there is evidence that keyword querying is not initially intuitive. In fact, the literature suggests that people who are new to using search engines tend to start by asking a natural language question (Bilal, 2000Schacter et al., 1998). Novice searchers must learn to expect that a query will not yield immediately usable results, and that they must scan search results lists, navigate through Web sites and read through Web pages to try to find the information they seek. A study by Pollock and Hockley, 1997 found that, for novice searchers, the notion of iterative searching was unfamiliar. Some study participants assumed that if their first attempt failed then either they were incapable of searching or the system did not contain information relevant to their interest.

“The job of the search user interface is to aid users in the expression of their information needs, in the formulation of their queries, in the understanding of their search results, and in keeping track of the progress of their information seeking efforts.” “An important quality of a user interface (UI) is its usability, a term which refers to those properties of the interface that determine how easy it is to use. Shneiderman and Plaisant, 2004 identify five components of usability, restated by Nielsen, 2003b as:”

  • Learnability: How easy is it for users to accomplish basic tasks the first time they encounter the interface?
  • Efficiency: How quickly can users accomplish their tasks after they learn how to use the interface?
  • Memorability: After a period of non-use, how long does it take users to reestablish proficiency?
  • Errors: How many errors do users make, how severe are these errors, and how easy is it for users to recover from these errors?
  • Satisfaction: How pleasant or satisfying is it to use the interface?

Serra, Raquel cita as mesmas.

In user-centered design, decisions are made based on responses obtained from target users of the system.

Needs assessment; task analysis; scenarios.

There are usually several good solutions within the interface design space, and the task of the designers is to navigate through the design space until reaching some “local optimum.” The iterative process allows study participants to help the designers make decisions about which paths to explore in that space. Experienced designers often can begin the design near a good part of the solution space; less experienced designers need to do more exploration. Designing for an entirely novel interaction paradigm often requires more iteration and experimentation. Evaluation is part of every cycle of the user-centered design process.

Hearst cita um artigo de Nielsen de 1989 em que ele apresenta a ideia de tais testes de usabilidade feitos com poucos usuários. Pesquisei e encontrei dois artigos mais recentes de Nielsen em que ele discute tal ideia, acho que vale a pena lê-los:

Discount usability for the web (1997)

Discount Usability: 20 Years (2009)

Shneiderman et al., 1997 specifies eight design desiderata for search user interfaces generally (re-ordered below):

  • Offer informative feedback.
  • Support user control.
  • Reduce short-term memory load.
  • Provide shortcuts for skilled users.
  • Reduce errors; offer simple error handling.
  • Strive for consistency.
  • Permit easy reversal of actions.
  • Design for closure.

Detalhamento desses pontos:

Because the search task is so cognitively intensive, feedback about query formulation, about the reasons the particular results were retrieved, and about next steps to be taken is critically important.

  • Offer efficient and informative feedback
    • show search results immediately – at least a few initial results should be shown. This helps searchers understand if they are on the right track or not, and also provides them with suggestions of related words that they might use for query reformulation. Many experimental systems make the mistake of requiring the user to look at large amounts of helper information, such as query refinement suggestions or category labels, before viewing results directly.
    • show informative document surrogates; highlight query terms – information about the document and why it was retrieved, such as the title, the URL, and a textual summary; this information is referred to as the document surrogate. (…) An important form of feedback in search results listings is to include the terms from the query in the document surrogates in order to show how the retrieved document relates to the concepts expressed in the query. (…) Research shows that summaries are most informative if they contain the query terms shown in their context from the document (Tombros and Sanderson, 1998White et al., 2003a). […] Term highlighting refers to altering the appearance of portions of text in order to make them more visually salient, or “eye-catching” (…) This helps draw the searcher’s attention to the parts of the document most likely to be relevant to the query, and to show how closely the query terms appear to one another in the text. However, it is important not to highlight too many terms, as the positive effects of highlighting will be lost (Kickmeier and Albert, 2003). […] There is an inherent tradeoff between showing long, informative summaries and minimizing the screen space required by each search hit. ((Ela diz isso, mas não entra em mais detalhes, nem cita fontes. Entretanto, sinto a mesma coisa em relação ao fazDelivery, mesmo como usuária: gostaria de ver mais resultados de uma única vez.)). Hearst cita o BioText para mostrar uma interface de document surrogate rica. Tive duas ideias para a interface do FD a partir disto – tornar a expansão da descrição de cada item opcional; e mostrar sugestão de termos para busca – podem ser termos mais populares ou que queiramos destacar;
    • allow sorting of results by various criteria – Como esta é a parte que mais me interessa, e ela fala pouco, copio todo o trecho (grifos meus): Another effective form of feedback in the display of search results allows for the dynamic sorting of search results according to different ranking criteria (e.g., recency, relevance, author, price, etc.). An effective interface for displaying results sortable along several dimensions at once uses a sortable columns format, as seen in email search interfaces, some product search, and some bibliographic search (see Figure 1.3). With this view, users can sort results according to different criteria, while being able to visually compare those criteria, because the changes are directly visible (Reiterer et al., 2000Cutrell et al., 2006b). This kind of view is typically more effective than showing choices hidden behind drop-down menus. Grouping search results by categories is also an effective form of feedback, as discussed in the section below on integrating navigation and search.;
    • Show query term suggestions – ela fala muito em sugestões para refinar busca, tanto dinâmicas quanto pós busca realizada. Não sei quanto poderei fazer isso com o fazDelivery, já que não pretendo mexer no algoritmo do motor de busca em si, mas talvez seja um bom trabalho futuro incluir algo do gênero;
    • Use relevance indicators sparingly – no geral, a ordem vertical de aparecimento dos resultados já passa ao usuário uma boa ideia de relevância de documentos, de modo que é bom ser cuidadoso com outros tipos de indicadores de relevância (e, em especial, com o entendimento que usuários farão deles). Por outro lado, informações visuais sobre avaliações de outros usuários – como estrelas – podem ser úteis.
    • Support rapid response – para sistemas de propósito geral, especialmente quando há sugestões dinâmicas, busca exploratória e muita interação, é importante que o tempo de resposta seja curto, permitindo ao usuário fazer mais buscas até se aproximar dos resultados desejados, por exemplo, sem interromper o fluxo de pensamentos do usuário enquanto ele faz sua pesquisa. Por outro lado, para sistemas mais especializados, em que normalmente o resultado final já é a resposta desejada pelo o usuário, este se mostra mais disposto a esperar. Neste caso, é importante, entretanto, dar algum tipo de feedback que indique que o sistema está processando a requisição feita.
  • Balance user control with automated actions – há dois aspectos que se relacionam mais fortemente com esse balanço:
    • Rank ordering in web search (ordenamento de resultados em buscas feitas na web) – torna-se difícil exigir que os usuários entendam em detalhes o funcionamento de um motor de buscas, para que possam calibrar suas opções de acordo com suas necessidades. Nesse caso talvez o fazDelivery esteja até bem, pois, por se tratar de uma coleção mais específica, é mais fácil entender os pesos do que é relevante – e.g., peso, distância, tempo de entrega. Ainda assim, atualmente a apresentação de tais filtros de reordenamento não está muito boa.
    • Query transformations –  Hearst discute a questão das adaptações aos termos de consulta feitas automaticamente pelos motores de busca. Elas costumas ajudar, (…) But if the system consistently overrules the user’s intention, the user may become justifiably frustrated. — Ainda assim, como aqui provavelmente entraria um caso de mexer no motor da busca em si, não devo trabalhar com este ponto.
  • Reduce short-term memory load
    • Suggest the search action in the entry form – esta é uma prática que nem sempre funciona bem no design de formulários extensos (especialmente quando se omite títulos dos campos, substituindo-se pelos termos escritos em seus próprios campos – mais detalhes em vários links na internet, como neste da Pardot: Placeholders are not Substitutes for Labels), mas que pode funcionar bem
    • Support simple history mechanisms – mostrar pesquisas recentes ou páginas recentemente visitadas, por exemplo, é uma forma de auxiliar isto
    • Integrate navigation and search – A well-established principle of human memory is that it is often easier to recognize a word or name than it is to think up that word. (…) Browsable information structures, such as links on a Web site or a table of contents for a book, give an overview of the contents of a collection, allowing the searcher to navigate to the information of interest by following links or narrowing by selecting categories. Information structures can also impose an organization on the results of search. To be fully effective, navigation interfaces should allow the user to interleave keyword queries within existing information structures, smoothly integrating navigation with search. This means that after a keyword search, results should be organized into the navigation structure, and that after navigation steps, keyword search should be available over the current subset of information items. [categories] can also be used for ordering and sorting search results. Hearst também cita a navegação por categorias multifacetadas como um bom approach para dar um bom controle e refinamento para os usuários, mas não sei se conseguiria implementar algo assim para o fazdelivery trabalhando apenas do ponto de vista da interface…
  • Provide shortcuts
    • Além dos tradicionais atalhos de teclado, para buscas são comuns outras formas de atalhos, por assim dizer, como mostrar outros sub-domínios para links mostrados entre os resultados, ou, por exemplo, no caso do fazDelivery, quando sugerimos diretamente um estabelecimento, quando o termo buscado coincide com o nome do mesmo. In a sense, this kind of intention prediction is a form of shortcut, eliminating the need for the user to know precisely how to specify a command, and also reducing the need to navigate to external Web pages to find the desired information.
  • Reduce errors
    • Avoid empty results sets – uma forma de evitar isto é prover previsão de resultados para consultas (por exemplo, no caso das navegações multifacetadas, funciona bem), ou oferecer sugestão de correção para termos escritos erroneamente.
    • Address the vocabulary problem – Hearst explica que um estudo feito por Furnas apontou que, para pessoas dentro de uma mesma área de atuação, objetos ou tarefas comuns têm uma probabilidade bastante pequenas de serem nomeados da mesma forma. Isto significa que o autor de um determinado documento ou site pode não usar os mesmos termos para se referir ao seu conteúdo que a pessoa buscando por ele. Expansão de termo (term expansion), no caso de buscas, e card sorting para escolha de “rótulos” para ícones, categorias e botões podem ser técnicas úteis para endereçar tal problema.
  • Recognize the importance of small details – coisas como tamanho de frases de dicas ou sugestões ou pré-concepções acerca do funcionamento da busca podem alterar muito como os usuários entendem e reagem a uma busca. Por exemplo, quando a sugestão para termos escritos incorretamente do google era muito grande, poucas pessoas a notavam. Também observa-se que, atualmente, as pessoas naturalmente esperam que os primeiros resultados retornados sejam mais relevantes para sua consulta.
  • Recognize the importance of aesthetics in design – vários estudos sugerem que as pessoas tendem a ter uma melhor experiência com interfaces que são melhor planejadas esteticamente, tanto do ponto de vista de satisfação com interface quanto em relação a tempo para realização das buscas ou avaliação da relevância dos resultados: “Nakarada-Kordic and Lobb, 2005 report that viewers persevere longer in a search task on Web sites whose design appeals to them.”

Diretrizes importantes, exemplos úteis e uma série que referências, que ainda me levaram para outros lugares. Anotei algumas ideias para trabalhos futuros ou para a interface do fazDelivery em si – ou que creio que já fazemos de um modo legal. Acho que destaquei coisa demais e tenho medo de só me basear em Hearst, mas é uma leitura que vale a pena para quem quer começar a mexer com interfaces de busca.

Vídeo: Google Tech Talk: Search User Interfaces (Marti Hearst)

Nesta palestra Hearst dá uma espécie de visão geral de seu livro, com aprofundamentos em alguns capítulos que considerou mais chave, dada a limitação de tempo.

Um dos capítulos que ela escolhe é o segundo, que trata sobre a avaliação de interfaces de busca. Ela destaca alguns tipos de avaliação normalmente feitos ao longo do processo de desenvolvimento de uma nova interface:

  • Informal (discount) usability testing
  • Formal laboratory studies
  • Field studies
  • Longitudinal studies – trata-se de um estudo feito em um longo período de tempo, com os mesmo usuários, que permite observar como suas impressões objetivas da interface mudam, na medida em que ganham mais familiaridade com a mesma. Hearst sugere que se faça mais esse tipo de teste – não sei se conseguirei, dadas as circunstâncias de tempo e quantidade de usuários, mas, se não conseguir, pode ser um bom trabalho futuro a ser realizado para o trabalho.
  • Log file analysis
  • Large-scale testing (A/B testing, bucket testing, parallel flights)

Às vezes pode ser importante reconhecer que o design proposto só funciona bem para alguns tipos de tarefas.

Outro ponto que ela destaca é que é importante escolher um grupo de usuários que combine com o tipo de ambiente que se está propondo – é necessário que sejam pessoas motivadas e que gostem do que se trata, do contrário, suas respostas serão muito enviesadas, não necessariamente devido a sua experiência com a interface, mas porque não têm interesse no assunto que ela aborda. Uma forma de lidar com isso é dar opções de tarefas a serem realizadas, de modo que possam escolher a(s) que lhe(s) interessa(m) mais.

Tudo indica que esta lista será muito útil para a etapa do projeto de testes – e design – da nova interface. Ela cita alguns artigos sobre o assunto, que estão no livro também e podem ser fonte de referência e inspiração.

Pra mim a parte sobre avaliação acabou sendo a mais interessante do vídeo. Ela também aborda a questão da construção das queries e como apoiá-las, mas, talvez porque não pretendo trabalhar muito com esse tópico, não me chamou tanto atenção. Outros capítulos abordados foram integração entre busca e navegação, visualização de buscas, personalização e futuras tendências – esta última parte ela aborda em mais detalhes, e talvez de modo mais atualizado, no artigo ‘Natural’ Search Interfaces, de 2011.

Como disse, serviu para ter ideias sobre testes e avaliações – e para me dizer que realmente preciso ler logo esse livro, se pretendo chegar a algum lugar com este trabalho.

Leitura: Serra, Raquel. Princípios do Design de Interfaces Aplicados à Busca

Terminei a leitura do TCC de Raquel Serra, que comecei ontem.

Alguns destaques que considerei interessantes:

“[Um modelo mental] Representa o processo de pensamento de uma pessoa para como algo funciona (ou seja, o entendimento do mundo ao redor). Modelos mentais são baseados em fatos incompletos, experiências passadas e até mesmo percepções intuitivas. Eles ajudam a moldar ações e comportamentos, influenciam o que será considerado mais relevante em situações complexas e definem como indivíduos confrontam e resolvem problemas.” (Carey, 1986, apud Weinschenk, 2010).

E: “Conhecer a maneira como os usuários pensam e agem diante de uma necessidade de informação permite o desenvolvimento de interfaces com as quais ele pode se identificar, tornando-as mais fáceis e úteis para ele.” (p. 34)

Essa questão do modelo mental me fez pensar que pode ser algo útil de eu tentar construir – talvez com grupos focais, como Eduardo Jorge sugeriu -, para entender melhor o processo de pensamento das pessoas quando estão buscando um serviço de delivery: o que levam acham mais importante para comparar, que informações querem ver primeiro, em quem confiam para tomar decisões etc.

Fatores de usabilidade, segundo Nielsen:

  • Facilidade de aprendizagem
  • Eficiência de uso
  • Facilidade de memorização
  • frequência e recuperação de erros
  • satisfação subjetiva
  • ergonomia

Listagem dos princípios do design de interação:

  • divulgação progressiva,
  • resposta imediata,
  • visualizações alternativas, previsibilidade,
  • reconhecimento sobre recuperação,
  • interrupção
  • mínima, manipulação direta
  • contexto de uso

Preciso aprofundar uma explicação sobre todos estes pontos, para o referencial teórico.

Entendimento geral: é um bom material introdutório para quem não está familiarizado com conceitos de usabilidade, design de interação e sua importância. Além disso, por ser focado na interface de sistemas de busca trouxe elementos interessantes para meu projeto, e já traz um exemplo de análise de interface – no caso, do Google. Fiquei com a sensação de que esta análise heurística do Google, no entanto, foi meio superficial – como se apenas alguns aspectos deste tivessem sido abordados, em cada princípio. Preciso atentar para isso quando for fazer minhas próprias análises.