Affinity Diagramming

Tworzenie diagramu pokrewieństwa (ang. affinity diagramming) to metoda warsztatowa stosowana wówczas, gdy mamy do czynienia z dużą ilością informacji, które należy pogrupować tak, aby możliwe było ich łatwe zrozumienie i wykorzystanie w dalszej pracy.

Polega ona na zapisywaniu na osobnych karteczkach rozproszonych pomysłów poszczególnych członków zespołu, a następnie porządkowaniu ich poprzez przypisanie do określonych kategorii według wspólnie opracowanego klucza.

Technika ta może być stosowana do analizy danych zebranych podczas badań terenowych oraz testów użyteczności, identyfikacji najistotniejszych problemów i wytyczenia ścieżek ich rozwiązania, jak również wskazania obszarów dla dalszych badań. Często tworzenie diagramów pokrewieństwa jest elementem wprowadzającym do procesu projektowania.

W celu przeprowadzenia warsztatów należy zebrać grupę kilku osób posiadających wiedzę na temat analizowanego zagadnienia (w przypadku projektowania produktu/usługi dobrze, by byli to użytkownicy). Zajęcia powinny odbywać się w pomieszczeniu wyposażonym w duży stół i pionową powierzchnię (tablicę, pustą ścianę), na której umieszczane będą karteczki typu Post-it z pomysłami uczestników. Dodatkowo prowadzący może przygotować własne karteczki z informacjami pozyskanymi podczas prowadzonych wcześniej badań nad omawianym zagadnieniem (ang. factoids), które również zostaną umieszczone na tablicy/ścianie w odpowiednich kategoriach.

W trakcie trwania warsztatów każdy z uczestników otrzymuje od prowadzącego zestaw niezapisanych karteczek typu Post-it, a następnie na każdej zapisuje po jednym pomyśle/skojarzeniu związanym z analizowanym zagadnieniem. Gdy upłynie ustalony przez prowadzącego czas pracy indywidualnej, rozpoczyna się grupowanie idei. Uczestnicy przyklejają kolejno po jednej zapisanej karteczce na pionowej powierzchni tak, by odległość między poszczególnymi karteczkami odpowiadała stopniowi podobieństwa zapisanych na nich pomysłów. Po przyklejeniu wszystkich karteczek prowadzący wraz z uczestnikami nadaje nazwy każdej z powstałych w ten sposób grup (najlepiej wypisane na karteczkach w kontrastującym kolorze), w razie potrzeby dyskutując na temat spornych kwestii i przegrupowując wybrane elementy. Na podstawie tak powstałej „mapy” rysowany jest diagram pokrewieństwa, którego prezentacja zamyka warsztaty. Przy tworzeniu diagramu pomocne mogą być narzędzia typu Excel, takie jak FreeQuality.org oraz freebizfiles.

W przypadku rozdawania uczestnikom przygotowanych przez prowadzącego karteczek z istniejącymi już wcześniej hasłami związanymi z danym problemem, affinity diagramming jest metodą alternatywną dla card storting. O ile jednak ta ostatnia pozwala na zbadanie, w jaki sposób jednostki porządkują informacje, o tyle tworzenie diagramu pokrewieństwa służy wypracowaniu grupowego konsensusu w tym względzie.

  • Pozwala na poznanie idei i sposobu myślenia uczestników (w przypadku projektowania – użytkowników)
  • Umożliwia zebranie rozproszonych danych od uczestników i przekształcenie ich w wartościową bazę informacji (np. kryteria projektowe)
  • Uczy pracy grupowej
  • Angażuje wszystkich uczestników, dzięki czemu pozyskane informacje mają charakter wspólnej własności
  • Niski koszt przeprowadzenia badania
  • Wizualizacja wypracowanych przez grupę rozwiązań

Analiza konkurencji

Analiza konkurencji (ang. competitor analysis) jest metodą badań jakościowych prowadzonych w celu rozpoznania działających na danym rynku konkurentów firmy, jak również określenia jej własnej na nim pozycji.

Dobrze wykonana analiza umożliwia sformułowanie skutecznej strategii biznesowej, która wyróżni firmę spośród innych graczy rynkowych oraz zapewni jej stabilną przewagę konkurencyjną.

W badaniu wyszczególnić można następujące etapy: zdefiniowanie konkurentów firmy na rynku, określenie kluczowych dla danej branży wartości i umiejętności, ocena słabych i mocnych stron firmy oraz jej konkurentów we wspomnianych kategoriach, wyznaczenie obecnego i pożądanego miejsca firmy na rynku oraz opracowanie dalszej strategii działania.

Zdefiniowanie konkurentów firmy (czyli określenie podmiotów badania) obejmuje po pierwsze wybór określonych graczy na podstawie efektywności ich działań oraz znaczenia na rynku, po drugie zaś ich szczegółową charakterystykę zawierającą informacje o ich strategiach i wewnętrznej organizacji, strukturach zatrudnienia, rozmieszczeniu geograficznym, zasobach finansowych, ofercie produktowej (bądź usługowej), sieciach i kanałach dystrybucji oraz działaniach marketingowych. W związku z tym ostatnim szczególną uwagę należy poświęcić obecności konkurentów w mediach – z jakich środków przekazu korzystają i w jaki sposób komunikują swoją ofertę potencjalnym odbiorcom. Źródłem powyższych informacji mogą być zarówno materiały zastane (jak opublikowane raporty, zestawienia, artykuły prasowe), dane obserwacyjne (tzn. pochodzące z obserwacji kampanii reklamowych, polityki cenowej, ofert przetargowych), jak i wiadomości zebrane przypadkowo podczas szkoleń, konferencji, spotkań z byłymi pracownikami konkurencyjnych firm itp. Dodatkowo warto przeanalizować rynek pod kątem nowej konkurencji, do której należą zarówno firmy dopiero powstające, jak i działające w innej branży, ale kierujące swą ofertę do tej samej grupy docelowej. W obu tych przypadkach analiza konkurencji poszerzona musi zostać o analizę aktualnych trendów.

Określenie kluczowych dla branży wartości i umiejętności to kolejny krok, którego celem jest sprecyzowanie obszarów badania. Można to zrobić w dwojaki sposób – z jednej strony poprzez wyróżnienie determinant sukcesu, z drugiej zaś przyczyn niepowodzenia konkurentów. Ponadto, dobrze jest wziąć pod uwagę również inne czynniki, takie jak główne motywacje konsumentów oraz ograniczenia dla rozwoju danego biznesu. Po wyróżnieniu głównych kategorii należy przypisać im odpowiednie wagi odpowiadające ich istotności tak, by suma wszystkich wag była równa jeden.

Na ocenę słabych i mocnych stron firmy oraz jej konkurentów składa się analiza SWOT oraz analiza wagowa według kategorii. O ile pierwsza z nich skupia się na samej firmie, wskazując na jej słabe i mocne strony oraz szanse i zagrożenia związane z obecnością na danym rynku, o tyle druga pozwala na spozycjonowanie firmy względem jej konkurentów. W tym celu dokonuje się oceny każdego z graczy we wszystkich kategoriach w wybranej skali (np. 1-5), a następnie mnoży się każdą ocenę przez wagę danej kategorii. Zsumowanie uzyskanych w ten sposób wyników umożliwia uszeregowanie firm od najsilniejszej do najsłabszej, a tym samym określenie pozycji własnej firmy wśród konkurentów.

Ostatnim etapem analizy jest sformułowanie takiej strategii działania, aby możliwe było osiągnięcie i utrzymanie przez firmę wiodącej pozycji na rynku. W tym celu konieczne jest podjęcie decyzji, jakie obszary wymagają zmian w celu podniesienia efektywności firmy, co z kolei zależne jest od wyboru rodzaju strategii spośród opartych na wyróżnianiu, koncentracji bądź korzystnej polityce cenowej. W każdym przypadku dąży się do tego, by określić czynnik uniemożliwiający znalezienie dla firmy substytutu w gronie jej konkurentów.

  • Możliwość zebrania dużej ilości danych przy niskim nakładzie kosztów
  • Dobre rozpoznanie rynku pozwala na stworzenie efektywnej strategii działania i zyskanie trwałej przewagi konkurencyjnej
  • Podstawa dla określenia aktualnej pozycji firmy w branży
  • Metoda pobudzająca kreatywność i innowacyjny sposób myślenia (możliwe zebranie ciekawych insightów będących inspiracją do własnych działań)

Analiza statystyk serwisu internetowego

Analiza statystyk serwisu internetowego polega na wyciągnięciu wniosków na temat ruchu na stronie na postawie zebranych przez odpowiednio do tego celu przeznaczone narzędzia.

Narzędzia te rejestrują aktywność użytkowników na stronie internetowej, tj. wstępnie segmentują i zapisują wykonane przez użytkownika czynności.

Dzięki narzędziom służącym do zbierania statystyk strony (głównie Google Analytics) możliwe jest zdobycie informacji które pozwolą na ocenę atrakcyjności strony, oraz dadzą obraz miejsc w których strona może stwarzać problemy użytkownikowi. Odpowiednia analiza tych danych, choć na pierwszy rzut oka może nie dać oczywistych wniosków, pozwoli na poprawę działania strony.

Zebrane dane dają obraz na takie aspekty jak:

  • W jaki sposób użytkownicy znajdują stronę – czy są to wejścia poprzez bezpośrednie wpisanie adresu w przeglądarce, wejście z wyszukiwarki internetowej czy ze stron odsyłających.
  • Jaki czas spędzają na stronie.
  • Jak często na nią wracają – czy są to jednorazowe wizyty czy użytkownicy chętnie powracają na analizowaną stronę.
  • Jaką stronę odwiedzają jako ostatnią – dane te mogą odkryć miejsca które zniechęcają użytkowników, na których nie znajdują oni szukanych treści.
  • Jak wygląda wskaźnik konwersji na cele – wskaźnik niezwykle istotny, pozwalający, po uprzednim ustawieniu celów strony, na zdobycie wiedzy ilu użytkowników istotne dla właścicieli strony cele zrealizowało. Dla sklepu internetowego takim celem może być np. zakup produktu czy zapisanie się do newslettera dające szansę przesyłania bezpośrednich ofert do klienta. Cele można kształtować dowolnie w zależności od tego jaka jest specyfika badanej strony.

Wymienione wyżej dane mają dać jedynie obraz tego co można znaleźć w statystykach strony, ponieważ całość dostępnych danych jest bardzo duża. Odpowiednia analiza statystyk – która wymaga wprawy – pozwoli odkryć które produkty lub elementy na stronie zachęcały użytkowników do klikania, czy kampanie reklamowe przynoszą zamierzony efekt, dlaczego użytkownicy porzucają badaną stronę.

Aby rozpocząć zbieranie statystyk wystarczy dodać odpowiedni kod do strony. Przy analizie danych należy zachować pewną ostrożność ponieważ nie zawsze są one jednoznaczne oraz pełne. Jako przykład można podać wysoką liczbę odsłon strony która może oznaczać zarówno atrakcyjną treść znajdującą się na niej jak i trudność w odnalezieniu się w serwisie przez użytkowników. Z tego powodu niezbędne jest przed analizą statystyk przynajmniej przeanalizowanie strony jeśli nie przeprowadzenie jej audytu. Pozwoli to na stworzenie pewnego obrazu co na stronie jest dobrego, co natomiast jest potencjalnym punktem sprawiającym problemy. Innym przykładem na braki w statystykach są informacje o użytkownikach/klientach serwisu. Statystyki mówią więcej o komputerze z którego zostało odnotowane wejście, a nie o tym kim użytkownik tego komputera jest. W tym przypadku dobrym rozwiązaniem jest wzbogacenie statystyk o dane np. z formularza rejestracyjnego, pozwalające określić wiek czy płeć użytkownika.

  • Lista rekomendacji dotycząca zmian które należy przeprowadzić w serwisie/aplikacji z uwzględnieniem zmian o najwyższym priorytecie
  • Spadek bounce rate (wskaźnika porzuceń) po implementacji rekomendowanych zmian,
  • Wzrost kluczowych KPI systemu po implementacji rekomendowanych zmian
  • Niskie koszty dodatkowe analizy – darmowe zbieranie danych

Analiza treści internetowych

Analiza treści internetowych jest to technika badawcza, która polega na systematycznym i jakościowym opisie zawartości treściowej przekazu internetowego.

Dokonanie kontroli zawartości stron internetowych stanowi jedno z najważniejszych działań umożliwiających użytkownikowi optymalną widoczność oraz pełną zrozumiałość badanej strony. Analiza treści jest przeprowadzana w celu zapewnienia, że tekst, obrazy oraz linki zawarte na stronie są odpowiednio przedstawione i dobrane.

Badanie przebiega w dwóch etapach: faza wstępnego rozpoznania oraz faza szczegółowej analizy.

Analizując treści internetowe należy sprecyzować jakie dane będą analizowane, kto jest ich odbiorcą i nadawcą oraz jaką pełnią one funkcję. Pierwszy etap badania jest więc wstępnym rozpoznaniem zawartości danej strony (tj. wiodącego przekazu).

Kolejny etap jest procesem dokładnego przeglądania każdej sekcji strony internetowej pod względem formy oraz środków przekazu. Zebrane informacje kategoryzuje się według wcześniej ustalonych reguł/wytycznych odniesienia. W szczegółowym ujęciu, w skład analizy treści wchodzi: poprawność ortograficzna, występowanie „literówek”, poprawna interpunkcja, poprawność stylistyczna, sposób użycia form grzecznościowych, użyte formy językowe, zawartość i sposób użycia słów kluczowych.

W czasie analizy badacz może więc natrafić na pewne problemy. Po pierwsze, może się okazać, że przekaz jest niepełny (brak danych) lub treść jest fragmentaryczna. Po drugie, może wystąpić niewłaściwy zapis treści, np. podpisy nie pasują do obrazków. Co więcej, treść może okazać się niejasna lub dwuznaczna. Dlatego też przestrzega się czterech najważniejszych zasad: zasady wyczerpania (należy dotrzeć do wszystkich elementów), zasady trafności (odpowiednie dobranie materiału), zasady homogeniczności (materiał musi być jednorodny, adekwatny do miejsca zamieszczenia go na stronie), zasady reprezentatywności (treść musi być adekwatna do celu przedstawienia go).

Audyt treści internetowych wskazuje na błędy w przedstawionej zawartości stron internetowych. Dzięki takiej analizie możliwie jest wniesienie poprawek, aby zawartość była zrozumiała i przydatna dla użytkownika.

  • Wskazuje na ważne treści, które należy zachować, oraz treści zbędne, które można usunąć

Ankieta

Ankieta (ang. survey) to metoda badań ilościowych, której celem jest zebranie informacji na dany temat od reprezentatywnej grupy jednostek w jak najbardziej ustandaryzowany sposób.

Analiza wyników uzyskanych za pomocą tej metody wymaga wykorzystania narzędzi statystycznych, takich jak wykresy procentowe, średnie matematyczne, tabele ilościowe itp.

Ankieta może być stosowana jako technika samodzielna bądź część składowa wywiadu kwestionariuszowego. Podczas gdy sama ankieta umożliwia uzyskanie podstawowych informacji od wielu respondentów w relatywnie krótkim czasie, wywiad kwestionariuszowy pozwala otrzymać odpowiedzi bardziej szczegółowe kosztem zmniejszonej liczby respondentów i wydłużonego czasu badania.

Przed przystąpieniem do przeprowadzania ankiety należy określić grupę respondentów oraz sporządzić (w wersji drukowanej) sformalizowany i ujednolicony kwestionariusz ankiety zawierający pytania z interesującego nas obszaru zagadnień. Ważne, aby pytania były dostosowane do zakładanego profilu respondenta (sposób sformułowania pytań, umieszczenie pytań w kontekście doświadczenia informatora). W celu weryfikacji poprawności kwestionariusza zaleca się przeprowadzenie badania pilotażowego na próbie respondentów dla wykrycia pytań sprawiających trudności podczas odpowiedzi i ich skorygowania z uwzględnieniem uwag informatorów.

Pytania zawarte w kwestionariuszu ankiety mogą mieć charakter zamknięty lub otwarty. W pierwszym przypadku dla danego pytania sporządzany jest zestaw możliwych odpowiedzi zwany kafeterią. Mogą to być odpowiedzi typu „tak/nie” bądź bardziej rozbudowane opcje wyboru. W przypadku pytań otwartych istnieje większa swoboda wypowiedzi ze strony respondenta. Zestawy pytań mogą zostać uzupełnione o materiały pomocnicze, takie jak skale, formularze czy zdjęcia.

Ponieważ respondent wypełnia ankietę samodzielnie (pod nadzorem ankietera lub bez w przypadku rozsyłania ankiet bezpośrednio do respondentów), powinna być ona całkowicie anonimowa, a przy tym możliwie krótka i zawierać jasne pytania z zestawem jednoznacznych odpowiedzi – w przeciwnym razie zniechęci informatora i nie zostanie przez niego wypełniona, zwiększając obecny zawsze podczas badań tego typu odsetek ankiet bezzwrotnych.

Badanie może zostać przeprowadzone w formie wysyłkowej (rozsyłanie ankiet drogą pocztową do respondentów), bezpośredniej (ankiety wypełniane przez respondentów w obecności ankietera) lub internetowej.

  • Sposób na względnie szybkie, tanie i łatwe zgromadzenie dużej ilości informacji
  • Możliwe uzyskanie danych od reprezentatywnej statystycznie grupy respondentów pochodzących często z odległych miejsc
  • Wysoka standaryzacja pytań i odpowiedzi umożliwiająca sprawną analizę oraz przejrzysty output
  • Dostęp do poufnych informacji dzięki zapewnieniu pełnej anonimowości respondentom
  • Jakościowe – w przypadku udzielania przez respondentów bardziej rozbudowanych odpowiedzi na pytania otwarte, umożliwiające również podzielenie się własnym komentarzem

Audyt dostępności strony internetowej

Audyt dostępności ma na celu wykrycie przeszkód na jakie mogą natrafić na stronie internetowej ludzie z dysfunkcjami oraz zapewnienie skutecznej rekomendacji poprawy błędów.

Problemy te mają nie tylko duże znaczenie w przypadku stron instytucji państwowych ale także w przypadku serwisów komercyjnych.

Aby zapewnić społeczeństwu równość w dostępie do informacji należy pamiętać o tym, że w obecnych czasach Internet jest największym ich źródłem. Z tego powodu istotne jest aby strony internetowe spełniały standardy dostępności. Takie standardy zostały ustalone w Web Content Accessibility Guidelines (WCAG), które jest zbiorem wyznaczników zapewniających dostępność zawartości strony dla ludzi niepełnosprawnych. Poprzez dostępność należy rozumieć fakt, że strona może być używana przez osoby niewidome, niedowidzące lub z innymi wadami wzroku, niesłyszące lub mające problemy z używaniem myszy i klawiatury.

Aby znaleźć problemy z dostępnością specjaliści opierają się na dobrych praktykach oraz testują stronę wykorzystując popularne programy umożliwiające korzystanie z Internetu niepełnosprawnym np. programy czytające zawartość strony (JAWS i Windows Eyes). Bardzo dobrym uzupełnieniem audytu są testy analogiczne do testów użyteczności w których badanymi są ludzi z dysfunkcjami.

Poprzez audyt dostępności nie należy rozumieć rezygnowania z treści audio, wideo, oraz grafiki na stronie, lecz właściwe jej umieszczenie i oznaczenie. Dobrze zaprojektowana pod względem dostępności strona jest także lepiej postrzegana przez osoby pełnosprawne.

Właściciele serwisów komercyjnych także powinni zadbać o dostępność, ponieważ coraz większy procent użytkowników stanowią ludzie starsi. Dla nich istotne jest aby strona była czytelna i pozwalała na łatwe dostosowywanie jej do indywidualnych potrzeb np. powiększania tekstu.

Istotnym aspektem analizy dostępności jest aspekt techniczny. Użytkownicy korzystają z różnych przeglądarek internetowych, niekoniecznie w najnowszych wersjach. W czasach szybko rozwijającej się technologii mobilnej należy także pamiętać o możliwości przeglądania stron internetowych na smartphonach i tabletach, które nie pozwalają na wyświetlanie wszystkich elementów strony ( np. Flash).

  • Lista rekomendacji dotycząca zmian które należy przeprowadzić w serwisie/aplikacji w celu zwiększenia jego dostępności
  • Zwiększenie satysfakcji niepełnosprawnych użytkowników serwisu

Audyt użyteczności strony internetowej

Audyt użyteczności jest metodą badania użyteczności stron internetowych lub aplikacji podczas której grupa specjalistów dokonuje szczegółowego przeglądu zawartości strony i na jej podstawie identyfikuje jej problemy.

Badanie opiera się na wybranych wcześnie wyznacznikach dobrego funkcjonowania strony (heurystykach), a każdy wykryty problem jest oceniany według skali jego istotności. Eksperci proponują także gotowe rozwiązania istniejących problemów które pozwolą właścicielom na skupienie się na mocnych stronach strony, a unikaniu słabych stron.

Dzięki swojej uniwersalności audyt użyteczności pozwala na badanie produktu w każdej fazie jego życia, jednak najlepsze efekty daje podczas pracy z produktem we wczesnym stadium produkcji nawet prototypem. Aby przeprowadzić audyt potrzebny jest zespół specjalistów. Najlepsze efekty są uzyskiwane gdy zespół pracujący nad audytem liczy od 3 do 5 osób które pracują niezależnie od siebie. W określonych sytuacjach możliwe jest przeprowadzenie audytu przez jednego specjalistę, lecz istnieje wtedy duże prawdopodobieństwo, że kluczowe błędy strony zostaną pominięte. Specjaliści „wczuwają się” w rolę użytkownika i sprawdzają jak z jego punktu widzenia wygląda obsługa serwisu. Przechodząc przez wszystkie istotne dla serwisu ścieżki, odkrywają błędy i problemy które mogą być uciążliwe dla użytkowników. Po przeprowadzeniu takiej analizy kierownik zespołu dokonuje syntezy wykrytych problemów i na jej podstawie tworzony jest finalny raport.

Wszelkie niedogodności i błędy w serwisie znacznie łatwiej jest znaleźć zewnętrznym ekspertom niż twórcom strony ponieważ oni doskonale znając serwis nie są w stanie wczuć się w rolę użytkownika i wykryć miejsca które jemu sprawiałyby trudności.

Kluczowym elementem podczas tworzenia audytu użyteczności jest wybranie odpowiednich heurystyk – z tego powodu audyt użyteczności często nazywa się analizą heurystyczną (ang. heuristic evaluation). Najbardziej uniwersalne i zarazem najbardziej popularne są tzw. heurystyki Nielsena. Jest to 9 wyznaczników które mówią jakie warunki musi spełniać strona aby była prosta i zrozumiała dla użytkownika oraz zapewniała mu poczucie pewności i bezpieczeństwa. W swojej początkowej wersji badaniem heurystyk zajmować się miały osoby nie będące specjalistami w tej dziedzinie. Późniejsza praktyka pokazała jednak, że znacznie lepsze efekty daje analiza przeprowadzona przez specjalistów ds. użyteczności.

Prócz heurystyk Nielsena, którym zarzucane jest np. że nigdy nie zostało zweryfikowane, że faktycznie polepszają interfejs, istnieje wiele innych metod przeprowadzania audytu użyteczności. Może to być cognitive walktrought – metoda oparta na założeniu, że użytkownik potrzebuje poznawać serwis poprzez uczenie się, czy heurystyki oparte na standardzie ISO 9241. Te ostanie wyznaczają międzynarodowe standardy użyteczności strony które zostały wyznaczone po przeprowadzeniu badań i zyskały międzynarodową zgodę. Niekiedy istniejące metody okazują się niewystarczające i konieczne jest stworzenie nowych, specjalnie dostosowanych do przeprowadzanego projektu. Może to mieć miejsce w sytuacji gdy projekt dotyczy stron dla osób starszych, małych dzieci, czy osób niepełnosprawnych.

Częstym pytaniem dotyczącym audytu użyteczności stron internetowych jest porównanie jego efektywności z testami użyteczności. Mimo że najlepsze efekty obie metody dają w połączeniu, to w pewnych przypadkach wytłumaczalne jest stosowanie jedynie audytu. Pozwala on na przebadanie serwisu przy niskich nakładach dając przy tym wysoką wykrywalność problemów.

  • Otrzymanie listy rekomendacji dotyczącej zmian które należy przeprowadzić w serwisie/aplikacji z uwzględnieniem zmian o najwyższym priorytecie
  • Większy zysk z serwisu dzięki poprawie użyteczności
  • Szybkość przeprowadzenia audytu oraz stosunkowo niskie koszty ( w porównaniu z testami użyteczności)
  • Nie wymaga rozbudowanego planowania przeprowadzenia badania
  • Nie wymaga specjalistycznego sprzętu – jedynie komputer z dostępem do Internetu

Badania etnograficzne

Badania etnograficzne są metodą badań jakościowych przeprowadzanych w celu opisania różnych aspektów funkcjonowania grup społecznych lub określonych kultur.

Zbieranie danych odbywa się często przez obserwację uczestniczącą, wywiady, ankiety, itp. Dokonuje się bardzo szczegółowego obeznania się z otoczeniem badanych (ang. deep digging), biorąc pod uwagę obiektywne fakty oraz subiektywną perspektywę obserwatora.

Jest to jedna z najpopularniejszych metod bezpośredniej obserwacji. Badacz poznaje zachowania interesujących go osób w ich rzeczywistych układach przestrzennych (domach, sklepach, punktach usługowych, itp.). Pozwala to na stwierdzenie, jak przestrzenna organizacja świata wpływa na zachowanie się ludzi.

Istnieją trzy zasady metodologiczne badań etnograficznych, które są wyszczególnione w celu uzasadnienia racjonalności wykorzystywania tej metody. Pierwsza to naturalizm, czyli odwołanie się do naturalnych warunków funkcjonowania ludzi, a także ograniczenie wpływu obserwatora na proces badania. Druga, to zrozumienie funkcjonowania różnych grup, ich zwyczajów. Trzecia zasada dotyczy odkrywania, które nie polega na sztywnym trzymaniu się postawionych hipotez, lecz wychodzenie poza skrypty i scenariusze.

Badanie etnograficzne składa się z szeregu elementów. Przed badaniem należy ustalić:

  • Obszar – zakres przeprowadzanych badań, który dotyczy wyboru grupy docelowej oraz środowiska badania,
  • Metody i techniki, które będą stosowane podczas badania etnograficznego (należy przy tym wyszczególnić metody główne (obserwacja) oraz metody szczegółowe (np. wywiady wprowadzane w celu rozszerzenia informacji zebranych podczas głównej obserwacji),
  • Dobór i przeszkolenie badaczy, każdy obserwator musi posiadać podstawową wiedzę dotyczącą etnografii i przeprowadzania badań,
  • Wyniki zwiadu, czyli wstępnego poznania danych dotyczących badanej grupy, rozeznanie istniejących w terenie źródeł informacji o badanych problemach, np. o istniejących dokumentach,
  • Program badawczy.

Przeprowadzanie badania przebiega według ustalonego scenariusza, który może być modyfikowany w trakcie procesu obserwacji. Wszelkie zmiany są wynikiem subiektywnych spostrzeżeń osoby prowadzącej badanie.

Ostatni element badań etnograficznych to łącznie danych uzyskanych podczas badania. Zebrane informacje podlegają wstępnej selekcji, następnie kategoryzacji i interpretacji. Wnikliwa analiza danych wymaga objaśnienia znaczeń i funkcji ludzkich działań. Należy zatem odwołać się do posiadanej wiedzy z dziedziny nauk społecznych (m.in. etnografii, socjologii, psychologii).

  • Unikalna wiedza dotycząca zachowań grupy osób w codziennym życiu, szczegółowe opisy i analiza obserwacji

Badania panelowe

Badania panelowe polegają na ciągłym lub systematycznym zbieraniu informacji (pisemnie, ustnie lub przy użyciu technik komputerowych) od ściśle określonej grupy jednostek w warunkach pracy zespołowej kontrolowanej przez moderatora.

Badania panelowe przeprowadzane są w celu przedstawienia dynamiki zmian występujących w określonej populacji oraz określenia wzorców zachowania występujących (badania podłużne).

Badania trwają przez dłuższy okres, np. miesiąc, rok. Badania podłużne umożliwiają śledzenie i opisywanie procesu rozwoju jednostki/grupy, szczególnie w zakresie stałości lub zmienności określonych cech i preferencji. Dzięki tym badaniom można stwierdzić również jakie zdarzenia mają wpływ na daną zbiorowość. Na każdym etapie stosuje się te same metody, np. kwestionariusze.

Przed rozpoczęciem badań należy dobrać odpowiednią grupę badanych oraz ustalić w jakim okresie będą one przeprowadzane (stworzyć harmonogram spotkań). Jeżeli badanie tego wymaga, trzeba poinformować uczestników o tym, czego nie powinni robić lub zmieniać przez dany czas.

Wszystkie spotkania w czasie trwania badania panelowego opierają się o jeden scenariusz. Badani wykonują kolejno te same zadania (lub zadania podobne). Na początku każdego etapu sporządza się szczegółowy raport o znaczących wydarzeniach, które miały miejsce od ostatniego spotkania.

Scenariusz spotkań jest zbiorem precyzyjnie dobranych metod i technik. Badani mogą np. wykonywać ćwiczenia warsztatowe (typu: kruszenie/ulepszanie) lub wypełniać przygotowane kwestionariusze, ankiety.

Analizuje się ogólne wyniki pracy z każdego spotkania, a następnie porównuje wykonanie na przestrzeni czasu ( z różnych spotkań). Możliwe jest porównywanie wyników całej grupy lub porównywanie wyników uzyskanych przez jednego badanego podczas poszczególnych etapów. Rezultaty wykonania każdego zadania są starannie selekcjonowane, kategoryzowane, a następnie opracowywane.

Badania panelowe są pomocne w przedstawianiu związków przyczynowo skutkowych na podstawie zaawansowanych analiz statystycznych.

  • Sprecyzowanie struktury określonej grupy osób,
  • Uchwycenie zmienności obserwowanego zachowania.

Badanie emocji produktowych

Badanie emocji produktowych (ang. product emotional measurement) to metoda badań jakościowych polegająca na analizie odczuć konsumenta związanych z użytkowaniem danego produktu bądź korzystaniem z określonej usługi.

W zależności od technik badawczych, w ramach metody wyróżnia się tzw. raport osoby badanej (ang. self report), pomiary autonomiczne (ang. autonomic measures) oraz obrazowanie mózgu (ang. brain imaging).

Technika ta służy zebraniu informacji na temat tego, jakie emocje dany produkt/usługa wywołują w swym odbiorcy w danym momencie korzystania z nich.

Self report

Technika ta polega na opisywaniu odczuwanych emocji przez osobę badaną bądź za pomocą słów (tzw. VeSR – ang. verbal self report), bądź z użyciem wizualizacji w postaci zestawu obrazków odpowiadających poszczególnym emocjom (tzw. ViSR – ang. visual self report). Te ostatnie, w zależności od wykorzystanej skali pomiaru, dzielą się dalej na techniki: Self Assessment Manikin (SAM), AdSAM oraz PrEmo. Wszystkie one bazują na zestawach tzw. „buziek” (ang. smilys), różniących się między sobą liczbą ilustrowanych emocji oraz sposobem ich przedstawienia (statyczne vs dynamiczne) – np. najbardziej popularna w ostatnim czasie technika ProEmo wykorzystuje zestaw 14 trwających 1-2 sekundy animacji odpowiadających 14 stanom emocjonalnym, przy czym możliwe jest tutaj zbadanie również emocji mieszanych.

Dodatkową techniką w ramach raportu osoby badanej jest tzw. pomiar ruchów ręką (ang. movement-to-movement ratings). Polega ona na wykonywaniu przez respondenta ruchów ołówkiem na kartce papieru podczas oglądania spotu reklamowego – proces ten nazywany jest „monitorem ciepła” (ang. warmth monitor). Ruchy osoby badanej uważane są tutaj za wskaźnik ciepła emocji odczuwanych przez respondenta w danych momentach.

Największą zaletą techniki self report są jej relatywnie niskie koszty oraz łatwość w przeprowadzeniu badania. Wadą z kolei jest trudność w weryfikacji zebranych danych – odwołują się one bowiem do subiektywnych opisów odczuwanych emocji osoby badanej, a nie do jakości samych emocji. Co więcej, często faktycznie występujące emocje mają charakter nieuświadomiony lub też sprawiają znaczne trudności w ich werbalizacji.

Autonomic measures

Pomiary autonomiczne odwołują się do reakcji cielesnych, częściowo znajdujących się poza kontrolą osoby badanej. Większość tego typu pomiarów wykonywanych jest w warunkach laboratoryjnych, co umożliwia badaczowi sprawowanie kontroli nad procesem badawczym, ale jednocześnie pozbawia sytuację kontekstu społecznego.

W zależności od sposobu przeprowadzenia badania, pomiary autonomiczne dzielą się na: pomiary wyrazu twarzy (ang. measurement of facial expressions), pomiary przewodnictwa skóry (ang. electrodermal reaction), pomiary akcji serca (ang. cardiovascular responses) oraz eye-tracking. Ten ostatni może być wykorzystywany w badaniu emocji produktowych pośrednio, jako technika pomiaru zainteresowania produktem/usługą wskazującego na istnienie pewnych emocji wywoływanych przez te ostatnie.

Brain imaging

Obrazowanie mózgu jest techniką zaczerpniętą z neuronauki, wymagającą użycia w badaniu urządzeń rejestrujących fale mózgowe oraz wykonujących zdjęcia poszczególnych części mózgu osoby badanej. Najbardziej znanymi odmianami tej techniki są: elektroencefalografia (EEG), magnetoencefalografia (MEG), topografia emisji antyelektronów (PET) oraz funkcjonalne obrazowanie rezonansu magnetycznego (fMRI).

  • W przypadku self report relatywnie niskie koszty oraz łatwość w przeprowadzeniu badania, jak również osadzenie tego ostatniego w konkretnym kontekście społecznym
  • W przypadku pomiarów autonomicznych i obrazowania mózgu możliwość naukowej weryfikacji uzyskanych wyników dzięki użyciu obiektywnych narzędzi pomiaru

Burza mózgów

Burza mózgów to technika, której celem jest zbiorowe poszukiwanie nowych pomysłów w oparciu o twórcze myślenie.

Jest to jedna z najczęściej stosowanych technik w procesie projektowania, używana zarówno wśród ekspertów oraz osoby spoza danej dziedziny. Na podstawie różnych skojarzeń, pomysłów, uzyskuje się informacje o nieświadomych potrzebach i zachowaniach użytkowników związanych z przedstawianym przedmiotem badań.

W badaniu bierze udział od 2 do 12 osób. Pracy grupowej przygląda się moderator. Jego zadaniem jest poinformowanie grupy o zadaniu, które mają wykonać (stworzyć nowe rozwiązanie lub rozwiązać problem) Moderator koordynuje działania uczestników.

Można wyróżnić dwa etapy Burzy mózgów: faza generowania pomysłów oraz faza ich oceniania.

W pierwszej fazie następuje zbieranie pomysłów. Każda osoba z grupy zgłasza dowolną liczbę propozycji w kolejności wyznaczonej przez moderatora lub poza kolejnością. Są to wolne skojarzenia będące wynikiem twórczego myślenia danej osoby, odwołania się do zdobytej wiedzy i doświadczenia. Etap ten kończy się, gdy efektywność pracy grupowej maleje, tj. uczestnicy podają mało pomysłów, powtarzają się, milkną.

W drugiej fazie najpierw selekcjonuje i kategoryzuje się zebrane pomysły (rozwiązania), a następnie poddaje się je analizie. Następnie ocenia się zebrane propozycje pod względem ich oryginalności, ważności, dopasowania treściowego do tematu zadania, itp.

Stosując tę technikę należy pamiętać o zapewnieniu każdej osobie w grupie równej szansy wypowiedzenia swojego pomysłu. Nikt nie powinien krytykować propozycji innych osób, dlatego konieczne jest wprowadzenie wstępnych uzgodnień przed rozpoczęciem pracy zespołu.

Obecnie można wyróżnić kilka odmian Burzy mózgów, np. Burza mózgów oparta na metaforze (ang. Metaphor brainstorming), gdzie podaje się tylko Odwrócona burza mózgów (ang. Revised brainstorming), w której podaje się sposób na błędne rozwiązania oraz Indywidualna burzę mózgów (ang. Individual brainstorming), czyli jednoosobowa praca nad stworzeniem listy pomysłów.

  • Nie wymaga wcześniejszego treningu
  • Nie wymaga przygotowania specjalnych materiałów
  • Zajmuje mało czasu
  • Podnosi motywację w grupie do działania, angażuje wszystkich członków grupy badanej
  • Dzięki tej metodzie można w prosty sposób dowiedzieć się jakie są nieświadome opinie i potrzeby użytkowników

Card sorting

Sortowanie kart (ang. card sorting) to metoda badań jakościowych z zakresu user-centered design w odniesieniu do architektury informacji, której celem jest zaprojektowanie/przeprojektowanie witryny lub aplikacji webowej we współpracy z użytkownikami.

Wywodzi się ona z metody stosowanej w psychologii kognitywnej służącej rozpoznaniu, w jaki sposób jednostki porządkują informacje poprzez przypisywanie ich do odpowiednich kategorii (próba rekonstrukcji wzorów myślenia).

Technika zastosowana w odniesieniu do stron internetowych pozwala na zwiększenie ich użyteczności poprzez uwzględnienie perspektywy odbiorcy – tzn. odkrycie jego sposobu kategoryzacji/poszukiwania danych oraz korzystania ze znalezionych już informacji.

Przeprowadzenie badania w formie offline wymaga wcześniejszego przygotowania kart z wypisanymi na nich hasłami (np. karteczki typu Post-it), ewentualnie również etykiet kategorii i „makiety” strony do uzupełnienia (w przypadku badań prowadzonych online potrzebna jest lista haseł do uporządkowania, ewentualnie etykiety kategorii, a także odpowiedni program komputerowy). W zależności od tego czy badanie ma charakter wstępu do procesu projektowego, czy ewaluacji gotowego już produktu, wyróżnić można trzy odmiany metody różniące się rodzajem zadań skierowanych do uczestników:

Otwarte sortowanie kart (ang. open card sort) – prowadzący rozdaje karty z hasłami uczestnikom, którzy mają je uporządkować poprzez przypisanie ich do określonych wspólnie kategorii; odmiana ta stosowana jest przed przystąpieniem do projektowania strony w celu szybkiego wypracowania z użytkownikami prototypu witryny/aplikacji

Zamknięte sortowanie kart (ang. closed card sort) – uczestnicy otrzymują od prowadzącego karty z hasłami, które mają przyporządkować do określonych z góry przez prowadzącego kategorii; tę wersję badań stosuje się w przypadku konieczności ewaluacji rozwiązań zastosowanych już na stronie/w aplikacji pod kątem ich użyteczności

Odwrócone sortowanie kart (ang. inverse card sort/reverse card lookup) – uczestnikom znany jest najwyższy poziom hierarchii w porządku informacji na stronie (główne kategorie); zadanie polega na odnalezieniu informacji niższego rzędu pod odpowiednimi nagłówkami; wariant ten jest również elementem badań ewaluacyjnych.

Sortowanie kart może mieć ponadto charakter pracy indywidualnej, współzawodnictwa w zespołach lub aktywności mieszanej, tzn. grupowej dyskusji poprzedzonej indywidualnym porządkowaniem haseł. Po skończonej sesji zespół badaczy analizuje wyniki pracy użytkowników (przy zastosowaniu metod takich, jak diagram pokrewieństwa, analiza statystyczna i analiza skupień, porównywanie wzoru) pod kątem możliwości implementacji zaproponowanych rozwiązań jako podstawy dla nowego projektu bądź wskazówek odnośnie ulepszenia strony/aplikacji już istniejącej.

  • Metoda względnie tania, szybka i łatwa do przeprowadzenia zarówno dla prowadzącego, jak i uczestników badania
  • Oparta na zaangażowaniu użytkowników, dzięki czemu możliwe jest poznanie ich sposobu pracy z informacją, co z kolei daje dobrą podstawę dla zaprojektowania/przeprojektowania strony lub aplikacji
  • Stosowana od ponad 20 lat w UCD – ma mocne oparcie teoretyczne i empiryczne

Checklist

Checklista (lista kontrolna) jest to zbiór wyznaczników, zadań lub innych punktów z którymi dany proces, czynność lub produkt ma zostać skonfrontowany.

Checklista może przyjmować różna formę od bardzo prostej, zawierającą jedynie wypisane kolejno zadania/czynności oraz miejsce na odhaczenie ich wykonania. Może przyjąć także formę bardziej skomplikowaną wzbogaconą o podział zadań ze względu na termin ich realizacji oraz wyznaczone wagi ze względu na różny stopień istotności zadań/czynności. Aby stworzyć dobrą checklistę należy pamiętać aby kolejne jej pozycje były krótkie, zrozumiałe, nie wymagały oceny wykonania i nie powtarzały się.

Zadaniem checklisty jest uniknięcie błędów, pomyłek i zaniechań podczas realizacji ważnych i skomplikowanych działań.

Przygotowanie checklisty powinno odbywać się na wstępnym etapie projektu – jego planowaniu. Prócz list stworzonych pod konkretny projekt można skorzystać z checklist już przygotowanych, wykorzystanych we wcześniejszych projektach lub powszechnie dostępnych publikowanych przez ekspertów z danej dziedziny jak np. lista kontrolna użyteczności strony internetowej.

Checklista ma wiele zastosowań i może być wykorzystana do sprawdzenia poprawności wykonania zadań od prostych i błahych jak przygotowanie do podróży po trudne i ważne jak ratowanie ludzkiego życia. Właśnie w medycynie checklista okazała się bardzo pomocna np. na oddziale intensywnej terapii gdzie lekarze i pielęgniarki mają wiele obowiązków których pominięcie może być tragiczne w skutkach. Innym przykładem jest stworzenie przez Światową Organizację Zdrowia oficjalnej checklisty dla chirurgów. Okazuje się bowiem, że w zarówno jednym jak i drugim przypadku wykonywanie zadań według listy kontrolnej doprowadziło do osiągania znacznie lepszych wyników w tym zmniejszenia umieralności pacjentów. Innym znanym zastosowaniem checklisty jest przygotowanie pilota do startu samolotu, kiedy musi on dopełnić wiele obowiązków w krótkim czasie, niezbędnych do odbycia bezpiecznego lotu.

Checklista ma tak szerokie zastosowanie że może być wykorzystana niedużym kosztem właściwie wszędzie gdzie konieczne jest pamiętanie o wykonaniu wielu niezbędnych czynności. W biznesie znalazła ona zastosowanie w zarządzaniu projektami oraz zasobami ludzkimi ponieważ pozwala ona na wykonanie projektu zgodnie z pierwotnym planem oraz zapewnienie rozwoju pracownika zgodnego z jego wynikami.

  • Ciągła kontrola realizowanego projektu
  • Nie potrzeba specjalnego wyszkolenia aby używać checklisty
  • Nieduże koszty zastosowania checklisty

Co-creation sessions

Sesje współtworzenia (ang. co-creation sessions) to metoda badań jakościowych polegająca na wytwarzaniu wartości produktu lub usługi przy współpracy firmy z jej potencjalnymi klientami.

Zaangażowanie potencjalnych użytkowników w proces projektowy już na wczesnym etapie powstawania produktu/usługi pozwala na zebranie wielu wartościowych informacji jeszcze w fazie prototypowania, jak również zapewnia jak najlepsze dopasowanie finalnego wytworu do potrzeb konsumentów. Założenie o potrzebie prowadzenia przez firmę stałego dialogu z przyszłym odbiorcą dla wypracowania nowej wartości po raz pierwszy zostało sformułowane przez C.K. Prahalada, stając się jednym z kluczowych elementów filozofii designu.

W celu przeprowadzenia sesji co-creation należy stworzyć odpowiednią platformę komunikacji między firmą i użytkownikami, przygotowując miejsce spotkania oraz opracowując jego scenariusz. Ten ostatni powinien być tak skonstruowany, by pobudzał uczestników do kreatywnego myślenia, jak również stymulował pracę w grupie. Jednocześnie poszczególne zadania muszą dawać prowadzącemu sesję możliwość wprowadzania zmian w zależności od przebiegu spotkania i specyfiki jego uczestników. Rekrutacja tych ostatnich powinna uwzględniać ich różnorodność – tak, by miejsce przeciętnych użytkowników angażowanych do innych rodzajów badań konsumenckich zastąpili odbiorcy nietypowi, często prezentujący odbiegające od normy poglądy i sposoby zachowania. Podejście takie zapewnia dynamikę sesji poprzez skonfrontowanie odmiennych perspektyw, co z kolei prowadzi do bardziej kreatywnych rozwiązań danych problemów.

Podczas prowadzenia spotkania dużą rolę odgrywa moderator. Powinien on nieustannie stymulować grupę do pracy, nie narzucając jednocześnie własnego zdania ani nie sugerując gotowych odpowiedzi. Ważne przy tym, by dawał uczestnikom poczucie, iż każdy pomysł jest dobry, a każda wypowiedź cenna – tylko wówczas złamana zostać może bariera komunikacji w postaci strachu przed ośmieszeniem się w gronie obcych osób. Wreszcie, do kluczowych umiejętności moderatora należy zdolność zadawania odpowiednich pytań we właściwym momencie – ogólnych, gdy celem jest otwarcie dyskusji na dany temat i bardziej szczegółowych, gdy pewne kwestie wymagają doprecyzowania.

Efektem sesji jest wypracowanie nie tyle gotowej odpowiedzi na pytanie, jak powinien wyglądać produkt lub usługa, ale zgromadzenie puli pomysłów, które dopiero zostaną poddane dalszej dyskusji między przedstawicielami firmy, badaczami i zespołem projektowym. Wygenerowane w trakcie spotkania z użytkownikami idee nie stanowią tu zatem zbioru wskazówek dla projektantów, a jedynie są dla nich inspiracją i punktem odniesienia dla dalszych działań.

Dodatkową korzyścią sesji jest tworzenie społeczności użytkowników, którzy mając poczucie wspólnej własności względem produktu lub usługi stają się w przyszłości jego/jej lojalnymi odbiorcami.

  • Możliwość zapoznania się z różnymi perspektywami użytkownika
  • Zebranie wielu ciekawych pomysłów w relatywnie krótkim czasie i przy niskim nakładzie kosztów
  • Bogate źródło inspiracji dla projektantów
  • Zapewnienie użytkownikom poczucia wspólnej własności produktu/usługi i tym samym zapewnienie sobie ich lojalności w przyszłości
  • Tworzenie społeczności użytkowników jeszcze przed wprowadzeniem produktu/usługi na rynek
  • Zmniejszenie ryzyka odrzucenia produktu/usługi przez konsumentów dzięki weryfikacji projektów jeszcze przed fazą prototypowania
  • Lepsze zrozumienie specyfiki i potrzeb potencjalnych klientów przez przedstawicieli firmy, którzy często nie partycypują w rzeczywistości konsumenta
  • Dobry wstęp do stworzenia produktu/usługi odpowiadającego na aktualne potrzeby odbiorców, a jednocześnie cechującego się wysokim stopniem innowacyjności

Cognitive Walkthrough

Cognitive walkthrough to metoda używana do badania jednego z atrybutów użyteczności – łatwości uczenia się. Obrazuje myśli, działania i problemy użytkowników, które pojawiają się podczas pierwszego kontaktu z badanym systemem.

Głównym założeniem tej metody jest fakt, że użytkownicy uczą się korzystać z nowego systemu (np. aplikacji) poprzez wykonywanie konkretnych zadań, eksplorację, a nie czytanie instrukcji obsługi, korzystanie z centrum pomocy, czy też poprzez instruktaż innych osób (kursy, szkolenia). Bada się zatem, krok po kroku (ang. walkthrough), w jaki sposób użytkownik rozpoczyna pracę z danym systemem, jak go poznaje i wykonuje dane mu zadania. Śledząc działania użytkownika należy wziąć pod uwagę następujące pytania:

  • Czy użytkownik będzie wiedział, co powinien zrobić?
  • Czy będzie on sobie zdawał sprawę z tego, że właściwe działanie jest dostępne, możliwe do wykonania?
  • Czy użytkownik wie, że dane działanie doprowadzi do konkretnego efektu?
  • Czy działanie użytkownika zakończy się sukcesem, czy otrzyma odpowiedź zwrotną od systemu?

Metoda cognitive walkthrough składa się z trzech istotnych etapów: staranne przygotowanie badań, przeprowadzenie badania oraz analiza i interpretacja wyników.

W fazie wstępnej, określa się grupę docelową, która będzie korzystać z systemu. Dokonuje się opisu ogólnego (np. użytkownicy telefonu X) lub opisu szczegółowego, który zawiera dodatkowo informacje o poziomie wiedzy i umiejętnościach użytkowników. Następnie tworzona jest lista zadań związanych z najważniejszymi elementami działania systemu oraz możliwymi trudnościami w realizacji tych zadań. Ostatnim składnikiem etapu przygotowań jest ułożenie planu działań dla użytkownika.

Kolejnym krokiem jest realizacja badań. Badany w obecności moderatora, wykonuje zlecone mu zadania. Moderator obserwuje poszczególne czynności użytkownika, odpowiadając na cztery główne pytania (wymienione powyżej) oraz klasyfikując je jako „sukces”, gdy zadanie jest wykonane poprawnie, lub jako „porażkę”, gdy wystąpiły trudności w wykonaniu zadania, bądź nie zostało ono ukończone.

Końcowym etapem tej metody jest analiza i interpretacja zebranych informacji. Analizuje się głównie te momenty, w których użytkownik miał trudności z wykonaniem zadania. Etap ten stanowi odpowiedź na cztery fundamentalne pytania o interakcję systemu z użytkownikiem oraz rekomendacje zmian.

  • Wskazanie na elementy systemu, które są łatwe i trudne do nauki (intuicyjne lub nie), czy można rozpocząć korzystanie z systemu bez wcześniejszego zapoznania się z dokumentacją oraz jak wiele błędów popełnia użytkownik podczas pierwszego kontaktu z systemem;
  • Stosunkowo niski koszt przeprowadzania badań – nie jest wymagane tworzenie specjalistycznych narzędzi, nie ma też wcześniejszego treningu użytkownika;
  • Możliwość przeprowadzenia prostego testu użyteczności na każdym etapie procesu projektowania.

Consumer journey

Consumer journey to metoda analizy ścieżek konsumenta korzystającego z danej usługi w ramach ograniczonej przestrzeni, np. sklepu lub serwisu internetowego.

Technika ta ma na celu zobrazowanie toru ruchu klienta w obrębie danej przestrzeni oraz zaznaczenie istotnych punktów znajdujących się na wspomnianych torach, co umożliwia lepsze rozpoznanie preferencji zakupowych konsumenta i tym samym takie zaprojektowanie układu ścieżek, by jak najlepiej odpowiadał on na potrzeby tego ostatniego.

Realizacja tej metody polega zatem na obserwacji zachowania klienta (każdego jego kroku) i wyznaczaniu “gorących punktów”, które występują podczas danej aktywności. Klient może zapoznawać się z firmą (sklepem), wybierać produkt lub usługę, podejmować decyzję, dokonywać zakupu, itd. Proces ten można opisać zatem w następującej kolejności: 1. Zaangażowanie, 2. Zakup, 3. Użytkowanie, 4. Dzielenie się swoimi doświadczeniami dotyczącymi danego przedmiotu/usługi, 5. Uzupełnienie/Konkurencja – np. wybór innej firmy.

“Gorące punkty” stanowią ważne momenty występujące na różnych etapach podanego procesu. Ogólnie można je podzielić na cztery główne kategorie:

  • Działanie (Zachowanie) – szczegółowy opis tego co robi obserwowany, gdzie się zatrzymuje, czemu się przygląda?
  • Motywacja – opis tego, w jaki sposób się porusza (np. zdecydowanie), wykonuje czynności, czy np. waha się?
  • Ograniczenia/trudności – zaznaczenie, jakie bariery znalazły się w polu działania osoby badanej;
  • Nietypowe aktywności – wszelkie nieprzeciętne zachowania.

Odmianą Consumer journey jest Consumer decision journey, w której szczególnie zwraca się uwagę na momenty decyzyjne (np. wybór przedmiotu i włożenie go do koszyka. zakup przedmiotu/usługi).

Przy realizacji tej metody wykorzystuje się specjalnie zaprojektowany arkusz obserwacyjny wraz z ustaloną legendą newralgicznych punktów. Analiza consumer journey pozwala przybliżyć doświadczenia konsumenta związane z interakcją w obrębie badanej przestrzeni. Metoda ta jest przeważnie stosowana jako element wspierający (bardziej rozbudowane) badania o charakterze etnograficznym.

  • Znalezienie jak najwięcej punktów wiążących klienta z daną firmą (np. sam produkt, miejsce sprzedaży, obsługa, itp.
  • Wyznaczenie trudności użytkownika i określenie obszarów wymagających zmiany.

Contextual inquiry

Contextual inquiry jest to metoda pozwalająca na poznanie użytkowników, ich zwyczajów oraz celów użycia produktu/usługi.

Odbywa się to poprzez przeprowadzenie wywiadu oraz obserwacji bezpośrednio w miejscu w którym produkt/usługa jest używana.

Contextual inquiry jest narzędziem przydatnym w sytuacji gdy projektanci nie mają kontaktu z klientem, nie rozumieją jego potrzeb. Możliwe jest wtedy stworzenie produktu/usługi który nie zaspokaja popytu, jest trudny i niezrozumiały w obsłudze oraz ma wiele nieprzydatnych funkcji. Projektanci zwykle mają obraz typowego użytkownika jednak nie zawsze jest on zgodny z prawdą. Dzięki zastosowaniu contextual inquiry możliwe jest zweryfikowanie tego obrazu i poznanie faktycznych potrzeb klienta. Badacze, chcąc zebrać jak najwięcej informacji o użytkownikach produktu/usługi, wybierają się w miejsce w którym użytkownicy zwykle go używają. Jeśli np. jest to aplikacja pomagająca pewnej grupie specjalistów w pracy, badacze spotykają się z reprezentantami tej grupy w miejscu wykonywania pracy. Spotkanie nie ma charakteru oficjalnego, nie odbywa się w pokojach konferencyjnych, lecz przy stanowisku pracy gdzie badacz obserwuje obsługę aplikacji, robi stosowne notatki, przeprowadza wywiad dzięki któremu pogłębia wiedzę na temat zaobserwowanych zachowań.

Aby badanie było dobrze wykonane musi być spełnione kilka warunków. Przede wszystkim należy pamiętać, że bezpośrednia obserwacja zwykle jest stresująca i niekomfortowa dla osoby obserwowanej. Z tego powodu badacz musi zadbać o swobodną atmosferę i zapewnić badanego, że badanie nie ma na celu oceny jego pracy lecz zdobycie informacji na temat sposobu użytkowania produktu/usługi. Badacz powinien podczas przebiegu spotkania rejestrować je, najlepiej w postaci notatek. Możliwe jest nagrywanie przebiegu w formie audio lub wideo lecz prócz faktu, że może to być dodatkowo stresujące, samo odsłuchiwanie nagrania jest czasochłonne dla badacza. Warto także dobrze wyselekcjonować grupę badanych aby odzwierciedlali oni typowych użytkowników. Zwykle do zachęcenia badanych do udziału w contextula inquiry niezbędne jest odpowiednie ich wynagrodzenie zwykle pieniężne choć są sytuacje w których lepsze okazują się bony czy vouchery (gdy badanie odbywa się w miejscu pracy). Przed badaniem warto zapewnić badanym informacje o przebiegu spotkania, podpisać stosowną umowę oraz poprosić o wypełnienie ankiety demograficznej.

Ponieważ przebieg badania wymaga od badacza pełnej koncentracji oraz powinno ono trwać około 2 godzin dlatego zaleca się przeprowadzenie 2 badań dziennie. W optymalnej sytuacji w badaniu powinno uczestniczyć 2 badaczy z których jeden odpowiedzialny jest za kontrolowanie spotkania, drugi natomiast za notowanie jego przebiegu.

Problemem nasuwającym się podczas przygotowania badania jest dobór odpowiedniej ilości badanych. Jest to sprawa dość indywidualna dla projektu i wielkości grupy odbiorców produktu/usługi. Zaleca się wyróżnienie głównych grup użytkowników i dokonanie 5-6 obserwacji dla każdej z nich. W przypadku gdy produkt jest adresowany jedynie do jednej grupy odbiorców (np. aplikacja dla pracowników call center) wystarczy 5-6 badanych. Oczywiście wyrobienie poglądu o użytkowaniu produktu możliwe jest przy odbyciu spotkań z mniejszą grupą np. 2-3 osób, jednak należy pamiętać że wyniki badań nie będą wtedy pełne.

  • Pogłębienie wiedzy na temat rzeczywistego wykorzystania przez użytkownika badanego produktu/usługi
  • Poznanie problemów użytkowania, identyfikacja „wzorów używania”
  • Odkrycie potrzeb użytkowników związanych z produktem/usługą
  • Zwykle niskie koszty dodatkowe badania – nie ma potrzeby użycia kosztownych materiałów

Critical Incident Technique (CIT)

Metoda CIT polega na bezpośredniej obserwacji krytycznych momentów podczas wykonywania danej usługi, np. sprzedaży.

Incydent krytyczny to zdarzenie, które wpływa na podejmowane działanie, np. kupienie czegoś, co powoduje wzrost lub spadek satysfakcji użytkownika z uzyskanego efektu. Aby zdarzenie można było uznać za krytyczne, musi spełniać ono odpowiednie kryteria:

  • Dotyczyć interakcji między obiema stronami, np. klientem i sprzedawcą,
  • Wzbudzać zadowolenie lub niezadowolenie użytkownika,
  • Być pojedynczym incydentem ( nie może stanowić ciągu zdarzeń),
  • Być faktem, który łatwo (bez zniekształceń, np. dodania czegoś) przywołać z pamięci oraz takim, aby badacz mógł go sobie wyobrazić,
  • Wyróżniać się spośród innych wydarzeń.

Technika ta stosowana jest w celu rozpoznania ukrytych źródeł zadowolenia użytkowników korzystających z danej usługi, jak również zidentyfikowania i wyeliminowania przyczyn możliwych konfliktów.

Metoda CIT składa się z trzech etapów, wymagających starannego przygotowania: fazy wstępnej, czyli odpowiedniego zaaranżowania sytuacji badania, fazy zbierania danych – prowadzenia obserwacji, fazy analizowania danych, tj. wywiad z badanym oraz analiza i interpretacja uzyskanych danych.

Etap pierwszy to dokładne zapoznanie się z badaną usługą, aby móc określić możliwe do wystąpienia krytyczne momenty. Wstępna klasyfikacja incydentów jest przeprowadzana przez grupę ekspertów i przy zbieżności 80% zgodnych wyborów, uznaje się ostateczną klasyfikację znaczących wydarzeń. Na tej podstawie tworzone są specjalne ankiety i kwestionariusze zawierające ważne elementy badanej usługi, np. niedostępność usługi, kontakt z personelem oraz sporządzenie listy pytań, jakie będą zadane osobie badanej w ostatniej fazie.

Kolejny etap to przeprowadzenie obserwacji podczas wykonywania przez badanego określonego zadania, np. zakupu jakiegoś przedmiotu. Badany ma zachowywać się naturalnie i dokładnie monitorować swoje odczucia.

Ważnym etapem CIT jest zbieranie i analiza danych. Zbieranie danych polega na przeprowadzeniu wywiadu zogniskowanego z badanym. Respondent opowiada o ważnych dla niego momentach usługi i związanych z nimi odczuciach. Osoba prowadząca wywiad powinna naprowadzać badanego na właściwy temat. Istotne jest tu zebranie jak największej ilości informacji. Analiza danych dotyczy jakie wydarzenia są dla badanego krytyczne, czy są zdarzenia odbierane pozytywnie, czy negatywnie, jaki jest poziom satysfakcji oraz jakie czynniki wpływają na jego stopień zadowolenia. Następnie zebrane informacje są sortowane w grupy i kategorie według podobieństw przez niezależnych sędziów.

W efekcie otrzymuje się dokładny opis istotnych elementów usług zawierający informacje subiektywne, dostarczone przez badanego oraz obiektywne, będące wynikiem wielu analiz przeprowadzanych przez różnych ekspertów.

  • Odkrycie leżących w głębi problemu przyczyn zadowolenia lub niezadowolenia klienta, gdyż przedstawia bardzo szczegółowe dane dotyczące satysfakcji klienta,
  • Otrzymuje się wyniki zarówno jakościowe i ilościowe (rozpoznanie nie tylko zadowolenia lub niezadowolenia użytkownika, ale także określenie poziomu satysfakcji, dokładny opis zachowania),
  • Podkreśla zarówno pozytywne i negatywne cechy systemu, które są istotne z perspektywy głównego odbiorcy – użytkownika, co jest pomocne w ulepszaniu funkcjonowania systemu oraz usuwaniu jego wad.

Cykl szybkiej ewaluacji prototypów

Cykl szybkiej ewaluacji prototypów (ang. rapid iterative prototyping evaluation) to metoda badań jakościowych będąca odmianą testów użyteczności przeprowadzanych podczas projektowania stron internetowych i interfejsów programów komputerowych.

Polega ona na szybkim testowaniu prototypów strony/programu z użytkownikami od momentu stworzenia pierwszego prototypu do osiągnięcia finalnej wersji projektu.

Celem tak przeprowadzonego badania jest zmniejszenie dystansu czasowego pomiędzy skonstruowaniem pierwszej wersji strony/produktu a wprowadzeniem do użytku wersji ostatecznej w modelu zakładającym testowanie przez użytkowników dopiero pod koniec procesu projektowego.

Przygotowanie badania wymaga podjęcia czynności podobnych jak w przypadku „zwykłych” testów użyteczności – skonstruowania zestawu zadań testowych do wykonania przy użyciu prototypu, rekrutacji uczestników badania (do pięciu osób na dzień z wyjątkiem ostatniego, gdy ich liczba może wzrosnąć do ośmiu) oraz przygotowania odpowiedniego miejsca (najlepiej pomieszczenia przeznaczonego do przeprowadzania ukrytej obserwacji, tzw. focus room). Tym, co wyróżnia metodę szybkiej ewaluacji prototypów jest intensywność obserwacji skumulowanej w krótkim odcinku czasowym przy równoczesnej intensywnej pracy projektowej – każdego dnia po badaniu projektowany jest kolejny prototyp uwzględniający uwagi użytkowników i poddawany ewaluacji w dniu następnym. Ostatni z prototypów jest najbardziej zbliżony do wersji finalnej, jako że stanowi dla zespołu projektowego namacalny zbiór wskazówek, jak powinien wyglądać końcowy projekt.

Podczas przeprowadzania badania do pracy zaangażowany jest cały zespół badawczo-projektowy, a w miarę możliwości także przedstawiciele firmy zlecającej wykonanie projektu. W trakcie wykonywania zadań przez użytkowników większość zainteresowanych obserwuje badanie z ukrycia, sporządzając notatki, zaś jedna osoba występuje w roli moderatora badania. Jej głównym zadaniem jest wyjaśnienie uczestnikom badania, na czym ono polega oraz obserwacja jawna połączona z zapisem spostrzeżeń (ze względu na wygodę najlepiej ręcznym na arkuszu papieru). Ważne, by moderator nie komentował działań i wypowiedzi użytkowników, jak również nie pomagał im w wykonywaniu poszczególnych zadań. W razie wątpliwości wyrażanych przez osoby badane nie powinien sugerować im właściwej odpowiedzi/działania, a jedynie stymulować do samodzielnego myślenia i podejmowania prób. Badanie będzie wartościowe tylko wówczas, gdy użytkownikom umożliwi się swobodne eksperymentowanie z prototypem, wyrażanie swoich opinii i emocji oraz sugerowanie poprawek.

Zdobyte w powyższy sposób dane stanowią bogate źródło informacji dla projektantów, jak również przybliżają potrzeby użytkowników przedstawicielom firm zlecających tego typu badania. Jakkolwiek wiele z sugestii badanych osób nie zostanie wykorzystanych w ostatecznej wersji projektu, warto poddawać je wszystkie przeprowadzanej równolegle do badania analizie i dyskusji, gdyż dzięki temu stymulowana jest praca grupowa członków zespołu prowadząca do powstawania kreatywnych, często zaskakujących rozwiązań.

  • Zmniejszenie dystansu czasowego dzielącego moment powstania pierwszego prototypu od pierwszego testowania wersji zbliżonej do finalnego projektu
  • Możliwość wprowadzania koniecznych zmian już we wczesnej fazie prototypowania (łącznie z wycofaniem nieadekwatnego do potrzeb użytkowników projektu)
  • Ułatwienie użytkownikom krytycznego podejścia do projektu dzięki charakterowi wczesnego prototypu, który sprawia wrażenie nieukończonego i tym samym podatnego na zmiany
  • Dostosowanie strony/programu do potrzeb i oczekiwań odbiorców
  • Kontakt z użytkownikami i budowanie ich lojalności jeszcze przed wprowadzeniem ostatecznej wersji strony/programu na rynek
  • Umożliwienie przedstawicielom firmy zlecającej badanie uczestniczenia w procesie projektowym i obserwowania pracy zespołu badawczego, co z kolei pozwala na lepsze zrozumienie specyfiki projektu i jego odbiorcy
  • Wzmacnianie więzi w zespole dzięki intensywnej pracy grupowej, która przybiera częściowo formę warsztatu kreatywności
  • Duża efektywność pracy dzięki ścisłym ograniczeniom czasowym

Desk research

Analiza źródeł wtórnych (ang. desk research) to metoda badań jakościowych służąca zebraniu i analizie danych dotyczących wybranego problemu bez konieczności podejmowania pracy „w terenie”.

Choć mogą to być również badania właściwe, najczęściej mają one charakter uzupełniający jako badania wstępne (np. dla rozpoznania obszaru/grupy badawczej przed przeprowadzeniem ankiety) lub wtórne (analiza danych zebranych podczas wcześniejszych badań terenowych).

Po zakończonym badaniu sporządzany jest raport zawierający wskazówki odnośnie dalszych działań (w przypadku analizy poprzedzającej właściwe badania) lub wnioski podsumowujące całokształt badań (gdy analiza źródeł dotyczy głównie materiałów zebranych podczas wcześniejszych badań zasadniczych).

Do problemów badanych najczęściej tą metodą należą przede wszystkim zagadnienia marketingowe, takie jak:

  • Analiza rynku – jego wielkość, struktura, trendy
  • Analiza branży – główni konkurenci, regulacje prawne, kanały dystrybucji
  • Analiza marki – wizerunek, odbiór i użytkowanie produktu, opinie konsumentów
  • Analiza szans i zagrożeń oraz słabych i mocnych stron (tzw. analiza SWOT)

Badanie opiera się na analizie materiałów zastanych, do których należą dane wygenerowane przez samego badacza w trakcie pracy w terenie (raporty, analizy, wnioski z dotychczasowych badań) i/lub informacje ogólnodostępne pochodzące z takich źródeł, jak publikacje książkowe, artykuły w prasie i czasopismach tematycznych czy też strony internetowe. Pomocne są też dane udostępniane na specjalną prośbę przez rozmaite instytucje, takie jak urzędy statystyczne, państwowe uczelnie, firmy badawcze i organizacje branżowe. Wszystkie materiały przed włączeniem do badań zostają poddane sprawdzeniu pod kątem ich rzetelności, wiarygodności i aktualności (w razie potrzeby część z nich weryfikowana jest empirycznie). Z wiedzy respondentów korzysta się w bardzo ograniczonym zakresie – są to najczęściej porady ekspertów bądź wypowiedzi czytelników/użytkowników forów internetowych, nieświadomych pełnienia roli informatora.

  • Metoda tania i względnie łatwa – nie wymaga dużych nakładów finansowych ani zatrudniania wyszkolonych technicznie osób
  • Zapewnia spojrzenie na problem z wielu perspektyw ze względu na korzystanie z różnych źródeł danych
  • Jako analiza wstępna pozwala na lepsze zaplanowanie dalszych badań dzięki rozpoznaniu obszaru badawczego
  • Jako analiza podsumowująca badania umożliwia efektywne wykorzystanie zebranych wcześniej danych poprzez wyciągnięcie konstruktywnych wniosków o solidnych podstawach

Diary studies

Diary studies jest metodą pozwalającą na zebranie informacji o ludziach i ich zachowaniach bezpośrednio od nich samych.

Odbywa się to poprzez wypełnianie przez badanego specjalnie przygotowanego dziennika w którym umieszczane są informacje wcześniej skonsultowane z badaczami, a ich zakres i forma uzależnione są bardzo od specyfiki projektu.

Diary studies wykorzystywać można bowiem zarówno do badania opinii użytkowników o aplikacji czy serwisie jak i do badania przebiegu leczenia choroby czy przebiegu pracy specyficznych zawodów jak np. często podróżujący przedstawiciel handlowy. Po upływie określonego czasu dzienniki zostają dostarczone do badaczy, którzy analizują zawarte w nich informacje.

Metoda to znalazła głównie zastosowanie przy badaniu produktów/usług których użytkowanie jest rozłożone w czasie, nieregularne lub gdy wydarzenia związane z testowaniem produktu są trudne do zapamiętania. W takich przypadkach niezbędne okazuje się przeprowadzenie badania trwającego długo i wymagającego częstych obserwacji. W wielu sytuacjach badanie to prowadzone przez wyspecjalizowanych badaczy byłoby bardzo drogie, krępujące dla badanych i w gruncie rzeczy niepotrzebnie angażujące badaczy. Okazuje się bowiem, że odpowiednie przeszkolenie badanych oraz podanie im niezbędnych instrukcji wystarcza do tego aby prowadzili oni sami dzienniki, która po zakończeniu badania zostaną dostarczone badaczom i przez nich zanalizowane.

Z powodu samej natury diary studies grupa badanych powinna zostać bardzo starannie zrekrutowana i przeszkolona w prowadzeniu dzienników. Istotne jest to ponieważ po rozpoczęciu badania nie ma już możliwości sprawdzania czy badany dobrze zrozumiał cel badania i czy sumiennie wykonuje on zapisy. Zalecany jest kontakt między badanym a badaczem w celu rozwiania powstałych wątpliwości jednak nie ma możliwości ciągłego monitorowania przebiegu badania.

Diary studies może być wykorzystane w każdej fazie badań nad produktem, pamiętać należy jednak, że aby uzyskać dobre wyniki podczas testowania prototypu produktu musi on zostać wykonany z wysoką dokładnością (ang. high fidelity prototype). Dzienniki mogą przybierać różną formę i zawierać różną treść. Zwykle prosi się badanych o wyrażenie sowich opinii o produkcie oraz doświadczeń związanych z jego użytkowaniem. Dzienniki mogą być prowadzone w otwartej formie pozwalającej badanym na swobodne zapisywanie informacji oraz w formie zamkniętej w której informacje wpisywane są w gotowe, przygotowane przez osoby odpowiedzialne za badanie, arkusze. Pierwsza metoda pozwala na uzyskanie większej ilości informacji od badanych, jest jednak trudniejsza w analizie. Druga metoda wymaga większego wysiłku w stworzenie arkuszy przez badaczy, pozwala natomiast na łatwiejszą analizę danych, które zwykle są bardziej skąpe niż w przypadku formy otwartej. Dzienniki mogą być prowadzone zarówno w formie pisemnej jaki i w formie zapisów audio i wideo oraz poprzez wypełnianie arkuszy online.

Dzienniki które dostarczane są badanym warto zaopatrzyć w szczegółowe instrukcje nt. przeprowadzania badania, prowadzenia dziennika, częstotliwości wpisów oraz ich zakresu. Powinien zostać dołączony także poprawnie wypełniony przykładowy arkusz aby zminimalizować ryzyko popełniania istotnych błędów w trakcie prowadzenia badania. Po badaniu warto także zorganizować spotkanie z badanymi na którym badacze będą mieli możliwość porozmawiania z osobami prowadzącymi dzienniki o zawartych tam informacji, pogłębienia wiedzy na ich temat.

  • Oszczędność czasu badacza
  • Możliwość prowadzenia badań bez zważania na geograficzne lokalizacje (badanie zdalne)
  • Informacje o wykorzystaniu produktu przez użytkownika
  • W tradycyjne pisanej formie nie są potrzebne kosztowne materiały

Dzień z życia

Dzień z życia (ang. a day in the life) to technika stosowana w badaniach etnograficznych w celu zebrania informacji odnośnie codziennych czynności wykonywanych przez osoby badane i dzięki temu wypracowaniu schematu rytmu ich dnia.

Technika ta pozwala to na lepsze rozpoznanie i zrozumienie potrzeb badanych oraz ich sposobu postrzegania rzeczywistości i działania w niej, a w konsekwencji znalezienie jak najbardziej optymalnych z ich perspektywy rozwiązań.

Badanie przeprowadza się z udziałem grupy osób wybranych na podstawie ich charakterystyki odpowiadającej celom projektu. Każdy badany otrzymuje polecenie dokumentowania przebiegu swego typowego dnia – od momentu przebudzenia aż po chwilę pójścia spać. Dokumentacja przebiega w dwojaki sposób – po pierwsze, jest to nagrywanie w odstępach 30-90 min. własnych wypowiedzi dotyczących wykonywanych aktualnie czynności, jak również emocji im towarzyszących oraz samopoczucia, po drugie badany zobowiązany jest do wykonywania zdjęć i/lub nagrywania filmu video ukazujących poszczególne zdarzenia z jego udziałem. Po zakończonym badaniu wszystkie zaangażowane osoby spotykają się na grupowej sesji, podczas której omawiają kolejno zebrane przez siebie dane, przy czym moderujący spotkanie badacz rejestruje najważniejsze spostrzeżenia, które staną się użyteczne w późniejszej analizie dostarczonych mu materiałów. Analiza ta obejmuje wybór najbardziej charakterystycznych czynności badanych osób i ułożenie ich w sekwencji odpowiadającej rzeczywistości na osi czasu obejmującej jedną dobę. Tak przygotowany schemat służy jako podstawa do wyznaczenia punktów styczności między produktem/usługą a użytkownikiem w ciągu dnia, jak również pomaga w opracowaniu persony, tj. profilu przyszłego odbiorcy.

Dzień z życia jest techniką komplementarną względem innych technik stosowanych w badaniach etnograficznych, takich jak rapid ethnography oraz model mentalny użytkownika. Pomocnym uzupełnieniem są też badania prowadzone z wykorzystaniem techniki service blueprints oraz customer journey map.

  • Możliwość śledzenia codziennych czynności badanych osób bez konieczności przebywania badacza w ich pobliżu
  • Zaangażowanie badanych w proces projektowy w sposób czynny poprzez przypisanie im roli badacza własnego doświadczenia
  • Oparcie profilu użytkownika na rzeczywistych danych pochodzących z „terenu”, a nie spekulacjach opartych na powielanych przez środki masowego przekazu stereotypach

Eye-tracker mobilny

Eye-tracking mobilny (ang. mobile eye tracking) to nieinwazyjna technika stosowana w badaniach użyteczności, mająca na celu uzyskanie informacji odnośnie ruchu oka w naturalnym dla osób badanych otoczeniu.

Badanie prowadzone jest z wykorzystaniem niewielkiego urządzenia zamontowanego na głowie, zwanego eye-trackerem mobilnym (w literaturze fachowej inna nazwa to okulograf).

Dzięki zapewnieniu osobie badanej pełnej swobody ruchów w naturalnym dla niej środowisku, badanie z wykorzystaniem eye trackera mobilnego pozwala badaczowi na zebranie danych odnośnie tego, co przyciągnęło uwagę klientów w sklepie lub czy zauważyli specjalnie wyeksponowane elementy wystroju wnętrza. Może zostać również wykorzystane w celu optymalizacji rozmieszczenia elementów o charakterze informacyjno-marketingowym.

Ruchy gałek ocznych osoby badanej rejestrowane są przez urządzenie, a następnie, dzięki zastosowaniu radiowej komunikacji urządzenia ze stacją roboczą, przesyłane tej ostatniej, gdzie poddawane są obróbce cyfrowej, po której następuje analiza i interpretacja zebranego materiału filmowego.

Warto pamiętać, iż pomiar ruchów gałek ocznych jest techniką stosowaną od prawie stu lat w takich obszarach, jak psychologia, medycyna, badanie interakcji człowiek-komputer czy marketing. Podczas gdy istota badania pozostaje niezmienna – jest nią zapis ruchów gałek ocznych w postaci sakad i fiksacji – zmieniają się narzędzia pomiaru. Eye-tracker mobilny jest jednym z najnowocześniejszych i zarazem najbardziej wygodnych z nich, dostarczając w prosty sposób dużej ilości unikalnych informacji zebranych w naturalnym kontekście działania osób badanych.

  • Możliwość bezinwazyjnej obserwacji ruchu gałek ocznych osób badanych w naturalnym dla tych ostatnich środowisku
  • Relatywnie krótki czas przeprowadzenia badania

Indywidualny wywiad pogłębiony

Indywidualny wywiad pogłębiony (ang. individual in-depth interview) to metoda badań jakościowych polegająca na prowadzeniu indywidualnych rozmów z niewielką liczbą respondentów wybranych ze względu na ich powiązanie z tematem badań.

Ze względu na stopień strukturyzacji oraz czas trwania wyróżnia się wywiad częściowo ustrukturyzowany/zogniskowany (ang. semi-structured interview), wywiad nieustrukturyzowany (ang. unstructured interview), wywiad długi (ang. long interview) i wywiad krótki (ang. mini depth).

Celem wywiadu jest poznanie uczuć, poglądów, opinii i oczekiwań jednostek z uzyskaniem możliwie największej ilości szczegółów. Jest to najczęściej wstępny etap większego projektu badawczego, w trakcie którego zbierane są podstawowe informacje na temat grupy będącej przedmiotem zainteresowania badaczy odnośnie danego problemu.

Przed przystąpieniem do wywiadu należy dobrać grupę respondentów tak, by ich profile najlepiej odpowiadały specyfice prowadzonego projektu. Również scenariusz wywiadu w postaci pytań pomocniczych dla prowadzącego wywiad powinien zawierać punkty najbardziej istotne dla badanego problemu, których w żadnym wypadku nie można pominąć (ang. initial questions). Trwającą od jednej do dwóch godzin rozmowę przeprowadza się indywidualnie z każdym z respondentów, w miejscu dogodnym dla informatora, bez udziału osób trzecich. Odpowiednio przeszkolony prowadzący zadaje respondentowi pytania, pozwalając mu na swobodną i obszerną wypowiedź, w razie potrzeby dopytując bądź modyfikując przebieg odpowiedzi poprzez zadawanie pytań naprowadzających (ale nigdy sugerujących). Po zrealizowaniu punktów scenariusza możliwe jest zadanie przez prowadzącego kilku pytań dodatkowych, służących pogłębieniu zagadnień poruszonych w trakcie wywiadu przez respondenta i nie rozwiniętych, ale interesujących z punktu widzenia badanego problemu.

Ważne jest, aby przed rozpoczęciem wywiadu upewnić respondenta o zachowaniu pełnej jego anonimowości, gdyż cała rozmowa jest nagrywana, zaś prowadzący zobowiązany jest robić notatki podczas wypowiedzi informatora. Po skończonym wywiadzie materiały te są analizowane przez grupę badaczy zaangażowanych w projekt, którzy wyciągają z nich najważniejsze wnioski, a następnie poddają je dyskusji mającej na celu sporządzenie końcowego raportu. Dokument ten służy jako baza danych na temat opinii i postaw respondentów względem danego problemu, a także punkt wyjścia dla sporządzenia narzędzi potrzebnych do przeprowadzenia kolejnych etapów badań (zogniskowany wywiad grupowy, ankieta, wywiad kwestionariuszowy).

  • Bardziej szczegółowy niż wywiad grupowy bądź ankieta ze względu na większą swobodę wypowiedzi i możliwość zadawania przez prowadzącego dodatkowych pytań
  • Wywiady prowadzone przez dłuższy okres czasu z tymi samymi osobami pozwalają na śledzenie zmian w zachowaniu i postawach respondentów
  • Łatwiejszy do prowadzenia niż wywiad grupowy wymagający od prowadzącego umiejętności kontrolowania grupy
  • Zapewnia wgląd w obowiązujące w danej grupie normy i przekonania (zwłaszcza w przypadku wywiadów z liderami)
  • Jego wyniki są podstawą dla zbudowania innych narzędzi badawczych
  • Umożliwia poznanie indywidualnych opinii i postaw, na które w momencie wywiadu nie wpływa kontekst grupowy
  • Raport zawierający wnioski badaczy wsparte przykładami wypowiedzi osób badanych oraz uzupełniony o wskazówki odnośnie dalszych badań

Zapraszamy do kontaktu

Skontaktuj się z nami

Opowiemy w jaki sposób używamy opisanych tu metod i które z nich będą najopdowiedniejsze i najzyskowniejsze dla Twojego projektu.

Inwentaryzacja treści

Inwentarz treści jest dokładnym, ilościowym spisem istotnych elementów serwisu internetowego.

Zastosowanie tej techniki pozwala na zidentyfikowanie występujących w serwisie błędów oraz ich naprawę i tym samym przebudowę serwisu, ułatwiając jednocześnie zarządzanie nim.

Badanie polega na sporządzeniu inwentarza zawartości serwisu, biorąc pod uwagę każdy wiersz lub sekcję, które znajdują się na jego stronach. Jest to technika, której wykonanie obrazuje zawartość serwisu oraz ją porządkuje według ustalonych kryteriów. Poziom szczegółowości inwentarza (tj. ile kategorii ma on zawierać), zależy od wielkości serwisu i potrzeb klienta. Typowy inwentarz zwykle zawiera następujące kategorie:

  • Link (adresy URL strony),
  • Formaty (np. .html, .doc),
  • Tytuł strony,
  • Słowa kluczowe,
  • Właściciel treści (osoba odpowiedzialna za utrzymanie treści strony),
  • Data ostatniej aktualizacji,
  • Komentarz końcowy.

Pozostałe informacje mogą obejmować: ogólny temat strony serwisu lub jej obszar, krótki opis dotyczący celu stworzenia danej strony, spis stron linkujących, pozycji w rankingu wyszukiwarek (np. Google), ograniczenia dostępu (dla określonych użytkowników, np. nowych członków), itp.

W efekcie otrzymuje się surowe dane w formie tabeli. Kolejnym krokiem jest analiza uzyskanych informacji, w której uwzględnia się m.in.:

  • Układ, czyli zgromadzenie elementów o podobnej tematyce, treści w jednym miejscu (np. autorów),
  • Rozróżnianie, podobne elementy powinny znajdować się na jednym obszarze i mieć własną etykietę, aby z łatwością móc odróżnić je od innych, podobnych elementów (np. w obszarze FAQ, najczęściej zadawanych pytań, warto wyróżnić ważne i mniej istotne tematy, tematy bieżące, stałe, itp.),
  • Kompletność, wszystkie miejsca, do których odsyłają zamieszczone na stronie linki, muszą istnieć (unikanie błędu 404, braku strony),
  • Zrozumiałość opisów poszczególnych etykiet (np. dokąd odsyłają użytkownika),
  • Spójność pod względem budowy, a także spójności treści (czy dane elementy do siebie pasują)
  • Dostępność, która dotyczy głównie efektywnej nawigacji,
  • Aktualność, sprawdzanie czy serwis posiada informacje zaktualizowane.
  • Uzyskanie pełnej mapy serwisu, wskazującą na występujące w nim błędy (np. powtórzenie stron),
  • Dostarczenie informacji potrzebnych do przebudowy architektury informacji (błędy w treści),
  • Ułatwienie zarządzania serwisem (np. wprowadzania zmian).

Zalety inwentaryzacji treści:

  • Uzyskanie pełnej mapy serwisu, wskazującą na występujące w nim błędy (np. powtórzenie stron),
  • Dostarczenie informacji potrzebnych do przebudowy architektury informacji (błędy w treści),
  • Ułatwienie zarządzania serwisem (np. wprowadzania zmian).

Mental model

Model mentalny (ang. mental model) to technika wizualizacji stosowana w badaniach jakościowych celem zobrazowania sposobu, w jaki jednostki (potencjalni użytkownicy) wchodzą w interakcję z otoczeniem – w tym z przedmiotami i usługami będącymi elementem ich codziennego doświadczenia.

Technika ta wykorzystywana jest najczęściej w procesie projektowania unikalnego doświadczenia użytkownika, gdyż pozwala na określenie punktów styczności między produktem/usługą a użytkownikiem w danym kontekście czasoprzestrzennym i tym samym lepsze rozpoznanie będących zmiennymi zależnymi potrzeb i oczekiwań odbiorcy. Po raz pierwszy technika ta zastosowana została w odniesieniu do projektowania systemów komputerowych zorientowanego na użytkownika, którego sposób działania (a więc i model mentalny) często radykalnie różni się od sposobu myślenia i działania projektanta (por. Donald Norman, 1988: „The Design of Everyday Things”).

Podstawą do sporządzenia modelu mentalnego są wyniki terenowych badań etnograficznych oraz materiały zebrane podczas badań panelowych/paneli badawczych, dotyczące aktywności użytkowników w różnych obszarach działania w zależności od miejsca przebywania, pory dnia oraz dotychczasowych doświadczeń jednostki. Pierwszym krok stanowi analiza danych oraz wybór tych informacji, które są istotne z punktu widzenia modelu – tzn. rodzajów, czasu i miejsca wykonywanych przez jednostkę czynności wraz z przypisaniem każdej z nich stopnia ważności oraz nasilenia zależnego od częstotliwości podejmowania określonych działań. Kolejny etap to przeniesienie wybranych elementów na oś czasu, na której następnie zaznaczona się punkty styczności między użytkownikiem a danym produktem bądź usługą. Wreszcie, dla każdej czynności wypisuje się wszystko to, zaoferować może jednostce produkt bądź usługa dla ułatwienia bądź podniesienia atrakcyjności i/lub efektywności jej wykonywania.

Model mentalny stanowi cenny materiał porównawczy dla użytkowników należących do różnych grup odbiorców, jak również pomaga w zidentyfikowaniu tych potrzeb jednostki, które nie są zaspokajane bądź są zaspokajane tylko częściowo. W rezultacie ułatwia to znalezienie takich rozwiązań w zakresie produktu lub usługi, które staną się niezastąpione z jednej strony dzięki zapewnieniu użytkownikowi unikalnego doświadczenie podczas korzystania z nich, z drugiej w związku z natychmiastowym odpowiadaniem na konkretne potrzeby w określonym miejscu i czasie.

  • Próba spojrzenia na rzeczywistość z perspektywy użytkownika pozwalająca na lepsze zrozumienie jego sposobu postrzegania świata oraz schematów działania
  • Ułatwienie znalezienia punktów styczności między użytkownikiem a produktem/usługą
  • Dzięki powyższym – możliwość rozpoznania umiejscowionych w danym czasie i przestrzeni potrzeb użytkownika i dzięki temu zaproponowania ja najbardziej odpowiadających mu rozwiązań w postaci konkretnego produktu bądź usługi

Metoda Czarnoksiężnika z Oz

Jest to metoda testowania jeszcze niewdrożonych technologii (ang. lo-fi prototype), która polega na symulowaniu interakcji danego systemu (aplikacji, interfejsu) z użytkownikiem przez ukrytego operatora (ang. Wizard of Oz).

Metoda Czarnoksiężnika z Oz używana jest we wstępnej fazie projektowania zaawansowanych interfejsów, systemów mowy oraz aplikacji bazujących na języku naturalnym. „Czarnoksiężnik” jest eksperymentatorem, który w ukryciu konstruuje reakcje na zachowania użytkownika testującego dany produkt. Osoba badana nie wie, że za odpowiedzią komputera stoi podstawiony operator. Taka organizacja badania pozwala na dokładne poznanie wymagań i oczekiwań użytkownika. W efekcie otrzymuje się informacje o naturze interakcji człowieka z komputerem, co umożliwia wykrycie jej ograniczeń oraz wad.

Badanie składa się z trzech etapów: opracowania symulacji i treningu osoby badanej (1 etap), przeprowadzenia badania (2 etap) oraz analizy zebranych informacji (3 etap).

W pierwszej fazie następuje przygotowanie symulacji testowanego systemu (aplikacji, interfejsu), czyli stworzenie modelu oraz opracowanie szczegółowych instrukcji jego używania. Przewiduje się na tym etapie możliwe reakcje osób, które będą korzystać z tego systemu (aplikacji, interfejsu). Jest to pomocne w tworzeniu planu symulacji realnej interakcji. Ważne jest też przetrenowanie osoby badanej, czyli omówienie i przećwiczenie zadań, które ma wykonać.

Kolejnym etapem jest dokonanie symulacji. „Czarnoksiężnik z Oz” obserwuje akcje użytkownika z pokoju kontrolnego, przestrzega wykonania przez niego czynności i symuluje reakcje systemu w czasie rzeczywistym. Reakcje są odpowiedzią na napływające dane o działaniach użytkownika. Eksperymentator reaguje szybko i precyzyjne, oparte na ruchach ręki lub komunikatach głosowych. Badanie kończy się, gdy wykonane zostaną wszystkie zaplanowane wcześniej zadania.

Analiza zebranych informacji jest ostatnim etapem, który polega na prześledzeniu nagrań z badania oraz uwag eksperymentatora. Zwraca się uwagę na sposób wykonania polecenia przez użytkownika, jego potrzeb (np. uzyskanie dodatkowej informacji) i wymagań. Interpretacja dokonywana jest przez grupę ekspertów, którzy konfrontują potrzeby użytkownika z możliwościami systemu (aplikacji, interfejsu) i udzielają stosownych rekomendacji (np. wprowadzenia zmian).

  • Uzyskanie wglądu w nawet najmniej widoczne zachowania użytkownika podczas testowania prototypu (informacje o naturze interakcji),
  • Wprowadzenie szybkich zmian w procesie testowym (gdy badacz zauważy taką możliwość) skraca czas całkowitego sprawdzania danego prototypu i obniża to koszty budowy funkcjonalnego modelu.

Netscouting

Netscouting to będąca odmianą desk research metoda badań jakościowych, polegająca na analizie stron internetowych w poszukiwaniu informacji na dany temat.

Najczęściej metoda ta stosowana jest w celu zgromadzenia jak największej liczby case studies, na podstawie których możliwe jest wyznaczenie obowiązujących na danym rynku trendów i nisz do zagospodarowania (tzw. Trendscouting/Trendspotting).

Pierwszym etapem Netscoutingu jest określenie obszaru zainteresowania badaczy. Najczęściej wytyczne co do tematyki badań zawarte są w briefie badawczym dostarczonym przez klienta bądź przynajmniej zdeterminowane przez branżę, w jakiej ten ostatni działa. Ważne, by wyznaczony obszar nie był jednocześnie ani zbyt ogólny, ani zbyt wąski – ideałem jest taki, w którym da się wyróżnić kolejne podzbiory wchodzące w jego zakres i zawierające się w sobie nawzajem (np. obszar główny: jedzenie, podzbiór obszaru głównego: słodycze, podzbiór podzbioru: czekolada). Narzędziami pomocniczymi stosowanymi na tym etapie są zwykle stakeholders inteview, burza mózgów (opcjonalnie ze wsparciem internetu – Googlestorming/Netstorming) czy też RIGG (Rapid Idea Generation Game). Gdy obszar badań jest już znany, badacze przystępują do poszukiwania w sieci odnoszących się do niego treści. Są to zarówno artykuły naukowe i prasowe, jak i blogi, sklepy internetowe, strony www producentów, grafiki itp. Ważne, by w początkowej fazie poszukiwań badacze nie konsultowali się między sobą, starając się znaleźć jak najwięcej informacji i case studies na dany temat. Po zebraniu odpowiedniej ilości materiałów następuje zakończenie pierwszego etapu poszukiwań, tzn. dyskusja badaczy polegająca na burzy mózgów połączonej z card sortingiem. Wszystkie znalezione informacje zostają spisane na karteczkach Post-it i pogrupowane tak, by na tej podstawie możliwe było wyznaczenie trendów obowiązujących w danym obszarze zainteresowania.Tym sposobem badacze mogą wyróżnić te trendy, w ramach których znaleźli najmniej przykładów/case studies i opisać je jako rynkowe nisze czekające na zagospodarowanie na poziomie ogólnego obszaru bądź jego podzbiorów.

Wyniki pracy badawczej przedstawiane są w formie prezentacji PowerPoint tworzonej według autorskiego szablonu, stworzonego specjalnie na potrzeby analizy trendów.

  • Dostęp do informacji z całego świata, często unikalnych i bardzo „egzotycznych”
  • Możliwość przypadkowego natrafienia na inspiracje, których się nie szukało, a które mogą być zaczątkiem nowej, przełomowej idei
  • Źródło innowacji zapowiadających nowe trendy (Trendforecasting i Trendsetting)
  • Możliwość odnalezienia na rynku nisz czekających na zagospodarowanie i obiecujących rynkowy sukces nowego produktu/usługi

Panel badawczy

Panel badawczy jest jakościową techniką zbierania danych, polegającą na interakcji badacz-badani i badani-badani podczas moderowanych zajęć warsztatowych.

Technika ta ma na celu określenie wzorców zachowania oraz preferencji osób z określonej populacji (badania poprzeczne).

Całościowe badanie składa się zwykle z kilku powiązanych ze sobą paneli, których temat przewodni oraz struktura jest taka sama, różnią się natomiast charakterystyką grupy. W jednym badaniu uczestniczy kilka osób podobnych pod względem np. miejsca zamieszkania, płci, wieku, wysokości dochodów, wykształcenia, stylu życia, itp. Dostają oni jedyni ogólne informacje o celu badania, bez szczegółowych opisów. Monitoruje się opinie i postawy uczestników dotyczące przedmiotu badań (prototypu, test konceptu, analiza projektu reklamy, test opakowań, etykiet, wizerunku marki, itp.)

Pierwszym etapem badań panelowych jest odpowiednie dobranie technik i metod oraz stworzenie precyzyjnego scenariusza badań tak, aby uzyskać jak najwięcej istotnych informacji związanych z wiodącym tematem. W każdej grupie, jeśli jest ich więcej niż jedna, przeprowadza się badanie według tego samego programu. Zadania, które mają wykonać uczestnicy skłaniają ich do dzielenia się swoimi doświadczeniami, wiedzą i twórczymi pomysłami.

Kolejnym krokiem jest przeprowadzenie badania przy udziale moderatora, którego zadaniem jest poinformowanie o przebiegu spotkania oraz koordynowanie działań grupy. Moderator może wprowadzać niewielkie zmiany, jednakże podstawowa struktura musi zostać zachowana.

Otrzymane wyniki analizuje się odpowiednio dla każdego panelu, a następnie porównuje się międzygrupowo. Na podstawie otrzymanych danych tworzy się charakterystyki poszczególnych grup użytkowników. Wyróżnia się także wspólne dla wszystkich cechy przedmiotu badań.

  • Sprecyzowanie struktury zachowania i potrzeb określonej grupy osób,
  • Odpowiednio sprecyzowany dobór osób pozwala na statystyczne generalizowanie wyników na całą populację,
  • Stosunkowo szybki czas przeprowadzania badań (2 panele w ciągu 1 dnia roboczego).

Paper prototyping

Prototypowanie na papierze (ang. paper prototyping) to test użyteczności, polegający na stworzeniu papierowej wersji produktu (np. interfejsu strony) oraz jej sprawdzeniu podczas interakcji z użytkownikiem.

Jest to metoda, dzięki której w łatwy sposób można przedstawić wizję produktu (m.in. oprogramowania, strony internetowej, telefonu, sprzętu AGD) w postaci graficznej (np. idiografik, diagramów), przetestować produkt oraz wprowadzić zmiany w jego projekcie jeszcze zanim zostanie on stworzony. Dotyczy to głównie sprawdzenia funkcjonalności, ogólnego pomysłu i terminologii, układu poszczególnych elementów. Nie testuje się w tej metodzie wykonania technicznego, kolorystyki ani pomiaru czasu reakcji realizacji zadania.

Metoda prototypowania na papierze składa się z kilku zasadniczych etapów: fazy konstruowania makiety i tworzenia planu badań z użytkownikiem, fazy badań użyteczności, fazy analizy wyników badań z użytkownikiem.

Tworzenie prototypu rozpoczyna się od określenia charakteru zmian, celów krótko- i długoterminowych oraz przygotowania scenariusza dla danego produktu. Wiedząc, jak ma wyglądać produkt oraz jakie ma spełniać funkcje, przystępuje się do tworzenia makiety. Można wyróżnić trzy główne sposoby jej wykonania: rysowanie, wycinanie i ich połączenie (forma mieszana). Wykorzystuje się przy tym dobrze znane wszystkim narzędzia: kartka i ołówek, tablica i markery, formatki stron, karteczki post-it. Prosta forma prototypów papierowych przedstawia nowy obraz produktu z wyszczególnieniem najważniejszych jego elementów, np. menu, okna dialogowe. Umożliwia to szybkie wprowadzanie modyfikacji na rysunku: usuwanie błędów, poprawianie niedociągnięć, dołączanie nowych elementów, itp. Taki roboczy szkic posłuży jako model projektu, po uprzednim przetestowaniu poprawności jego budowy.

Po przygotowaniu wstępnej makiety następuje etap badań z udziałem użytkownika. Testuje się tu wcześniej przygotowany prototyp produktu. Badanie polega na wykonywaniu przez użytkownika określonych zadań, zgodnie ze scenariuszem przedstawiającym korzystanie z danego produktu. Badany np. przechodzi między ekranami klikając w odpowiednich miejscach zaznaczonych na makiecie. Moderator uważnie słucha wszelkich komentarzy i obserwuje zachowanie użytkownika, aby w razie potrzeby, móc szybko wprowadzić zmiany w papierowym prototypie. Badanie kończy się po zrobieniu wszystkich zaplanowanych zadań.

Końcowym etapem jest zebranie wszelkich informacji od badanych o ich wrażeniach, trudnościach i upodobaniach związanych z użytkowaniem „produktu”. Analiza tych danych pozwala na przedstawienie ostatecznego prototypu produkt wraz z wprowadzonymi modyfikacjami pierwotnej makiety oraz zaleceniami dla projektantów.

  • Umożliwia oszczędność czasu i pieniędzy, gdyż testowanie produktu następuje przed rozpoczęciem tworzenia go, nie jest też wymagany wcześniejszy trening z użytkownikiem;
  • Wielokrotne testowanie użyteczności na etapie prototypu zmniejsza ryzyko pojawienia się błędu, który nie pozwala projektantom i twórcom pewnie rozwijać dany projekt;
  • Prostota stosowania – podstawowe narzędzia to papier i ołówek.

Parallel design

Parallel design jest metodą projektowania polegającą na tworzeniu wstępnego szkicu produktu przez kilka zespołów projektantów.

Zespoły te pracują niezależnie od siebie w tym samym czasie – początkowej fazie projektowanie produktu lub jego przeprojektowaniu. Parallel design pozwala na szybkie stworzenie wielu koncepcji designu, które później są wspólnie oceniane przez projektantów, wybierane są ich najlepsze cechy na których zostaje oparty dalszy projekt produktu.

Celem parallel design jest wybranie najlepszych pomysłów ze stworzonych projektów, a nie ocenianie ich pod względem błędów w nich zawartych. Przeprowadzone badania (Nielsen 1993) pokazują, że dzięki zastosowaniu parallel design można uzyskać bardzo dobre efekty gotowych produktów. Pozwolenie grupie ludzi najpierw zaprojektować wstępnie produkt indywidualnie i niezależnie, a następnie podzielić się stworzoną pracą z innymi projektantami i wraz z nimi dokończyć projekt daje znacznie lepszy produkt finalny niż podczas tradycyjnego projektowania. W przypadku projektowania stron internetowych parallel design pozwala nie tylko na uzyskanie bardzo dobrego wyglądu strony lecz również zoptymalizowania jego kodu. Różni projektanci używają bowiem różnych metod do osiągnięcia podobnych celów dlatego dzięki parallel design istnieje możliwość wybrania optymalnej implementacji z punktu widzenia danego projektu.

Aby właściwie przeprowadzić parallel design niezbędne jest przestrzeganie pewnych zasad. Przede wszystkim zespoły projektantów muszą posiadać podobne umiejętności oraz muszą dostać takie same informacje na temat projektowanego produktu. Pozwoli to uniknąć sytuacji w której po wstępnej fazie projektowania zostaną zaprezentowane przez zespoły projekty o znacznie różniącej się jakości. Istotne jest także aby zespoły dostały jasno określony czas przeznaczony na projekt – zwykle 10-20 godzin, choć może się on zmieniać w zależności od projektu. Zespoły projektantów powinny wykonywać szkice projektów, lub prototypy o niskiej dokładności (ang. low-fidelity prototyping). Skróci to czas tworzenia projektów, pozwoli oprzeć parallel design na pomysłach a nie jakości ich implementacji oraz uchroni przed marnowaniem przez projektantów czasu na pracy z pomysłami które nie zostaną wykorzystane. Metoda parallel design może być porównana do burzy mózgów (ang. brainstorming session) która także ma za zadanie wyłonienie wstępnych pomysłów, które nieskrępowanie i bez przygotowania są prezentowane przez uczestników spotkania.

Problemem który nasuwa się przy planowaniu parallel design jest ilość oraz wielkość zespołów projektantów. Można spotkać się z wieloma koncepcjami, według jednych są to 2-4 zespołów, inne źródła zalecają natomiast 5-10. W rzeczywistości istotne jest nasycenie przestrzeni projektowej (ang. saturate the design space) czyli stworzenie tak dużej liczby pomysłów jak tylko jest to możliwe. Zbyt duża liczba zespołów oraz zbyt długi czas projektowania będzie skutkował dublowaniem się pomysłów, natomiast przy za małej liczbie zespołów i/lub krótkim czasie realizacji projektu możliwe jest pominięcie istotnych koncepcji designu produktu.

  • Wysoka efektywność pracy
  • Skrócenie czasu wprowadzenia produktu na rynek
  • Szybkie wygenerowanie dużej ilości pomysłów
  • Brak potrzeby wykorzystania specjalistycznego sprzętu i drogich materiałów

Participatory design

Participatory design (PD) jest to podejście do projektowania które zakłada czynne zaangażowanie w procesie tworzenia produktu lub usługi udziałowców projektu oraz użytkowników.

PD ma formę kreatywnych warsztatów w których praca badaczy i projektantów połączona jest z pracą ludzi nie związanych z projektowaniem lecz używaniem produktu.

PD ma bardzo szerokie zastosowanie, głównie wykorzystywane jest w projektowaniu oprogramowania, grafiki, produktów, także architektury i zagospodarowania przestrzennego miast oraz wielu innych. Najlepszym momentem na zastosowanie PD jest sam początek procesu projektowanego lecz można także wykorzystać je w czasie wdrażania produktu w celu naprawiania zaistniałych problemów. Bardzo często PD wykorzystywane jest przez władze miasta przy projektowaniu lub przeprojektowaniu budynków lub terenów, przez co PD jest swego rodzaju wprowadzeniem demokracji w proces projektowania. Participatory design swoje korzenie ma w Skandynawii gdzie już w latach 70 XX wieku wykorzystywano tę metodę do przeprojektowania miejsc pracy. Współpraca odbywała się wtedy między pracownikami a menadżerami.

PD nie można utożsamiać z projektowaniem zorientowanym na użytkownika (ang. User Centered Design – UCD) ponieważ UCD nie wprowadza użytkownika bezpośrednio do procesu projektowania. W UCD badacze konsultują z użytkownikiem projekt stosując różne metody, nie jest on jednak mocą decyzyjną jak to ma miejsce w participatory design. Dobrym przykładem PD jest Wikipedia, której treść tworzona jest właśnie przez użytkowników. Samo jednak techniczne funkcjonowanie Wikipedii jest natomiast oparte na zasadach UCD, gdzie specjaliści pracują z myślą o korzyści użytkownika, który jednak nie ma czynnego wpływu na ich decyzje.

Warsztaty prowadzone w ramach PD powinny liczyć ok 8 osób w tym co najmniej 2 użytkowników, także reprezentanta biznesu, developerów i moderatora. Ponieważ warsztaty mają bardzo kreatywną formę niezbędne jest zadbanie o właściwą salę która nie tylko zapewni uczestnikom poczucie komfortu ale także będzie wyposażona w tablicę na której będą wypisywane pomysły. Dzięki swojej formie PD pozwala nie tylko na wprowadzenie pomysłów użytkowników, ale także na poznanie ich oraz zrozumienie ich myślenia przez badaczy i projektantów. Umożliwi to efektywniejszą ich pracę.

  • Użytkownicy są w stanie dobrze ocenić wstępny projekt
  • Użytkownicy dostarczają wiedzę na temat kontekstu użycia produktu
  • Praca w ramach PD jest bardzo efektywna

Personalizacja i storytelling

Personalizacja i związane z nią opowiadanie historii (ang. personalization and storytelling) to narzędzia stosowane w badaniach jakościowych w celu wykorzystania wyobraźni badanych osób do pozyskania informacji na temat skojarzeń i emocji jakie wywołują w nich dane przedmioty, usługi, pomysły itp.

Badania mają charakter sesji moderowanych z udziałem badacza.

Zebrane podczas sesji materiały obejmują personalizacje określonych produktów, usług bądź idei wraz z historiami z ich udziałem. Ich analiza pokazuje z jednej strony skojarzenia badanych z produktem, usługą bądź ideą, jak również stosunek emocjonalny do nich wraz z zaznaczeniem roli, jaką pełnią one w codziennym doświadczeniu danej osoby. Na tej podstawie możliwe jest określenie, które atrybuty przedmiotu, usługi lub idei mają dla badanych największe znaczenie, jakie są najważniejsze konteksty ich użycia/występowania, jakie generują problemy, a jakie dają korzyści itp. co ważne, informacje zebrane tą metodą wygenerowane są w sposób spontaniczny przez samych badanych bez narzucania im z góry określonych kategorii przez badacza prowadzącego sesję.

Faza przygotowań do badania obejmuje organizację miejsca – najlepiej pomieszczenia fokusowego z możliwością obserwacji i nagrywania sesji przez osoby nie biorące w niej udziału, np. innych badaczy i projektantów – oraz grupy badawczej, pozyskiwanej najczęściej za pośrednictwem firmy rekrutacyjnej. Należy zaopatrzyć się również w arkusze papieru, przybory do pisania, kolorowe zdjęcia itp., które z jednej strony mogą stać się inspiracją dla uczestników sesji, z drugiej zaś umożliwiają im przekazanie własnych koncepcji grupie. Samo badanie polega na wyobrażaniu sobie przez badanych przedmiotów, usług lub idei jako antropomorficznych istot żywych (personalizacja), a następnie opowiedzeniu historii z ich udziałem. Rolą badacza jest tutaj stymulacja uczestników badania poprzez zadawanie następujących przykładowych pytań pomocniczych:

  • Jak ma na imię ten przedmiot/usługa/idea? Jak wygląda jego/jej twarz?
  • Jakie ma cechy charakteru?
  • Z kim się spotyka, gdzie pracuje, jak spędza czas wolny?
  • Jak wchodzi w interakcje z podobnymi sobie, a jak wyglądają jego/jej relacje z ludźmi?

Ponadto, badacz kontroluje przebieg sesji poprzez nadzorowanie pracy uczestników oraz moderowanie dyskusji między nimi na temat zaproponowanych przez każdego koncepcji, w razie potrzeby zadając pytania naprowadzające bądź doprecyzowujące.

  • Duża ilość spontanicznie, oddolnie wygenerowanych informacji na temat skojarzeń z danym produktem/usługą/ideą oraz ich związku z codziennym doświadczeniem badanych
  • Niewielki wpływ badacza na pojawiające się treści, których bogactwo zależy wyłącznie od potencjału kreatywnego badanych
  • Dostęp do treści, które trudno pozyskać innymi metodami (np. w trakcie wywiadu pogłębionego) ze względu na ich często nieuświadomiony charakter oraz wynikającą stąd trudność w werbalizacji ad hoc
  • Możliwość określenia potrzeb, motywacji i stosunku emocjonalnego badanych do danego produktu/usługi/idei z wyszczególnieniem najważniejszych z punktu widzenia użytkowników cech tychże

Persony

Persona jest to efekt „uczłowieczania” typowych cech użytkowników danego produktu/usługi.

Jest ona profilem fikcyjnej osoby która reprezentuje cechy określonej grupy konsumentów. Powstaje w wyniku segmentacji rynku dzięki czemu jest odzwierciedleniem potrzeb, preferencji i celów danych segmentów. Persona zwykle zawiera szczegółowe informacja na temat prezentowanej osoby takie jak hobby, plan dnia, sposób spędzania wolnego czasu wzbogacone o zdjęcie i cytat charakteryzujący osobę. Wszystko to ma za zadanie przybliżyć grupie projektantów docelowych odbiorców ich produktu/usługi.

Tworzenie person jest przydatnym narzędziem zwłaszcza w procesie projektowania lub przeprojektowania produktu. Mogą być to zarówno strony internetowe, aplikacje, jak i wszelkiego rodzaju przedmioty – meble, samochody, sprzęt AGD itd. Wykorzystanie person jest szczególnie przydatne tam, gdzie projektanci nie mają bezpośredniego kontaktu z klientami, nie znają ich potrzeb, nie wiedzą w jakim celu użytkownicy będą wykorzystywać produkt/usługę.

Persony szczególnie przydają się w trakcie rozwiązywania problemów i dylematów związanych z tworzeniem produktu. Projektanci zamiast myśleć o tym jak na dany produkt zareagują użytkownicy mogą pomyśleć o reakcji Kasi, Tomka, czy innej stworzonej persony. Pozwoli to na usprawnienie procesu projektowania i zorientowanie go na potrzeby klientów. Aby praca z personami przebiegała sprawnie, projektanci muszę mieć bogatą informację o personach – stąd wzbogacanie głównych cech konsumentów o historie o ich zachowaniach, cytaty, zdjęcia.

Pierwszym krokiem w tworzeniu person jest pozyskanie danych o konsumentach. Może to się odbyć poprzez wykorzystanie narzędzi ilościowych jak np. aplikacje do pozyskiwania statystyk strony (tj. Google Analitics) lub jakościowe jak wywiady pogłębione przeprowadzane na właściwe zrekrutowanej grupie(ang. In-depth interviews). Pozyskane dane muszą pozwolić na wykrycie wśród konsumentów trendów w ich zachowaniach. W przypadku wywiadów pogłębionych zwykle po przeprowadzeniu 10 można już wyróżnić panujące trendy. Przeprowadzeni właściwej segmentacji powinno pozwolić na stworzenie od 3-7 person, wśród których powinna zostać wyróżniona zarówno persona główna jaki i pomocnicze. Persona główna powinna reprezentować typowego użytkownika produktu/usługi natomiast persony pomocnicze klientów mniej istotnych.

Bardzo ważnym przy tworzeniu person jest pamiętanie, że nie jest to uśredniony użytkownik, który nie istnieje. Persony muszą być odzwierciedleniem indywidualnych potrzeb klientów, a różnice między stworzonymi personami są ważne dla projektantów, ponieważ pomagają zrozumieć zależności istniejące między grupami klientów.

Należy pamiętać, że persony to indywidualne narzędzie, które może bardzo różnić się w przypadku różnych projektów. Prócz wspomnianej już ilości (pomiędzy 3 a 7) persony mogą różnić się zakresem charakterystyki osoby. Niekiedy zalecane jest także zrezygnowanie z nadawania personom imienia i zdjęcia. Dotyczy to projektów w których grupie projektantów ciężko jest przyzwyczaić się do pracy z personom i występują opory przed uczłowieczonym traktowaniem person. Wtedy zamiast nadania imienia warto posłużyć się np. tytułem zawodowym.

  • Przybliżenie potrzeb użytkownika projektantom
  • Projektanci mogą się skupić stworzeniu produktu dla określonej grupy person mając świadomość, że reprezentują oni potrzeby znacznie liczniejszej grupy klientów

Prototypowanie

Prototypowanie jest to wstępny proces tworzenia serwisu/aplikacji w wyniku którego powstaje prototyp, który pozwala na wizualizację koncepcji serwisu oraz przeprowadzenie na nim testów użyteczności.

Dzięki zamianie pomysłów na gotowe ich wizualizacje, prototyp umożliwia wyeliminowanie błędów projektowania na wczesnym jego etapie. Prototypy znajdują zastosowanie podczas projektowania iteracyjnego, w którym następuje doskonalenie opracowanych rozwiązań, na postawie opinii oraz testów użyteczności.

Prototyp powinien prócz zaprezentowania wstępnego wyglądu serwisu/aplikacji, prezentować jego architekturę informacji, układ stron, nawigację i funkcjonalności. Warto także zaopatrzyć prototyp w gotowe treści choć ich brak nie uniemożliwia jego powstania. W takim przypadku miejsce w treści projektanci zwykle umieszczają formułę „lorem ipsum”. Poprawnie stworzony prototyp jest podstawą do dalszej pracy programistów i grafików.

Prototypowanie można podzielić na prototypowanie o niskiej dokładności (ang. low-fidelity prototyping) i prototypowanie o wysokiej dokładności (ang. high-fidelity prototyping). Pierwsze z nich odbywa się zwykle jedynie poprzez wykorzystanie kartki i długopisu – prototypowanie papierowe (ang. paper protoryping). W jego wyniku zostają rozrysowane wstępne szkice serwisu/aplikacji. Dzięki prostocie wykonania i braku potrzeby wykorzystania specjalistycznych narzędzi możliwe jest bardzo szybkie wykonanie takiego prototypu, co jest niewątpliwe jego główną zaletą.

Prototypowanie o wysokiej dokładności pozwala natomiast dzięki wykorzystaniu odpowiednich programów komputerowych (np. Axure, Balsamiq, Visio) na stworzenie prototypu serwisu/aplikacji który bardziej przypomina swoim działaniem i wyglądem właściwy wygląd produktu. Zwykle pozbawiony jest on kolorów, aby skupiał uwagę jedynie na treści i jej rozmieszczeniu, niż wyborze odpowiedniej szaty graficznej. Takie aspekty jak ostateczne kształty elementów serwisu/aplikacji czy właśnie ich kolor dobierane są na końcu procesu tworzenia, przez grafika komputerowego. Wykonanie takiego prototypu jest procesem znacznie szybszym i tańszym niż wykonanie gotowej wersji serwisu/aplikacji. Prototyp zbudowany z wysoką dokładnością umożliwiający poruszanie się po nim pozwala na wykonanie testów użyteczności z użytkownikami, które mogą odkryć które miejsca w projekcie wymagają poprawek. Dzięki temu istnieje możliwość jeszcze, przed fazą tworzenia gotowego serwisu/aplikacji, dokonania niezbędnych korekt i poprawek. W efekcie pozwoli to na stworzenie znacznie bardziej niezawodnej wersji ostatecznej produktu.

Aby uniknąć sytuacji w której klient odrzuca koncepcję prototypu o wysokiej dokładności na który zostały poniesione znaczne nakłady pracy, można zastosować połączenie z prototypowaniem o niskiej dokładności. W początkowym etapie prac tworzony jest prototyp o niskiej dokładności, który po zaakceptowaniu przez klienta jest dopracowywany do postaci o wysokiej dokładności i w takiej postaci może zostać użyty do przeprowadzenia testów użyteczności.

Według niektórych źródeł bardziej skuteczne w kontaktach z klientem jest używanie słowa makieta zamiast prototyp. Prototyp bowiem kojarzy się często z gotowym produktem, pierwszym jego egzemplarzem który w pełni prezentuje jego wygląd, cechy, działanie. Wynika to z przyzwyczajenia do oglądanie prototypów np. samochodów. Słowo makieta prowadzi natomiast do skojarzenia z bardzo wczesnym projektem, od którego nie wymaga się idealnie dopracowanego wyglądu oraz pełnej funkcjonalności. Z tych powodów w niektórych przypadkach bardziej adekwatne wydaje się posługiwanie słowem makieta.

  • Szybka i tanie narzędzie pozwalające na wizualizację koncepcji serwisu/aplikacji
  • Możliwość szybkiego i taniego naniesienia poprawek ( wymaganych np. po przeprowadzeniu testów użyteczności)
  • Projektowanie zapoczątkowane prototypem i testami jego użyteczności prowadzi do powstania serwisu dającego wysoką satysfakcję użytkowników

Rapid ethnography

Rapid ethnography jest to badanie etnograficzne dążące do zrozumienia użytkowników i ich zachowań, ograniczone pewnym – zwykle krótkim – czasem.

Badanie to nastawione jest właśnie na czas realizacji zwykle kosztem dokładności i precyzji.

Rapid ethnography wywodzi się z klasycznych badań etnograficznych które pozwalają na poznanie kultur i ich zwyczajów. Wymagają od użytkownika długiego czasu badania (12-18 miesięcy) w których musi on wczuć się w badaną grupę, stać się jej integralną częścią. Wykorzystanie badań do celów komercyjnych nie pozwala jednak na tak długi czas badania. Do takich celów nie jest potrzebna także duża dokładność badania, dlatego można z niej zrezygnować zyskując na czasie badania.

Głównym celem rapid ethnography jest zdobycie wiedzy na temat potrzeb użytkowników, co w konsekwencji pozwoli na stworzenie produktu lub usługi, który te potrzeby zaspokoi. Rapid ethnography znalazło także zastosowanie w pracach dążących do przemiany, nowych, trudnych w użyciu produktów w dobrze rozumiane.

Badacze przeprowadzając rapid ethnography przebywają w miejscach, w których znajdują się potencjalni użytkownicy produktu, starając się odkryć zachowania które można użytkownikom usprawnić. W ten sposób odkrywane jest potencjalne zapotrzebowanie na produkt, który zostaje zaprojektowany w późniejszym etapie. Zaobserwowane zachowania badacze rejestrują za pomocą notatek. Szybko rozwijająca się w ostatnich latach technologia mobilna pozwala także na rejestrację materiału audio oraz robieniu zdjęć. Badacze korzystając bowiem z zaawansowania technicznego smartphonów mogą w niezauważony przez obserwowanych sposób, zrobić zdjęcia czy nagrać filmy, które później będą wykorzystane do dalszej analizy. Ważne jest aby obserwacja odbywała się w naturalnej dla użytkownika sytuacji i nie był on skrępowany pracą badaczy. Ponieważ często w rapid ethnography nie ma czasu na zapoznawanie się z użytkownikami, poinformowanie ich o celach badania, można obserwacje dokonać bez ich wiedzy, co jest w stanie zapewnić ich naturalność.

Aby nie tracić czasu badaczy na nic nie wnoszące obserwacje należy dobrze wyznaczyć ich zakres, czas i miejsce. Z tego powodu niezbędna jest wstępna wiedza o badaniu, którą mogą zapewnić tzw. insiderzy, ludzie będący członkami danej grupy, mający wiedzę na jej temat. To dzięki nim mogą zostać wyznaczone węższe ramy badania, przyspieszające jego trwanie.

Żeby badanie było bardziej efektywne warto aby obserwacje przeprowadzał więcej niż jeden obserwator. Pozwoli to na podział pracy, oraz lepsze zrozumienie obserwowanych zachowań. Badani powinni także spędzać maksymalnie dużo czasu w obserwowanym miejscu, tak aby w pełni wykorzystać czas przeznaczony na rapid ethnography.

  • Nieduże koszty
  • Nie potrzeba specjalistycznego sprzętu do przeprowadzenia badania – długopis oraz telefon wyposażony w aparat
  • Nie potrzeba dużej liczby badanych

Retrospektywne myślenie na głos

Retrospektywne myślenie na głos (ang. retrospective think aloud) to metoda badań jakościowych polegająca na zapisywaniu komentarzy badanych osób odnośnie wcześniej wykonywanych przez nie czynności.

Może być stosowana zarówno w badaniach społecznych, jak i w badaniach użyteczności stron internetowych oraz programów komputerowych.

W zależności od charakteru badań, miejscem ich przeprowadzenia może być naturalne otoczenie osób badanych (gdy problemem badawczym są zagadnienia z zakresu nauk społecznych, w tym badanie działania jednostek w ich otoczeniu w celu zaprojektowania odpowiednich dla nich produktów/usług) bądź specjalnie przygotowane pomieszczenie wyposażone w komputer i stacjonarny eye-tracker (gdy badanie dotyczy użyteczności stron www i programów komputerowych). W obu przypadkach prosi się uczestników badania o wykonanie określonych czynności, nagrywając każde działanie za pomocą kamery video. Filmy te są następnie pokazywane badanym, których zadaniem jest komentowanie następujących kwestii:

  • Co robili?
  • W jaki sposób wykonywali poszczególne czynności?
  • Dlaczego tak je wykonywali?
  • Co sprawiało im problem podczas działania?
  • Co wtedy myśleli i czuli, co zwróciło ich szczególną uwagę?

Podczas gdy w trakcie wykonywania przez uczestników badania zadanych czynności badacz występuje jedynie w charakterze obserwatora rejestrującego podejmowane działania, w momencie przystąpienia przez badanego do komentowania filmu staje się jednocześnie słuchaczem i moderatorem. Jego rolą jest zadawanie pytań naprowadzających wówczas, gdy badany ma problem z werbalizacją swoich myśli, jak również sporządzanie protokołu zawierającego zapis wypowiedzi osoby badanej. Ważne, by moderator zachowywał tutaj jak najwyższy stopień obiektywności, unikając komentowania stwierdzeń badanego oraz przedwczesnej ich interpretacji. Ponieważ nieumiejętnie poprowadzona sesja znacznie obniża jakość i tym samym wartość zebranych informacji, kluczowe są tutaj kompetencje badacza zarówno w odniesieniu do procesu obserwacji, jak i prowadzenia specyficznego dla tej formy badań wywiadu.

Po skończonym badaniu jego wyniki prezentowanie są w postaci raportu zawierającego protokoły z sesji badawczych (zapis wypowiedzi uczestników badania) oraz wnioski badacza. Dodatkowo możliwe jest zorganizowanie spotkania zainteresowanych stron (np. członków zespołu badawczego i przedstawicieli firmy zlecającej badanie), na którym przedstawione oraz przedyskutowane zostaną nagrania video z wykonywanych przez osoby badane czynności wraz z ich późniejszym komentarzem.

  • Retrospektywne myślenie na głos nie zakłóca działania badanych osób w przeciwieństwie do głośnego myślenia przeprowadzanego równoległego do wykonywania zadań
  • Umożliwia poznanie myśli oraz emocji towarzyszących podejmowanym przez badanych czynności, co z kolei pozwala na stworzenie modelu mentalnego użytkownika
  • Daje wgląd w nieformalną terminologię stosowaną przez „zwykłych” użytkowników dla nazywania działań i elementów otoczenia
  • Pozwala badanym na komentowanie własnych działań po ich wykonaniu, dając tym samym możliwość wypowiedzenia uwag nasuwających się dopiero podczas zdystansowanej obserwacji poszczególnych czynności
  • Umożliwia zebranie dużej ilości cennych danych jakościowych przy niskim nakładzie kosztów
  • Jakościowe w postaci komentarzy udzielanych odnośnie własnych działań przez osoby badane

Role playing

Jest to jedna z technik projekcyjnych, dzięki której możliwe jest odkrycie ukrytych postaw i pragnień użytkowników poprzez wcielenie się w nadaną rolę oraz zachowanie się (odegranie roli) według ustalonego scenariusza.

Odgrywanie ról pomaga w gromadzeniu insight’ów wszelkich zachowań (jednostki/grupy), rozwijaniu umiejętności komunikacyjnych oraz ułatwia podejmowanie decyzji grupowych.

W badaniach dla potrzeb designu, role playing dostarcza informacji o tym jakie są reakcje użytkowników na konkretny koncept lub produkt. Można więc „przewidzieć” zachowania oraz związane z nimi myśli i emocje tak, jakby dana sytuacja odbywała się w naturalnym środowisku.

W technice odgrywania ról osoby badane wcielają się w określoną przez moderatora rolę, symulując wszelkie cele, emocje, zachowania, itp. Odgrywana postać jest dodatkowo osadzona w pewnym kontekście/sytuacji. Może być to zadanie wykonywane przez jedną osobą lub kilka jednocześnie.

Istnieje wiele wariantów stosowania tej techniki:

  • Multiple Role play – odgrywanie tej samej roli w różnych podgrupach, a następnie analizowanie zadania w całej grupie;
  • Single Role Play – odgrywanie jednej sceny w całej grupie, wspólna dyskusja;
  • Role Rotation (Odwracanie ról) – „aktor” odgrywa daną rolę, a następnie rolę do niej przeciwną (np. dobry i zły charakter);
  • Spontaniczne Role Play – odgrywanie ról bez ściśle określonych cech postaci i dokładnie zaplanowanego scenariusza.

Zalety metody role playing:

  • Na podstawie symulacji określonej sytuacji otrzymuje się obraz tego, jak użytkownicy będą zachowywać się w danym środowisku lub w stosunku do danej marki;
  • Nauka i wytrenowanie pewnych zachowań ( w przypadku szkoleń)

Scenorys

Scenorys (ang. storyboards) to technika obrazkowa stanowiąca element badań jakościowych poświęconych interakcji między użytkownikiem a produktem/usługą.

Scenorys jest ilustracją działania pewnego produktu za pomocą rysunków, szkiców, komiksów.

Technika ta zaczerpnięta została przez badaczy społecznych i zespoły projektantów z branży filmowej, gdzie po raz pierwszy posłużyła pracownikom wytwórni Walta Disneya podczas obrazowania koncepcji scenariusza, zanim został on zaakceptowany przez reżysera i producenta.

Dzięki swojej skuteczności został zaadoptowany do biznesu m.in. do planowania kampanii marketingowych a także do branży produktów interaktywnych.

Technika ta może np. służyć wizualizacji interakcji użytkownika ze stroną internetową lub aplikacją. Storyboard pokazuje nie tylko, jak wygląda projektowany produkt, ale także jak działa, jakie może wzbudzać reakcje użytkowników oraz jak może on z danym programem współpracować. Poszczególne zastosowania storyboardów obejmują:

  • Zogniskowanie dyskusji wokół szczególnie istotnych kwestii,
  • Zapewnienie lepszego wyobrażenia odnośnie detali interakcji,
  • Zebranie insightów będących inspiracją dla projektantów w fazie prototypowania,
  • Umożliwienie zainteresowanym lepszego zrozumienia istoty procesu, jakim jest wchodzenie użytkownika w relację z produktem/usługą.

Dzięki prostocie wizualizacji storyboard nadaje się do prezentowanie wczesnych koncepcji produktu oraz zaprezentowania jego głównego celu działania. Scenorys znalazł zastosowanie w spotkaniach z klientami i sponsorami projektów którym znacznie łatwiej jest przyjąć komiksową formę prezentacji produktu niż jego opis w technicznym żargonie. Storyboard może także łatwo wprowadzić zespół designerów w ogólną koncepcję produktu prezentując jego działanie bez przejmowanie się o implementację. Dzięki storyboard możliwe także jest przekonanie grupy odbiorców do koncepcji produktu. Opis słowny czy rysy prototypu bowiem nie zawsze wystarczający do prawidłowego przedstawienia produktu. Dzięki storyboard zwizualizowana interakcja z użytkownikiem jest przekonująca, łatwa do prześledzenia i zrozumienia. Zwykle po prezentacji w formie scenorysu znacznie mniej jest pytań o niezrozumiałe zagadnienia.

Opisywane działanie stanowi podstawę do zaprojektowania unikalnego doświadczenia odbiorcy, co z kolei jest punktem wyjścia do uzyskania wyjątkowej pozycji na rynku podobnych produktów bądź usług.

Przy tworzeniu storyboardów niepotrzebne są wysokie umiejętności plastyczne czy znajomość programowania. Główną ideą jest pokazanie działania produktu w sposób łatwy i czytelny. Badanie przeprowadza się z udziałem grupy osób podczas sesji poświęconej zbieraniu informacji odnośnie stosunku badanych do produktu/usługi będących centralnym punktem projektu. Wśród narzędzi niezbędnych do pracy powinny się znaleźć arkusze bristolu oraz flamastry służące narysowaniu obrazków, jak również pusta ściana bądź tablica, na której można te ostatnie powiesić obok siebie. W toku wspólnej dyskusji wypracowane zostają mówione opisy poszczególnych etapów wchodzenia użytkownika w interakcję z produktem/usługą, które następnie przekładane są na język obrazu. Rysunki mogą być np. obrazkami clipart wzbogaconymi komentarzami w postaci dymków. Na rysunkach mogą również znajdować się zrzutki ekranów i prototypy o niskiej dokładności produktu (ang. low- fidelity prototype). Emocje jakie mogą wzbudzać działania produktu – np. pojawiające się komunikaty – mogą zostać zaprezentowane poprzez mimikę twarzy użytkownika. Istotnym jest aby nie wgłębiać się w szczegółowe działanie produktu a jedynie skupić się na ogółach. Należy też pamiętać aby historie przedstawiające interakcje użytkownika z produktem miały dobrze określone ramy czasowe tzn. nie powinny one obejmować zbyt długiego czasu przed i po samej interakcji, żeby nie wprowadzać zbyt dużej ilości informacji. Wystarczające jest kilka obrazków zwykle około 5, aby zobrazować jedną sytuację, które mogą zostać wzbogacone krótkimi opisami słownymi.

Rolą badacza jest moderowanie dyskusji przed, w trakcie oraz po narysowaniu scen z historyjki, a następnie dokonanie analizy zebranych materiałów z uwzględnieniem zwłaszcza wymagających naprawy momentów krytycznych oraz mogących służyć za przykład dobrych praktyk punktów wyjątkowo udanego dopasowania oferty produktu/usługi do potrzeb użytkownika.

  • Łatwa w zastosowaniu – nie wymaga specjalnych umiejętności i oprogramowania
  • Dobrze uzupełnia opis słowny
  • Prosty sposób wizualizacji koncepcji wraz z ukazaniem dynamicznego charakteru procesu interakcji między użytkownikiem a produktem/usługą
  • Lepszy wgląd w sposób postrzegania rzeczywistości (w tym wchodzących w jej skład produktów i usług) przez potencjalnych użytkowników
  • Możliwość zaprojektowania unikalnego doświadczenia użytkownika w oparciu o jego wyrażone w rysunkach potrzeby i pragnienia/oczekiwania

Service blueprints

„Blueprint” oznacza m.in. szczególny plan działania. Technika ta jest sposobem bardzo szczegółowego, graficznego przedstawienia określonego rodzaju i charakterystyki interakcji odbiorca – usługa/produkt.

Otrzymany graf ma wskazać możliwe obszary wdrożenia, ewaluacji lub utrzymania obecnego stanu.

Ciekawym zastosowaniem Blueprint jest wskazanie ciągłości danego procesu. Dzięki tej technice możliwe jest umieszczenie ważnych zagadnień, w obranych kategoriach, na osi czasu.

Blueprint stosowany jest głównie w architekturze, inżynierii, przy projektowaniu produktów i służy budowaniu komunikacji w zespole, standaryzacji i planowaniu pracy. W odniesieniu do projektowania usług narzędzie to jest pomocne w wizualizacji podjętych działań i aktualnych procesów.

Technika ta może być wykorzystana w czasie całego procesu projektowania, jednakże najbardziej pomocna jest w wstępnych jego fazach, przed specyfikacją i wdrożeniem produktu/usługi. Jest to jedynie prosty szkic, przypominający tabelę z wieloma kolumnami, zapewniający systematyczny opis działań i oddziaływań od najbardziej ogólnych kategorii do najbardziej sprecyzowanych i dokładnych zagadnień. W każdym momencie istnieje możliwość dopisywania treści. Dodatkowym atutem jest również przedstawianie różnych kwestii na jednym grafie, np. obok podstawowych danych można zaprezentować natężenia emocji i motywację.

  • Otrzymanie prostego i przejrzystego planu działań i interakcji; możliwość dostrzeżenia obszarów wymagających zmiany, poprawy, usunięcia z procesu, itp.;
  • Wskazanie ciągłości procesu – przemian i możliwych obszarów dalszej eksploracji;
  • Uporządkowanie aktualnych i zamierzonych działań; uzyskanie dokumentacji.

Shadowing

Metoda cienia (ang. shadowing) to technika badań jakościowych zaczerpnięta z badań etnograficznych, polegająca na bezinwazyjnym śledzeniu przez badacza osoby badanej podczas wykonywania przez nią codziennych czynności.

Jest to innowacyjny sposób zbierania informacji o zachowaniach i potrzebach wybranych osób (lub osobie), których oni sami sobie nie uświadamiają.

Głównym powodem zastosowania tej techniki w procesie badawczym jest chęć rozpoznania niezaspokojonych potrzeb i pragnień potencjalnych użytkowników poprzez partycypację w ich codziennym doświadczeniu. Shadowing wykorzystywany jest przede wszystkim w innowacyjnych projektach badawczych, mających na celu wsparcie rozwoju nowego produktu (NPD) na wszystkich szczeblach procesu: podczas identyfikacji nisz rynkowych i ustalaniu strategii działania, w trakcie kluczowej fazy procesu projektowania i rozwoju oraz w chwili wdrożenia nowego produktu na rynek i rozpoczęcia działań komunikacyjnych.

Ważnym aspektem badania jest ustalenie, jaka grupa odbiorców produktu/usługi jest w danym przypadku najistotniejsza, a tym samym czyje potrzeby powinny być brane pod uwagę w pierwszej kolejności – wytwórców, dystrybutorów, użytkowników czy wreszcie utylizatorów produktu. Ważne, by badanie przeprowadzane było zawsze przez stały zespół badawczy pracujący dla danej organizacji, jak również by odbywało się w określonym kontekście społecznym obejmującym codzienne doświadczenie potencjalnych użytkowników. Rejestracja danych odbywać się może z wykorzystaniem dyktafonu, kamery video, aparatu fotograficznego i/lub notatek pisemnych. W wielu wypadkach metoda cienia łączy się z techniką tzw. rapid ethnography, polegającą na zbieraniu insightów w postaci fotografii uzupełnionych o słowne opisy zarejestrowanych sytuacji. Jednocześnie shadowing stanowić może podstawę dla stworzenia modelu mentalnego użytkownika w chwili, gdy zebrane od różnych osób dane zostaną porównane, uwspólnione i zwizualizowane w postaci specjalnego wykresu.

  • Zebranie szczegółowych danych z obserwacji
  • Zwrócenie uwagi na zachowania, których badany sam nie jest świadomy
  • Bezpośredni dostęp do elementów codziennego doświadczenia osób badanych

Stacjonarne badania eyetrackingowe

Eye tracking (polska nazwa, rzadko stosowana – okulografia) jest to technika badania która umożliwia zarejestrowanie poruszania się wzroku badanej osoby po badanym produkcie.

Ponieważ eye tracking znalazł bardzo szerokie zastosowanie wykorzystywany jest do badania postrzegania stron internetowych, aplikacji, materiałów reklamowych w tym spotów reklamowych czy nawet dzięki zastosowaniu jego mobilnej wersji kokpitów samochodowych, samolotowych czy półek sklepowym z rozmieszczonym na nich towarem.

Z pomocą eye trackera możliwe jest uzyskanie istotnych informacji na temat rozmieszczeni treści na stronie internetowej/aplikacji. Eye tracker jest pomocny w wykryci elementów na które badani patrzyli najdłużej, które elementy pierwsze przyciągały ich uwagę, a których w ogóle nie zauważyli. Dzięki ciekawym metodom prezentacji wyników – mapa cieplna (ang. heatmap rys. 2), czy gaze plot (rys. 3), możliwe jest skuteczne interpretowanie pozyskanych danych.

Badania eye trackingowe mogą dać wiele istotnych wniosków na temat badanych produktów. Możliwe jest np. zaproponowanie kilku designów badanej strony/aplikacji i sprawdzenie w którym przypadku badani najlepiej sobie radzą. Można także sprawdzić czy to co ludzie mówią o produkcie jest potwierdzone w tym co robią. Należy pamiętać bowiem, że metody badań takie jak ankiety czy IDI mogą mieć specjalnie zafałszowane wyniki przez badanych podczas gdy wzrok nie może być tak łatwo przez nich manipulowany.

Eye tracking daje również odpowiedź na pytania czy badani widzieli kluczowe dla obiektu badania elementy (logo, przycisk „kup” itp.), gdzie spodziewali się znaleźć różne treści, które treści były czytane. Bardzo dobre wyniki można uzyskać łącząc badania eye trackingowe z testami użyteczności. Dzięki temu połączeniu pozyskiwane są wiadomości dlaczego ludzie mieli problemy z wykonaniem zadań, które nie zawsze są uzyskiwane podczas zwykłej rozmowy na temat wykonanego zadania. Badania eye trackingowe rzuciły także nowe światło na uniwersalne projektowanie stron internetowych. Z ich pomocą zostało wykryte zjawisko tzw. ślepoty bannerowej (ang. banner blindness) które pokazuje że reklamy w postaci bannerów są całkowicie pomijane przez wzrok badanych.

Ponieważ ludzki wzrok jest najbardziej złożonym i najważniejszym sposobem postrzegania świata przez człowieka eye tracker daje informacje, które nie są możliwe do uzyskania podczas żadnego innego badania. Zostało zbadane, że wzrok człowieka podąża za jego uwagą. To stwierdzenie jest głównym założeniem potwierdzającym istotność badań eye trackingowych. Istnieją jednak przykłady udowadniające, że zależność ta nie działa w drugą stronę tzn. uwaga badanego nie podąża za jego wzrokiem. Jednym z nich jest tzw. problem butelki z ketchupem (ang. The Ketchup Bottle Problem). Polega on na tym, że podczas obserwacji ludzie zauważają elementy – jest to widoczne w badaniach eye trackingowych – lecz zapytani o dany element nie zdają sobie sprawy z faktu, że był on wyświetlony. Ten fakt, utrudniający interpretowanie wyników badania czy to stron czy aplikacji, jest jednym z dowodów na to że eye tracker może być wykorzystywany do badań w celach naukowych.

Badanie jest całkowicie bezinwazyjne, a eye tracker swoim wyglądam nie różni się od zwykłego monitora. W badaniu nie ma potrzeby podłączania osoby badanej do żadnego sprzętu zewnętrznego.

  • Lista rekomendacji dotycząca zmian które należy przeprowadzić w serwisie/aplikacji z uwzględnieniem zmian o najwyższym priorytecie
  • Wiedza na temat przyciągających uwagę użytkownika elementów serwisu
  • Wiedza na temat elementów, które należy przeprojektować, by były bardziej zauważalne w serwisie/aplikacji
  • Wzrost wskaźników KPI serwisu
  • Badania eye trackingowe bardziej przemawiają do klientów niż opinie ekspertów

Stakeholders interview

Stakeholders interview jest odmianą wywiadu indywidualnego prowadzonego przez badacza z udziałowcami firmy z którą nawiązano współpracę.

Wywiad z interesariuszami (ang. stakeholders’ interview) to technika zbierania danych jakościowych w zakresie opinii przedstawicieli grup czerpiących korzyści bądź ponoszących straty w związku z wprowadzeniem na rynek określonego produktu/usługi. Technika ta stanowi odmianę pogłębionego wywiadu indywidualnego (ang. individual in-depth interview), a jej wyróżnikiem jest nakierowanie na konkretną grupę osób badanych. Podstawowym celem zastosowania tej metody jest pogodzenie interesów różnych grup oznaczające minimalizację liczby konfliktów i tym samym maksymalizację liczby rozwiązań satysfakcjonujących wszystkie strony.

Zwykle celem wywiadu jest uzyskanie konkretnych informacji jakie oczekiwania udziałowcy wiążą z prowadzonym projektem.

Wywiad jest stosunkowo prostym i intuicyjnym narzędziem uzyskiwania danych jakościowych, nie znaczy to jednak, że nie można popełnić błędów podczas jego przeprowadzania. Aby ich uniknąć przede wszystkim należy przygotować listę pytań jakie zostaną zadane udziałowcom. Oni sami z resztą powinni znać tematykę i cel wywiadu. Pozwoli to udziałowcy wstępnie się przygotować, przez co w trakcie spotkanie będzie się czuł komfortowo i będzie udzielał bardziej konkretnych informacji.

W procesie projektowania produktu/usługi wywiad z interesariuszami ma znaczenie przede wszystkim przed rozpoczęciem badań z udziałem użytkowników – tak, by uzyskane w trakcie wywiadu informacje posłużyły badaczowi do skonstruowania projektu badań nakierowanego na pozyskanie tych danych, na których interesariuszom najbardziej zależy. Co więcej, podczas wywiadu uzyskuje się również informacje na temat obaw i obiekcji interesariuszy związanych z decyzją o podjęciu nowego działania na rynku, dzięki czemu badacz może przygotować odpowiednie kontrargumenty na czas prezentacji wyników badania i udzielania rekomendacji. Ułatwia to badaczowi podążanie we właściwym kierunku, a także większa to prawdopodobieństwo zaakceptowania projektu przez zleceniodawców.

W trakcie przeprowadzania wywiadu bardzo ważne jest właściwe dobranie pierwszego pytania, tak aby było ono dobrym wstępem do dalszej rozmowy. Pytania powinny być zadawane w formie otwartej, tak aby pozwalały udziałowcom udzielać dłuższych odpowiedzi. Po odpowiedzi warto poczekać z zadaniem następnego pytania krótką chwilę co czasem prowokuje odpowiadającego, do dopowiedzenia, zwykle istotnych kwestii. Odpowiedzi powinny być notowane, trzeba jednak pamiętać aby utrzymywać kontakt wzrokowy z udziałowcom. Dobrze przeprowadzona rozmowa jest bowiem wstępem do nawiązania dalszych relacji. Zaraza po zakończeniu wywiadu powinno się uzupełnić notatki o bardziej szczegółowe informacje.

Samo spotkanie nie powinno być dłuższe niż 45 minut. Zwykle przeprowadzane jest przez project manager’a, którzy w trakcie jego trwania ustalają wszelkie informacje związane z realizacją projektu. Z tego powodu wywiady odbywają się zwykle na początku projektu tworzenia nowego produktu/usługi lub modyfikacji istniejących. Pytania zwykle powinny objąć tematykę funkcji produktu/usługi, częstotliwości użycia, problemów oraz doświadczenia udziałowcy z produktem lub podobnymi projektami. Rozmowa nie powinna natomiast potoczyć się w kierunku proponowania gotowych rozwiązań problemów. Wywiad pozwoli także na zweryfikowanie oficjalnej strategii firmy z tym jak wykonywane są w niej prace na co dzień.

Przed przystąpieniem do wywiadu z interesariuszami badacz musi zdefiniować, którzy z nich są dla niego najważniejsi z punktu widzenia produktu – pomocna może w tym być matryca czterech rodzajów interesariuszy uwzględniająca zarówno poziom ich wpływów w organizacji, jak również stopień zainteresowania projektem (Boutelle 2004). I tak, wyróżnić tu można interesariuszy o dużych wpływach i dużym zainteresowaniu, małych wpływach i dużym zainteresowaniu, dużych wpływach i małym zainteresowaniu oraz małych wpływach i małym zainteresowaniu. Priorytetowo potraktowani powinni zostać interesariusze należący do pierwszej grupy; najmniej istotni są ci należący do ostatniej.

  • Tania i szybka metoda pozyskiwania danych
  • Nawiązanie kontaktu z udziałowcami
  • Lepsze rozpoznanie oczekiwań oraz obaw interesariuszy w projekcie
  • Możliwość odkrycia potencjalnych punktów spornych między grupami interesariuszy i zaproponowania takich rozwiązań, które zadowoliłyby każdą z grup w maksymalnym stopniu przy jednoczesnej eliminacji konfliktów
  • Ułatwienie badaczowi skonstruowania scenariusza badań jak najlepiej odpowiadającego wymogom projektu

System pomiaru kliknięć myszką

System pomiaru kliknięć myszką (ang. clicktracking) to podobna do eyetrackingu metoda wizualizacji aktywności użytkownika na danej stronie internetowej w celu sporządzenia mapy termicznej, która z kolei pozwala na lokalizację w obrębie strony miejsc najczęściej klikanych bądź omijanych przez użytkownika.

Tym sposobem możliwe jest zarówno dokonanie oceny popularności i użyteczności materiałów zamieszczonych na stronie, jak również podjęcie decyzji co do wyboru określonych rozwiązań w przypadku testów A/B (w tym wypadku będzie to badanie wpływu zmiany lokalizacji linków na liczbę kliknięć).

Pomiar aktywności użytkownika odbywa się przy użyciu specjalnie w tym celu stworzonych narzędzi (tzw. generatorów map aktywności), takich jak Clickdensity, CrazyEgg czy EasyLabs. Wykorzystują one informacje na temat rozdzielczości obserwowanej strony, typu przeglądarki użytkownika oraz punktu na ekranie, w którym nastąpiło kliknięcie. Systemy zaawansowane śledzą ponadto elementy przesuwające się na stronie, np. tekst zawierający aktywne łącza spychany w dół często aktualizowanej strony przez dodawane kolejno posty (dane statystyczne przemieszczają się wówczas wraz z tekstem).

Poza zapisem liczby kliknięć w dany element w postaci obrazu termicznego (gdzie pola czerwone odpowiadają najczęściej klikanym obszarom) oraz statystyki kliknięć (wraz z jej wykresem uzupełnionym o czasy poszczególnych kliknięć), badanie dostarcza także innych cennych informacji. Należą do nich: czas kliknięcia mierzony od momentu wejścia na stronę, adresy innych stron, z których nastąpiło przekierowanie na stronę badaną, jak również procentowy udział kliknięć w dany obszar w stosunku do całkowitej liczby kliknięć na stronie. Część z tych danych przedstawiona jest w postaci tzw. listy kliknięć – spisu wszystkich klikalnych elementów analizowanej strony, zawierającego zestawienie nazw, rodzaju, liczby i procentowego udziału kliknięć w dany element w stosunku do wszystkich kliknięć na stronie.

Badanie najczęściej wykonywane jest w sposób zdalny bez wiedzy użytkownika, co zapewnia uzyskanie obrazu rzeczywistości niezakłóconego obecnością badacza, jakkolwiek możliwe jest również zastosowanie metody w odniesieniu do wybranej grupy osób wykonujących zadania w specjalnym pomieszczeniu pod nadzorem badacza. Analiza wyników przeprowadzana jest po zakończonej obserwacji z wykorzystaniem wygenerowanych przez wspomniane wyżej programy map cieplnych, statystyk, wykresów i zestawień danych.

  • Łatwy i szybki sposób na uzyskanie dużej ilości danych statystycznych odnośnie popularności elementów na obserwowanej stronie internetowej
  • Przejrzysta analiza dzięki wizualizacji aktywności użytkownika na stronie
  • Wgląd w intuicyjny sposób poruszania się użytkownika na stronie dzięki rejestrowaniu wszystkich miejsc kliknięć, a nie tylko aktywnych łączy

Testy A/B

Testy A/B (ang. A/B testing)to metoda badań ilościowych stosowana w celu wykazania, która z wersji produktu/usługi preferowana jest przez jej potencjalnych odbiorców.

Jakkolwiek metoda ta wywodzi się z klasycznych badań marketingowych przeprowadzanych drogą pocztową, obecnie znajduje zastosowanie w procesie projektowania stron internetowych, stanowiąc jedno z podstawowych narzędzi badawczych pozwalających ocenić, które z zaproponowanych rozwiązań przyczyni się do zwiększenia użyteczności strony.

W celu przeprowadzenia testu należy przygotować dwie wersje danej strony różniące się elementem o mniejszym (np. kolor paska nawigacji) lub większym (np. kolejne kroki w procesie zakupowym) znaczeniu. W przypadku ewaluacji rozwiązań na stronach już funkcjonujących, jedna z wersji będzie stroną aktualnie obowiązującą, druga zaś jej zmodyfikowanym odpowiednikiem. Założeniem jest, by każdemu wchodzącemu na stronę wyświetlała się jedna z dwóch wersji, przy czym adres użytkownika powinien zostać zapamiętany tak, by zawsze oglądał on te samą wersję. Jeżeli testowana jest strona już istniejąca, a proponowana modyfikacja ma znaczenie zasadnicze, należy zadbać o to, by jej stali odwiedzający nie oglądali zmodyfikowanej wersji (zmiana mogłaby ich zaskoczyć i negatywnie wpłynąć na ich zaufanie do witryny) oraz by stosunek wyświetleń dotychczasowej i nowej wersji wynosił 9 do 1. Każde wejście zakończone konwersją musi być automatycznie rejestrowane tak, by po przeprowadzonym teście możliwe było wykonanie analizy statystycznej odnośnie liczby pozytywnych wejść na każdą z wersji strony.

Ważne, aby obie wersje strony funkcjonowały w przestrzeni wirtualnej jednocześnie oraz by badanie nie zostało zakończone przed uzyskaniem dostatecznie dużej ilości informacji. W pierwszym przypadku lepsze wyniki dla gorszej w rzeczywistości wersji strony mogą być związane z korzystnym wpływem czynników zewnętrznych (np. dobry okres sprzedażowy w odniesieniu do stron e-commerce), nieobecnych podczas testowania wersji obiektywnie lepszej. W drugim przypadku zbyt mała próba badanych nie daje podstaw do wyciągania wniosków odznaczających się tzw. statystyczną pewnością. Wreszcie, nie wolno pochopnie podejmować arbitralnych decyzji o zmianie elementu bądź jej braku, jeżeli wyniki testu sugerują decyzję przeciwną – może się zdarzyć, że coś, co dla badacza jest subiektywnie nie do zaakceptowania (np. w kwestii estetyki strony), z punktu widzenia użyteczności witryny jest rozwiązaniem bardziej korzystnym.

Podczas badania pomocne mogą się okazać gotowe narzędzia do przeprowadzania testów A/B, takie jak Google Website Optimizer, Optimizely, Marketizator oraz Visual Website Optimizer.

  • Sposób na zebranie dużej ilości danych empirycznych przy niewielkich kosztach ryzyka
  • Metoda tania w porównaniu z innymi metodami badania użyteczności strony
  • Badanie przeprowadzane w sposób niewidoczny dla użytkowników, co zwiększa stopień obiektywizmu uzyskanych danych
  • Pozwala na rozwiązanie problemów decyzyjnych obecnych w zespole projektowym poprzez dostarczenie wiarygodnych danych z zewnątrz
  • Eliminuje ryzyko niepowodzenia w przypadku wprowadzenia zmian dzięki wcześniejszemu przetestowaniu proponowanych modyfikacji na rzeczywistych odbiorcach

Testy projekcyjne

Techniki projekcyjne wywodzą się z psychologii klinicznej, gdzie używane są do badania osobowości: motywach postępowaniach, celach, dążeniach oraz sposobie widzenia siebie i świata.

Są to wszelkiego rodzaju wytwory: rysunki, teksty, kolaże, itp., które interpretuje się według ustalonych wcześniej reguł. Jest to zatem metoda, dzięki której uzyskuje się informacje o tym, co jest często trudne do wypowiedzenia, czego sam użytkownik do końca nie jest w pełni świadomy.

Testy projekcyjne są stosowane w badaniach jakościowych w celu zgłębienia uczuć, reakcji emocjonalnych oraz ukrytych przekonań użytkowników, które zwykle nie są wyrażane wprost.

Dzięki technikom projekcyjnym możliwe jest również zniesienie oporu przed bezpośrednim ujawnianiem przez badanego swoich myśli i uczuć, który jest efektem m.in. nadmiernej kontroli (dorośli), nieśmiałości (dzieci).

Przykładem rysunkowych testów projekcyjnych jest np. stworzenie idealnego obrazu danego produktu, który niekoniecznie istnieje w rzeczywistości. Może on więc powstać w wyobraźni, być zaskakującym połączeniem funkcji, designu. Z kolei projekcyjne testy werbalne to np. test zdań niedokończonych, który polega na uzupełnieniu lub rozwinięciu wcześniej przygotowanych (początków/zakończeń) zdań. W testach tych zaleca się, aby udzielać odpowiedzi/ tworzyć rysunki na podstawie pierwszego pomysłu, który przychodzi danej osobie na myśl.

  • Informacje o ukrytych uczuciach i myślach użytkowników;
  • Zniesienie bariery psychologicznej (kontroli, nieśmiałości) przed wykonywaniem zadań;
  • Przyspieszenie procesów gromadzenia informacji – testy projekcyjne bazują na wyobrażeniach, co jest często łatwiejszym sposobem wyrażania przez użytkownika swoich opinii i pomysłów niż poprzez standardowe testy.

Triady

Triady (ang. triading) to narzędzie badań jakościowych stosowanych podczas paneli badawczych z użytkownikami danego produktu bądź usługi.

Ćwiczenie stosuje w celu zebrania informacji na temat atrybutów przypisywanych danemu produktowi/usłudze przez badanych, przy czym podawane przez tych ostatnich skojarzenia maja często charakter nieuświadomiony i z tego względu nie jest możliwa ich werbalizacja w sytuacji postawienia bezpośredniego pytania przez badacza.

Badanie przybiera formę sesji badacza z użytkownikami, którą najlepiej przeprowadzić w pomieszczeniu fokusowym z możliwością obserwacji oraz nagrywania przebiegu panelu przez osoby nie biorące w nim udziału (innych badaczy, projektantów etc.). Uczestnicy sesji dostają od badacza po trzy karty z wypisanymi na nich przedmiotami, usługami bądź koncepcjami tychże po to, by dokonać porównania pomiędzy nimi. Porównanie to ma przy tym charakter 2:1 i polega na podaniu cech wspólnych dwóch z trzech produktów/usług/koncepcji odróżniających je jednocześnie od trzeciego przykładu. Jest to proces iteracyjny, co oznacza, że badani tak długo podają cechy wspólne i różne między danymi przykładami, aż nie są w stanie wymyślić ich więcej. Rolą badacza jest stymulowanie uczestników sesji poprzez zadawanie pytań pomocniczych i doprecyzowujących, jak również moderowanie grupowej dyskusji podczas wykonywania ćwiczenia i późniejszej prezentacji wyników.

Zebrane w opisany powyżej sposób materiały pozwalają na wyznaczenie kategorii atrybutów produktów bądź usług istotnych z punktu widzenia ich użytkowników i jednocześnie stanowiących podstawę do dyferencjacji tych pierwszych. Co ważne, są to kategorie spontanicznie wygenerowane przez samych badanych w oparciu o ich wiedzę i doświadczenie w trakcie dokonywanej przez nich analizy porównawczej wybranych przez badacza trójek produktów/usług/koncepcji. Dodatkowo, w zależności od wyszczególnionych kategorii i tym samym cech wskazanych przez badanych jako szczególnie istotne możliwe jest stworzenie person dających obraz potencjalnych użytkowników należących do różnych grup.

  • Zebrane podczas badania dane generowane są przez samych uczestników badania bez narzucania im przez badacza określonych schematów myślenia
  • Rola badacza ograniczona do pełnienia funkcji pomocniczej
  • Dostęp do często nieuświadomionych treści (sposobów kategoryzacji elementów rzeczywistości, skojarzeń z nimi i przypisywanych im cech), które ze względu na trudności związane z ich werbalizacją nie pojawiają się w klasycznym wywiadzie kwestionariuszowym

Video ethography

Video ethnography polega na nagraniu materiału wideo rejestrującego zachowania użytkowników w naturalnym dla danej czynności środowisku.

Nagrywanie może odbywać się w różnych miejscach w zależności od kontekstu zachowania lub użycia produktu. Głównym celem badania jest wykrycie potrzeb użytkowników.

Video ethnography jest nową odmianą tradycyjnej etnografii, która skupia się na badaniu społeczeństwa. Ponieważ etnografia zwykle trwa bardzo długo (12-18 miesięcy), jej wykorzystanie w celach komercyjnych jest ograniczone. Video ethnography, zachowało podstawowe zasady etnografii ale znacznie skróciło jej czas. Video ethnography jest odmianą innej skróconej wersji etnografii – rapid ethnography, z tym że materiał badawczy rejestrowany jest w formie wideo.

Wyższość video ethnography nad innymi rodzajami badań etnograficznych polega na możliwości wielokrotnego odtworzenia materiału. Zespół badaczy uzyskuje dzięki temu głębszy wgląd w przyczyny zachowań użytkowników oraz ich potrzeby.

Video ethnography znajduje największe zastosowanie podczas tworzenia nowych produktów i usług, oraz testowaniu wczesnych prototypów. Podczas nagrywania materiału badany powinien czuć się swobodnie i nie krępować obecnością kamer. Rola badacza podczas nagrania jest pasywne obserwowanie, nie powinien on rozmawiać z badanym aby nagranie nie potoczyło się w kierunku rejestracji wywiadu z użytkownikiem. Po zakończeniu badania możliwe jest prowadzenie rozmowy lecz także nie sugerującej badanemu zachowań i użycia produktu. Po zakończeniu nagrań, możliwe jest obejrzenie ich z badanym i konsultacja co w danym momencie wykonywał, dlaczego itp.

Do przeprowadzenia video ethnography można także użyć nagrań w których użytkownicy nie wiedzą o ich rejestracji. Tak sytuacja ma miejsce w analizie nagrań monitoringu np. w sklepie, lub kamer zamontowanych specjalnie w celu etnografii. W tym przypadku nie ma obawy przed skrępowaniem użytkownika z powodu obecności kamery. Nagranie po zarejestrowaniu jest analizowane przez badaczy.

  • Badanie niezależne od geograficznej lokalizacji – grupa badaczy może realizować materiał z dala od miejsca rejestracji materiału
  • Możliwość wielokrotnego odtwarzania materiału

Zogniskowany wywiad grupowy

Zogniskowany wywiad grupowy (ang. FGI – Focus Group Interview) to metoda badawcza o charakterze jakościowym, oznaczająca moderowaną dyskusję grupy respondentów na zadany przez badacza temat, mająca na celu ujawnienie poglądów, opinii, uczuć i postaw osób badanych względem określonego problemu.

W badaniach marketingowych i użyteczności technika ta jest szczególnie przydatna wówczas, gdy potrzebna jest znajomość preferencji, opinii, zastrzeżeń klientów przed wprowadzeniem nowego produktu/usługi na rynek, jak również w przypadku konieczności wykrycia przyczyn problemów z implementacją rzeczy już istniejących.

Przed przystąpieniem do badania należy przygotować scenariusz dyskusji zawierający najważniejsze punkty związane z danym zagadnieniem, które muszą zostać poruszone podczas wywiadu. Kolejnym krokiem jest dobór odpowiedniej grupy badawczej – z reguły jest to 7-12 osób w jakiś sposób związanych z badanym problemem (w przypadku badań marketingowych/użyteczności będą to konsumenci/użytkownicy), mających podobne życiowe doświadczenia (związane ze stylem życia, zainteresowaniami), ale różne zaplecze społeczno-demograficzne, co zapewnia ogląd problemu z kilku odmiennych perspektyw.

Podczas trwającej od jednej do dwóch godzin sesji badani mają możliwość swobodnego wypowiadania się na tematy poruszane kolejno przez moderatora, który jednocześnie czuwa nad sprawnym przebiegiem wywiadu, utrzymuje odpowiedni poziom aktywności każdego z uczestników oraz dba o to, by wszystkie punkty scenariusza zostały zrealizowane.

Cały projekt badawczy składa się zazwyczaj z kilku do kilkunastu sesji fokusowych ze zmieniającymi się uczestnikami. Poza opisaną wyżej klasyczną grupą fokusową z jednym moderatorem istnieją też takie odmiany metody, jak:

  • Brief group (30-60 min., jeden krótki temat – np. podsumowanie indywidualnych testów konsumenckich),
  • Extended group (do 6 godzin; z przerwą i posiłkiem),
  • Mini group/affinity mini group (4-6 uczestników, w drugim przypadku powiązanych ze sobą – np. członkowie rodziny, współpracownicy)
  • Two-way focus group (jedna grupa obserwuje dyskusję prowadzoną przez drugą grupę, a następnie sama dyskutuje na temat poczynionych obserwacji),
  • Dual moderator fokus group (dwóch moderatorów – jeden czuwa nad sprawnym przebiegiem dyskusji, podczas gdy drugi dba o to, by wszystkie punkty scenariusza zostały omówione),
  • Dueling moderator fokus group (dwóch moderatorów polemizujących ze sobą podczas dyskusji),
  • Respondent moderator fokus group (jeden z uczestników pełni tymczasowo role moderatora),
  • Client participant focus group (w dyskusji uczestniczy – jawnie lub nie – jeden lub kilku reprezentantów klienta),
  • Teleconference/online focus group (dyskusja odbywa się odpowiednio za pośrednictwem łącza telefonicznego bądź internetowego).

Podczas analizy wyników badania szczególną uwagę należy zwracać na słowa (różne sformułowania odnoszące się do podobnych postaw), kontekst wypowiedzi (intonację, wpływ poprzedników), precyzję odpowiedzi (większą wartość mają te bardziej szczegółowe, odnoszące się do osobistego doświadczenia, a nie tylko do obiegowej opinii), wewnętrzną zgodę (czy konsensus wypracowany w grupie to rezultat wzajemnej presji uczestników, czy odzwierciedlenie rzeczywistych postaw), hierarchię punktów dyskusji (z wyszczególnieniem najważniejszych kwestii) oraz cel, w jakim pisany jest raport (z uwzględnieniem jego odbiorcy).

  • Niski koszt oraz względna łatwość przeprowadzenia badania
  • Kontekst grupowy zwiększający swobodę wypowiedzi uczestników (poruszanie tematów trudnych do omawiania indywidualnie), pomagający wywoływać skojarzenia służące wzbogaceniu odpowiedzi
  • Możliwość zadawania na bieżąco pytań uszczegółowiających i wyjaśniających przez badacza
  • Rozpoznanie i lepsze zrozumienie „lokalnego języka” (ang. vernacular speech) uczestników przez badacza moderującego dyskusję dzięki osadzeniu słów w kontekście danej sytuacji

Napisz do nas

Dziękujemy za wysłanie wiadomości.
Odezwiemy się wkrótce!

Oops! Something went wrong while submitting the form :(

Spotkajmy się!

Zapraszamy do kontaktu:

Cogision Sp. z o.o.
ul. Polna 13a/20
60-535 Poznań
NIP: 779-236-46-25

+48 887 974 278