#bigdata, #YouTube, #badaniamediow, #badaniacross-media

PO CO NAM BADANIA SKORO MAMY BIG DATA?

SESJA  INSPIRACJE METODOLOGICZNE,
PIĄTEK 25.X, godz. 12.50, sale A+B+C

Najważniejsza myśl prezentacji

W świecie zdominowanym przez big data tradycyjne badania kwestionariuszowe nadal będą miały do odegrania znaczącą rolę z dwóch powodów. Po pierwsze, główna przewaga badań to udzielanie wyjaśnień, odpowiadanie na pytanie „dlaczego”, z czym analiza big data często nie jest w stanie sobie poradzić. Po drugie (czemu poświęcę więcej miejsca) nierzadko pozornie obiektywne big data ze względu na szereg ograniczeń technicznych związanych z ich zbieraniem, udzielają mniej precyzyjnej informacji w porównaniu do tradycyjnego badania. Może stanowić to dość kontrowersyjną tezę, którą postaram się obronić, korzystając z konkretnego przykładu badania i analizy na ten sam temat.

Badanie kwestionariuszowe oraz analizy big data stanowią zatem komplementarne źródła informacji, które powinny funkcjonować równolegle w celu dostarczenia pełniejszego obrazu.

Opis

Często jako badacze boimy się, że big data odbierze nam chleb. Do niedawna realizacja badania była jedynym sposobem na poznanie zachowania konsumentów (np. w obszarze konsumpcji mediów, robienia zakupów, spędzania wolnego czasu, itd.). Tymczasem coraz więcej aktywności przenosi się do Internetu, gdzie pozostawia cyfrowy świat, możliwy do przeanalizowania. W efekcie może się wydawać, że tradycyjne (deklaratywne) badania będą w odwrocie, skoro możemy analizować rzeczywiste dane, zbierana na całej populacji, a nie na małych próbach. Dodatkowo jako zaleta big data postrzegany jest ich obiektywny charakter: są one wolne od skrzywień typowych dla badań kwestionariuszowych wynikających z niedoskonałego dobory próby, niewłaściwej interpretacji pytań czy wreszcie z ograniczeń pamięci respondentów.

W wystąpieniu chciałem przedstawić argumenty, dlaczego pomimo lawinowo przyrastającej ilości „big data” pozostanie miejsce na badania kwestionariuszowe. Pierwszy argument dotyczy charakteru informacji, jaki zbieramy w trakcie badań w porównaniu do big data. W skrócie: badania to branża wyjaśniania, zaś big data to branża przewidywania. Oczywiście możemy stawiać prognozy nie rozumiejąc przyczynowo-skutkowych zależności (na co przedstawię kilka przykładów pochodzących z analiz danych paragonowych wykonywanych przez firmy z branży handlu detalicznego) to często potrzebujemy wiedzieć „dlaczego”, na co odpowiadają badania.

Drugi przykład to ograniczania związane z naturą samych big data. Posłużę się analizą danych z największego serwisu video na świecie jakim jest YouTube, której celem było znalezienie odpowiedzi na pytanie: ile średnio osób dziennie ogląda treści video w tym serwisie (w 9 krajach Europy Środkowo-Wschodniej). W tym przypadku realizacja badania nie tylko dostarczyła precyzyjnej informacji, ale również zwróciła uwagę na szereg ograniczeń z którymi trzeba byłoby sobie poradzić, gdybyśmy chcieli pozostać wyłącznie na poziomie analizy wewnętrznych danych YouTube.

W jaki sposób prezentacja odnosi się do kwestii skutecznego i odpowiedzialnego wspierania decyzji wiedzą o rynku i człowieku?

W przypadku tego projektu synergia badania z analizą big data przełożyła się na trafniejsze i bardziej detaliczne wnioski dotyczące sposobu konsumowania mediów (YouTube w porównaniu do telewizji oraz innych platform VoD). Dane tego typu są wykorzystywane przede wszystkim przez reklamodawców oraz agencje mediowe podczas podejmowania decyzji dotyczących podziału budżetu mediowego, zwłaszcza w krajach, w których brak oficjalnego badania cross-mediowego – i tak też stało się w tym projekcie.

Źródła, materiały, dane:

Wystąpienie oparte będzie przede wszystkim na case study zbudowanym na zrealizowanym przeze mnie projekcie w 2018 roku. W ramach tego projektu należy wyróżnić dwie części:
  • część badawcza – badanie CATI zrealizowane wspólnie z firmą Kantar na 9 rynkach Europy Środkowo-Wschodniej, na łącznej próbie N=5400 osób w wieku 16+. Badanie dotyczyło treści video (telewizja, YouTube, inne platformy VoD, video na social media) oglądanych przez respondentów poprzedniego dnia (metoda „day after recall”)
  • część analityczna big data – analiza danych serwisu YouTube dotyczących oglądalności (liczba użytkowników, czas oglądania) na analogicznych rynkach w tym samym okresie, w którym realizowane było badanie Chciałbym skupić się przede wszystkim na wnioskach, które płyną z porównania wyników badania z wynikami analogicznej analizy. Wyjaśnię, jakie są ograniczania analizy big data oraz o czym mówią nam różnice pomiędzy deklaracjami a rzeczywistą oglądalnością.

Michał
PROTASIUK

Research Manager Central-Eastern Europe
Google

W badaniach rynkowych od 2002 roku. Przez większość czasu w Kompanii Piwowarskiej, gdzie w ostatnich latach prowadził zespół Consumer Insights. Od 2017 w Google, w zespole Market Insights, gdzie jest odpowiedzialny za projekty badawcze w regionie Europy Środkowo-Wschodniej. W wolnych chwilach pisarz.