Z prof. Michałem Kosińskim, psychologiem, Data Scientist, profesorem Stanford Graduate School of Business, koordynatorem projektu MyPersonality, w ramach którego przeanalizowano 8 mln profili użytkowników Facebooka, rozmawiamy o rozpoznawaniu przez algorytmy sztucznej inteligencji naszych preferencji, dzieleniu się naszymi danymi, praktycznym wykorzystaniu systemów rekomendacyjnych m.in. w polityce i marketingu, mikrotargetowaniu oraz sposobie uczenia sieci neuronowych.
Opublikował Pan niedawno – wspólnie z Yilun Wang – pracę poświęconą rozpoznawaniu przez algorytmy Machine Learning m.in. naszych preferencji seksualnych wyłącznie w oparciu o analizę fotografii poszczególnych osób. Wspomniał Pan o niej podczas prelekcji na konferencji SAS Forum 2017. Czy ideę tę można wykorzystać do analizy innych naszych preferencji?
Oczywiście. Wspomniałem o tym, dlatego że jest to szczególnie istotne w kontekście ochrony prywatności. Można powiedzieć, że jest to jedna z cech – może obok poglądów politycznych – która jest uznawana za informację wrażliwą. Najlepiej więc ilustruje to, co może się zdarzyć po utracie prywatności. Algorytmy potrafią lepiej przeanalizować naszą orientację seksualną niż poglądy polityczne, bo ta cecha jest rozłożona w populacji bimodalnie. Ludzie mają albo tendencję do bycia heteroseksualnymi, albo homoseksualnymi. Jest bardzo mało ludzi pomiędzy. W związku z tym modele takie, jak nasz będą bardzo dobrze rozróżniały pomiędzy tymi dwoma grupami. Jeśli zaś chodzi o poglądy polityczne, to mamy do czynienia z rozkładem normalny. Oznacza to, że większość ludzi jest gdzieś w połowie i mamy tylko niewielkie, ale za to najbardziej widoczne ekstrema. Dlatego wykrywanie poglądów politycznych w oparciu o analizę twarzy będzie dużo trudniejsze.
Warto jednak zwrócić uwagę, że bardzo dużo powstaje dziś start-up’ów – w Stanach Zjednoczonych, Europie i Izraelu – które specjalizują się właśnie w tworzeniu technologii rozpoznawania twarzy. W tym kontekście większość z nas zapomina o jednej, ważnej sprawie. Jeśli ktoś mówi o rozpoznawaniu twarzy, to myślimy o rozpoznaniu Michała na dwóch, różnych zdjęciach. Tymczasem temu samemu algorytmowi można zadać inne pytanie. Czy ta twarz wygląda jak twarz liberała, a może geja? Dostępna dziś technologia pozwoli nam odkryć te cechy intymne z dużą dokładnością.
Tego typu preferencje może analizować w oparciu o dostępne publicznie nasze zdjęcia z Facebooka, jak we wcześniejszym Pana badaniu, gdy analizowane były nasze wpisy i lajki?
Dokładnie tak. W naszych badaniach próbowaliśmy używać zdjęć pochodzących z Facebooka, ale także z serwisów randkowych. Analizowaliśmy je w kontekście rozpoznawania orientacji seksualnej. Ale analizowaliśmy też zdjęcia, które były zrobione celowo do naszych badań. Usunęliśmy z nich pewne cechy charakterystyczne takie, jak np. zarost czy owal twarzy. Model, który jest zbudowany z tak „spreparowanych” twarzy wygląda trochę inaczej. Jednak – co udowodniły nasze badania – nawet taka „neutralna” twarz ze zdjęcia zrobionego w laboratorium też będzie niosła informacje pozwalające analizować nasze preferencje.
Nie możemy jednak skupiać się jedynie na negatywnych zastosowaniach tej technologii. Wyobraźmy sobie, że algorytmy Machine Learning można wykorzystać np. do tego, aby wykryć osoby, które mają jakieś genetyczne „skłonność” do chorób czy to fizjologicznych czy też psychologicznych. Niesamowite jest to, że w ten sposób można „przebadać” osoby, które w tym momencie są pozbawienie dostępu do służby zdrowia takiej, jaką mamy w Polsce. Na świecie żyją miliardy ludzi, którzy nigdy w życiu nie zobaczą doktora, bo ich Państwa nie mają pieniędzy, aby im to zagwarantować. Możliwość diagnozy różnych chorób tylko przy użyciu zdjęcia – czy analizy milionów zdjęć, które umieszczamy w Internecie – może wielu ludziom uratować życie oraz poprawić jakość ich życia.
Jeden z amerykańskich start-up’ów wykorzystał technikę Deep Learning do rozpoznawania zdjęć tomograficznych mózgów pacjentów w celu wykrywania zmian nowotworowych. Okazało się, że skuteczność diagnoz za pomocą tej techniki była lepsza niż jakiegokolwiek lekarza. Czy rzeczywiście jest to technologia, która może posunąć do przodu np. wspomniane rozpoznawanie obrazów medycznych?
Każdą czynność poznawczą, którą może wykonać ludzki mózg, może też wykonać komputer wykorzystując możliwości sieci neuronowych. Jeżeli maszyna jeszcze jej nie wykonuje, to znaczy, że żaden start-up się tym nie zajął, albo potrzebujemy komputerów większej mocy, które zapewne pojawią się w ciągu kilku lat. W naszych mózgach także posiadamy sieć neuronową, choć dużo bardziej złożoną niż te, które jesteśmy w stanie sami dziś tworzyć.
Na swoje szczęście – albo nieszczęście – stajemy się coraz lepsi w tworzeniu podobnych nam maszyn silikonowych. Następuje rewolucja w kontekście tego, jak tworzone przez człowieka algorytmy mogą podejmować decyzję i w jaki sposób przewidywać przyszłość. W przeszłości, jeżeli np. chcieliśmy nauczyć komputer, aby rozróżniał na zdjęciu mężczyznę od kobiety, to siadał naukowiec – Computer Scientist, czy Computer Engineer – i tłumaczył. Jeżeli widział brodę to znaczy, że z dużym prawdopodobieństwem jest to mężczyzna, a jeżeli osoba na zdjęciu ma długie włosy, to jest to zapewne kobieta.
Jednak tego typu algorytmy nie są zbyt dokładne. Dlaczego? Dlatego, że nawet my nie wiemy tego, na jakiej podstawie rozróżniamy mężczyznę od kobiety. Najlepszym dowodem na to jest fakt, że bardzo szybko kończą się nam pomysły na to, jakie cechy mogą pomóc komputerom rozróżnić na zdjęciu obie płcie. Tymczasem można usunąć te wszystkie aspekty, które nas w prosty sposób różnicują – brodę czy fryzurę – a mózg człowieka nadal nie ma żadnego problemu, aby na zdjęciu rozróżnić kobietą i mężczyznę. Dzieje się tak nawet, jeżeli pokażę tylko kącik mojego oka.
Kilka lat temu zmieniliśmy jednak podejście. Zamiast tłumaczyć komputerom jaką decyzję podjąć, czy jak rozróżniać różne przedmioty, zaczęliśmy uczyć komputery w ten sam sposób, w jaki uczymy sami siebie i nasze dzieci. Jak poznajemy różnice między psem, a kotem? Za pomocą przykładów i korekcji. Gdy dziecko popełni błąd rozpoznając kota i psa, my je poprawiamy. Za którymś razem sieć neuronowa, którą dziecko ma w głowie załapuje różnice. Od tego czasu jesteśmy bezbłędni w rozróżnianiu psa i kota. Dokładnie ta sama metoda jest dziś stosowana w kontekście algorytmów komputerowych. Komputery zaczęły być uczone na podstawie przykładów za pomocą metod Deep Learning lub Machine Learning.
Co ciekawe, dokładnie tak samo jak dzieci, komputerowe sieci neuronowe są w stanie wiedzę generalizować. Podam ciekawy przykład. Możemy np. uczyć komputery odróżniać niegroźne pieprzyki od tych, które mogą świadczyć o zmianie rakowej tworząc nową, „pustą” sieć neuronową. Jeśli jednak w analizie tej zastosujemy wcześniej już „wytrenowaną” sieć – choćby do rozróżniania twarzy kobiety i mężczyzny – to jej trening nowych „umiejętności” będzie dużo krótszy. Okazuje się, że jakaś część wcześniejszej wiedzy, która jest zawarta w tej sieci neuronowej zostanie wykorzystywana do przyspieszenia nauki nowego zadania. Nie wiemy jeszcze czemu tak się dzieje. Sieć neuronowa to w końcu po prostu ogromny zestaw równań matematycznych ułożonych hierarchicznie. Im więcej rzeczy będziemy tę sieć uczyli, tym szybciej będzie zdobywała nową wiedzę. Zupełnie jak człowiek. Możemy więc tę samą sieć neuronową wytrenować, aby rozróżniała pomiędzy krową, a kozą, a potem z kolei między dobrą a złą decyzją polityczną.
Przewaga sieci neuronowej leży w tym, że zdobytą przez jedną sieć wiedzę możemy – praktycznie natychmiast – wyeksportować do dowolnego, innego komputera na świecie. Ludzie też dzielą się wiedzą, ale w nieporównanie wolniejszy sposób. Jak ja się czegoś nauczę, to aby moją wiedzę przekazać muszę z kimś o tym porozmawiać albo opisać w książce. Większość z tego, czego się nauczę zostanie zapewne zapomniana. Komputery tego problemu absolutnie tego nie mają!
Jaki może być praktyczny pożytek z tego typu analiz dla przedsiębiorstw?
Dla każdej firmy zastosowania Deep Learning i Machine Learning będą nieco inne. Wspomniany wyżej algorytm – który jest w stanie rozróżnić psa i kota – możemy wytrenować także do tego, aby w danym kontekście odróżnił dobrą i złą decyzję biznesową. Musimy jednak wcześniej zrozumieć podstawy. Przykładowo – jak wspomniałem – inteligencja zarówno człowieka, jak i maszyny ma tendencję do generalizowana. Jednocześnie jednak dokładność tych przewidywań maszyny jest wyższa niż człowieka. Mózg homo sapiens wyewoluował na przestrzeni dziesiątek tysięcy lat do tego, aby w naturalny sposób podejmować niektóre decyzje, np. odróżnić ekstrawertyka od introwertyka, kobietę od mężczyzny, wykryć emocje na twarzy innego człowieka. I jeżeli teraz w tych dziedzinach, dla człowieka bardzo naturalnych, komputer jest w stanie nas łatwo wyprzedzić to będzie też lepszy w decyzjach bardziej skomplikowanych. Decyzjach, które opierają się na analizie milionów danych, szczególnie tych, których nasz mózg nie jest w stanie w naturalny sposób analizować, np. statystycznych. W miarę postępu technologicznego ta przewaga algorytmu komputerowego będzie jeszcze większa.
Jeśli mówimy o analizie dużych zbiorów danych, to czy w biznesie algorytm nie są potrzebne zwłaszcza do podejmowania decyzji marketingowych?
Wydaje mi się, że marketing – jaki znamy dzisiaj – będzie jedną z pierwszych ofiar powszechnego zastosowania algorytmów komputerowych i tzw. sztucznej inteligencji…
Ofiar?
Jeśli przypomnimy sobie korzenie marketingu, to jego celem jest próba dostosowania produktu lub usługi do określonego klienta. Tradycyjnie odbywało się to na zasadzie kampanii docierających do szerokiego grona odbiorców. Mieliśmy jeden produkt, o którym informowaliśmy potencjalnych klientów licząc na to, że usłyszy o nim ten, kto go właśnie potrzebuje. W erze totalnego dostępu do informacji, podejście to nie ma już jednak uzasadnienia. Dziś mamy do czynienia z tysiącami, milionami produktów i usług. Z drugiej strony mamy miliony potencjalnych klientów. Nie ma więc powodu, aby ich wszystkich informować o tym samym produkcie. Lepiej zastosować do tego systemy rekomendacyjne oparte o rozwiązania Machine Learning, Deep Learning.
Na czym polega działanie systemów rekomendacyjnych?
System rekomendacyjny może określić preferencje klienta w oparciu analizę tego, co on wcześniej kupował, co lubi, a nawet – dzięki analizie twarzy – jaka jest jego osobowość czy obecny nastrój. Dzięki analizie milionów produktów i milionów decyzji klientów, którzy je kupowali można doradzić produkt, który z dużym prawdopodobieństwem spełni nasze oczekiwania. W efekcie istnieje wyższe prawdopodobieństwo, że go kupimy. Nie potrzebujemy do tego reklam. Ich wyświetlanie nam nie ma sensu.
Klient nie musisz dziś przejmować się marką ani dokładnie studiować cech produktów. Sprzedawca – korzystający z systemów rekomendacyjnych – wie bowiem z dużą dokładnością jaki jest najlepszy dla niego produkt. Ta zmiana właśnie się dokonuje. Zobaczmy, jak np. zmieniła się konsumpcja muzyki. Kiedyś sprzedaż płyt związana była z wieloma działaniami marketingowymi. Były koncerty, promocje, wielkie banery. Dzisiaj łączenie ludzi z odpowiadającą im muzyką odbywa się na platformach rekomendacyjnych takich, jak Spotyfy, LastFM, czy Pandora Box. I ta platforma „powie” nam: co prawda nigdy o tej kapeli nie słyszałeś, to zespół założony w garażu gdzieś w Bangladeszu, ale wiemy dokładnie, że ta piosenka będzie się tobie podobać. Co więcej, dzisiaj nikogo nie obchodzi już nawet nazwa kapeli. Systemy rekomendacyjne działają bowiem na poziomie konkretnego, pojedynczego utworu. Ludzie przestali słuchać albumów.
W przeszłości – kiedy naukowcy i firmy patrzyli na systemy rekomendacyjne – wszystkim wydawało się, że spowodują one to, iż kilka, najbardziej popularnych produktów zdominuje rynek. W przypadku globalnego rynku muzycznego, każdy wybierze zapewne Lady Gagę lub jednego z 3-4 innych, wielkich artystów. Prognozy te odzwierciedlano nawet w kontraktach podpisywanych przez wytwórnie płytowe z artystami. Tymczasem zdarzyła się rzecz zupełnie odwrotna. Systemy rekomendacyjne okazały się wspaniałe w odkrywaniu naszych indywidualnych potrzeb, docenianiu tego, że każdy z nas jest trochę inny. Mamy do czynienia z ogromnym wzrostem słuchalności mało znanych artystów z tzw. długiego ogona. W roku 2016 na platformie Spotify przeciętny użytkownik słuchał o 20% procent więcej artystów niż rok wcześniej. Różnorodność muzyki, której słuchamy zwiększa się.
To samo odnosi się do innych treści. Obawiano się np. że ludzie zostaną zamknięci w swoim środowisku, będą tylko czytać to, co piszą osoby o podobnych do nich poglądach. Mamy tymczasem dowody na to, że jest zupełnie odwrotnie. Zaczęliśmy czytać więcej i bardziej różnorodnych informacji.
Wracając do sztucznej inteligencji i tworzonych na zlecenie różnych firm algorytmów np. uczenia maszynowego. Czy jednak – wbrew temu, co Pan mówił o błyskawicznej przenaszalności algorytmów z komputera na komputer – firmy nie będą chciały ograniczać dostępu do nich? Nie będą zazdrośnie strzegły wyników swoich prac?
Oczywiście firmy pracujące nad daną technologią chcą ją opatentować. Ale z tego typu tendencjami mieliśmy do czynienia wcześniej. Pytanie to można jednak odnieść do kolejnego, niesamowitego fenomenu, zmiany tego, w jaki sposób działa gospodarka, jak działa informacja. Kiedyś w firmie mieliśmy dział naukowy, który przez kilka lat pracował nad jakimś problemem i – jeśli miał dużo szczęścia – odkrył nową technologię. W tamtych czasach samo to miało dla firmy ogromną wartość, dawało jej przewagę konkurencyjną. Jeśli inna firma chciała stworzyć taką samą technologię, to musiała poświęcić ogromną ilość czasu i funduszy, aby opracować ją od nowa. Dzisiaj absolutnie nie działa to w ten sposób.
Co się dzisiaj liczy? Liczą się dane. Problemy rozwiązują komputery poprzez analizę dostępnych danych, a nie ludzie poprzez proces rozumowania. Jeżeli tylko mamy dostęp do danych, to możemy na kilka dni wynająć odpowiednie zasoby i narzędzia analityczne, aby wyciągnąć na ich podstawie odpowiednie wnioski. Przykładowo, posiadając dane np. od kierowców samochodów Tesli każdy może stworzyć samochód autonomiczny.
Wartość nie jest więc w samym modelu samochodu, bo można go bardzo łatwo odtworzyć. Wartość jest w danych. Tesla zrozumiała, że nie sprzedaje samochodów, lecz dane, które są generowane przez jeżdżących nimi kierowców. Podobnie Visa i Mastercard, nie sprzedają usług finansowych, a dane użytkowników kart płatniczych. Tesla – wiedząc jak kierowcy jej samochodów zachowują się w aucie – jest w stanie „wytrenować” sztuczną inteligencję do tego, aby prowadziła samochód autonomicznie. Wbudowany w jej auta Driver Assistance prowadzi samochód praktycznie niezależnie, ale – w procesie uczenia się – stale jest korygowany przez kierowcę. Każda taka poprawka to kolejne dane do analizy.
Co ciekawe Google – które przecież było jednym z pionierów gospodarki opartej na danych – robi to samo, ale w bardzo tradycyjny, przestarzały moim zdaniem sposób. Firma ta zdecydowała się posadzić kilku inżynierów w prototypach swoich autonomicznych samochodów i kazała im uczyć je, jak jeździć. Jest to XX-wieczne podejście. Tesla stwierdziła zaś, że da wszystkim klientom samochody. W dodatku oni jeszcze za to chętnie płacą. Gdy zaś kierowcy będą tymi samochodami podróżować, to z dziesiątków czy setek tysięcy aut spływać będą informacje zasilające algorytmy sztucznej inteligencji.
Z jednej strony mówi Pan o rekomendacjach, o tym, że marka przestanie być istotna. Z drugiej wspomniał Pan, że ten, kto ma dane ten ma przewagę nad konkurencją. Tymczasem dane posiadają dziś najwięksi, firmy takie, jak Google czy Facebook. Oni też mają największe środki na rozwój tej sztucznej inteligencji. Nie zostanie więc chyba przestrzeni dla kogoś innego?
Kiedyś dostęp do ziemi także był zmonopolizowany albo przez Państwo, albo przez konkretną kastę społeczną. Historycznie wydawało się niemożliwe to, z czym mamy dziś do czynienia. Praktycznie każdy może kupić własny kawałek ziemi. Tak samo dzieje się z danymi. Oczywiście dzięki geniuszowi – lub szczęściu – kilku ludzi, którzy założyli Google czy Facebooka, znaleźli się oni we właściwym miejscu i we właściwym czasie. Dzięki temu mogli zmonopolizować dostęp do danych.
Należy jednak zastanowić się czy tak powinno być w społeczeństwach, które chcą się widzieć jako demokratyczne i wolne. Czy tak powinno być w społeczeństwach, w których maksymalizujemy nie tylko wartość akcji kolejnej spółki, ale także postęp technologiczny, postęp całej gospodarki? Czy w takich społeczeństwach nie należałoby po prostu stwierdzić, że dane, które generujemy jako obywatele nie powinny należeć do wszystkich. Czy nie powinny być dobrem wspólnym? W pewnym zakresie już tak się dzieje. Ku temu właśnie zmierzają np. akty prawne w Unii Europejskiej. Mówią one o tym, że do Pana należą dane np. z Facebooka, a serwis ten ma obowiązek umożliwienia Panu przeniesienia ich do innego serwisu społecznościowego. Oczywiście Facebook stara się, aby proces ten był jak najbardziej niewygodny. Można jednak sobie wyobrazić w przyszłości, że Unia Europejska pójdzie o krok dalej i stwierdzi: „Od dzisiaj dostęp do pewnej części danych z Facebooka czy Google ma mieć każdy kto sobie tego życzy”.
Przykładem przemawiającym za tego typu działaniami jest np. fakt, że Google zmonopolizował niemalże dostęp do informacji. Jeżeli ktokolwiek czegoś szuka, to musi używać wyszukiwarki Google. Nie ma alternatywy. Wiele rządów i firm wydało miliardy dolarów na to, aby firmę tę z pozycji monopolisty usunąć. Inicjatywa wspaniała, bo każdy monopol zabijają postęp i innowacyjność. Ale okazało się to niemożliwe. Google wygrywa tylko przez to, że wszyscy z jego wyszukiwarki korzystają.
Google działa na tej samej zasadzie, co eBay. Konkurenci nie mają szans z tym serwisem, bo są na nim wszyscy sprzedawcy i wszyscy kupujący. Nawet jeśli zrobimy lepszą – pod względem funkcjonalnym – platformę aukcyjną, to będzie ona bezwartościowa, bo nikogo na niej nie będzie, prawda? Tak samo się dzieje z Google. Wszyscy korzystają z jego wyszukiwarki, więc właściciele stron internetowych optymalizują się pod Google. Dzieje się tak mimo istniejących alternatyw. Nikt jednak nie dostosowuje do nich swojej strony. Jeżeli Google zmienia coś w swoich algorytmach wyszukiwania, to strony natychmiast zmieniane są w taki sposób, aby znowu być mieć wysoki ranking w wyszukiwarce tej firmy. Alternatywne wyszukiwarki nie mają szans, aby za tym nadążyć. Tego typu działania dotyczą jednak wielu firm o dominującej pozycji. Być może rządy na całym świecie dostrzegą tę grę i postanowią wprowadzić regulacje, które zapobiegną takim działaniom i dadzą szansę konkurencji.
Sądzi Pan, że my także – chcąc np. walczyć z monopolem – przestaniemy karmić danymi Google czy inne tego typu systemy? Wspomniane przez Pana europejskie regulacje – jak np. Rozporządzenie o Ochronie Danych Osobowych – zmierzają do tego, aby dać nam np. prawo do zapomnienia, do wyrzucenia informacji na swój temat…
To jest ciekawe pytanie. Dzisiaj też mamy – zwłaszcza w Europie – prawo do bycia zapomnianym. Ale takie działanie wydawałoby mi się bezsensowne. Jeśli jako nastolatek, w szkole średniej napisałem lub powiedziałem coś głupiego, a w wynikach wyszukiwania informacja ta znajduje się wysoko, to może faktycznie powinienem poprosić o to, aby dane te zostały usunięte. Ale jeśli dotyczy to polityka, który ukradł pieniądze podatników? Czy on także powinien mieć prawo do tego, aby zostać zapomniany? A nawet jeśli, to decyzje o tak istotnych dla społeczeństwa konsekwencjach podejmuje dziś jakiś „dwudziestokilkulatek” w biurze Google w Irlandii. A to już jest nie do pomyślenia. Jedna osoba nie może podejmować decyzji o tym, czy ktoś będzie zapomniany, czy nie. Zwłaszcza, że zapewne nie ma ona żadnej wiedzy o etyce, prawie, filozofii… Jednocześnie w społeczeństwach demokratycznych wypracowaliśmy przez wieki dużo lepsze instytucje – takie jak np. sądy – do tego, aby potencjalnie cenzurować informacje.
Konsekwencją RODO mogą być także działania grup konsumentów, które będą dokonywać swego rodzaju „społecznych” ataków DDoS. Członkowie tego typu grup będą w jednym czasie prosić tę samą firmę o informacje na temat swoich danych osobowych, a następnie kazać je „zapominać”. Być może sanie się to modą, formą aktywności społecznej? Może to odwrócić trend powszechnego dostępu do danych, sprawienia, że staną się one dobrem narodowym…
Warto więc spojrzeć na nasze dane w inny sposób. Zastanowić się jak są one dziś wykorzystywane. Google nie może działać bez użytkowników dzielących się danymi. Podobnie systemy rekomendacyjne, które pomagają nam wybrać film do obejrzenia, utwór muzyczny do wysłuchania, książkę do przeczytania. Mamy też do czynienia z dużo ważniejszymi – z punktu widzenia społecznego – systemami tego typu. Platformy e-learningowe wykorzystują systemy rekomendacyjne do tego, aby dostosować się do poziomu i szybkości pracy danego dziecka. Dzięki temu w niesamowity sposób poprawiają wyniki słabszych uczniów. Są też platformy, które pozwalają diagnozować choroby.
Wszystkie tego typu rozwiązania opierają się na tym, że – chcemy tego, czy nie – dzielimy się danymi. Jeżeli teraz damy jakiejś klasie ludzi prawo, aby się tymi danymi nie dzielić, to tworzymy nowe społeczeństwo klasowe. Osoba biedniejsza – albo taka, która nie ma wykształcenia technologicznego lub świadomości otaczających ją cyfrowych zmian – będzie dzielić się danymi. Będziemy o niej wiedzieli wszystko. Z drugiej strony będzie elita, która może sobie zapewnić prywatność. Sama w sobie sytuacja ta bardzo mi się nie podoba. Oczywiście, gdyby mnie ktoś zapytał o to, czy chciałbym, aby moje dane medyczne były dostępne dla innych, odpowiem nie. Wiąże się to bowiem z ryzykiem, że np. firma ubezpieczeniowa odmówi mi w przyszłości ubezpieczenia, bo dojdzie do wniosku, że wiąże się to ze zbyt dużym – wynikającym z moich danych – ryzykiem.
Jeżeli każdy odmówi dostępu do danych – np. na temat swojego zdrowia – to zabijamy postęp w rozwoju epidemiologii czy algorytmów, które wykrywają raka i guzy mózgu ze zdjęć rentgenowskich lub tomograficznych. Może więc – jeżeli chcemy być etycznymi i wartościowymi członkami społeczeństwa – powinniśmy dzielić się naszymi danymi, nawet w sposób większy niż teraz. Szczególnie jeżeli żyjemy w krajach, w których jest to bezpiecznie ze względu na obowiązujące regulacje. Przeciętny Niemiec spokojnie może się podzielić danymi dotyczącymi zdrowia, bo prawo chroni go przed odmową ubezpieczenia. Przeciętny Amerykanin nie ma takiej możliwości. On – w przypadku wykrytych groźnych dla życia chorób – nigdy ubezpieczenia nie dostanie. Etycznym obowiązkiem Niemców jest więc dzielenie się danymi, aby umożliwić postęp technologiczny. Ten zaś będzie miał pozytywny wpływ nie tylko na życie ich, ale także mieszkańców innych państw, w tym Amerykanów.
Wspominaliśmy o zastosowaniu algorytmów w marketingu, systemach rekomendacyjnych. Jednym ze sposobów wykorzystania tego typu rozwiązań jest mikrotargetowanie. Czy przynosi ono nam więcej korzyści, czy też niesie ze sobą więcej zagrożeń?
Jak w przypadku każdej, nowej technologii, mamy do czynienia z wadami i zaletami. Na koniec dnia myślę jednak, że mikrotargetowanie oferuje więcej korzyści. Nawet jeżeli analizujemy ten wpływ przez pryzmat polityki, gdzie zastosowanie tego typu narzędzi wzbudza najwięcej kontrowersji. Mikrotargetowanie pozwala bowiem każdej osobie, która chce przekazać jakąś informację, dotrzeć do potencjalnych odbiorców w najbardziej skuteczny sposób. Jesteśmy w stanie nie tylko znaleźć grupę docelową, która będzie bardziej zainteresowana naszym przekazem, ale także dostosować ją do tego, aby była jak najbardziej atrakcyjna dla tej grupy. Pozwala to znacznie obniżyć koszty marketingu czy komunikacji politycznej. Jeżeli jesteśmy w stanie skuteczniej tę informację przekazywać, to możemy mniej wydać np. na pokazywanie tysięcy spotów telewizyjnych. Zamiast tego można wyświetlić w internecie reklamy skierowane do ściśle określonej grupy docelowej.
Wracając do polityki, dzięki mikrotargetowaniu ludzie, którzy nie mają związków z wielkimi pieniędzmi, czy nie mają wsparcia wielkich przedsiębiorstw, są w stanie uczestniczyć w politycznym dialogu. Mikrotargetowanie przyniosło nam Donalda Trumpa, ale także Berniego Sandersa. On także wykorzystał w skuteczny sposób w swojej kampanii nowe technologie, nowe kanały dotarcia.
Jednak Berniego Sandersa skutecznie przyblokowano w sposób „analogowy” w ramach struktur Demokratów…
To prawda. Różnica między Demokratami, a Republikanami była taka, że establishment partii demokratycznej był trochę bardziej skuteczny niż kierownictwo partii republikańskiej. Przez to – można powiedzieć – strzelił sobie w stopę. Nie poszli z duchem czasu.
Są inne zalety mikrotargetowania?
Jeżeli możemy zmikrotargetować komunikację – czy to dotyczącą szamponu czy polityki – to informacja ta będzie miała większą wartość dla odbiorcy. A to powoduje, że odbiorcy będą bardziej zaangażowani w poszczególnych obszarach życia. Zaangażowany odbiorca to dobra wiadomość dla gospodarki.
Warto jednak pamiętać, że mikrotargetowanie nie wygrywa wyborów. Nie daje nam też przewagi na rynku. Aby wykorzystać tego typu rozwiązania wciąż musimy mieć coś ciekawego do powiedzenia. Co z tego, że będziemy rozmawiać z ludźmi „sam na sam”, jeżeli nie mamy dla nich żadnych, interesujących wiadomości. To zaś ma kluczowe znaczenie w mikrotargetingu. Daje szansę wygranej firmom, które co prawda nie mają dużych budżetów marketingowych, ale posiadają ciekawy produkt, który może kogoś zainteresować, bo rozwiązuje istotny problem lub jest lepszy technologicznie.
Politycy zaś – zamiast interesować się tym, co jest dobre dla średniego wyborcy, bo taka była logika marketingu politycznego w przeszłości – muszą interesować się mniejszymi grupami społecznymi. Muszą wypracować przekaz do mniejszość żyjących gdzieś na obrzeżach społeczeństwa. Tacy mainstreamowi politycy, tacy jak Bernie Sanders czy Donald Trump zastanawiali się nad tym, co ciekawego zaoferować np. górnikom. Robili to, mimo że nie stanowią oni bardzo licznej grupy wyborców. Dla demokracji to wspaniałe, że nagle prawa i interesy małych grup społecznych – wcześniej ignorowanych – znalazły się w centrum zainteresowania. Możemy się teraz z tymi ludźmi dużo łatwiej komunikować.
Ale zakładamy, że ta druga strona jest etyczna i nie mówi tylko tego, co dane grupy społeczne chcą usłyszeć…
To prawda, ale trzeba też pamiętać, że mikrotargeting wcale populistom i demagogom nie jest potrzebny. Świetnie sobie radzili bez niego. Wszyscy zaś mają dostęp do tych samych kanałów i platform komunikacji. Dzięki temu też wydaje się, że mamy dziś do czynienia z zalewem fake news, że jest ich więcej niż wcześniej. I jest to prawdą, ale tylko jeśli chodzi o częstotliwość ich występowania. Codziennie pojawiają się nowe fałszywe informacje. Ale tylko dlatego, że zrobiliśmy się – jako społeczeństwo – niesamowici w ich weryfikowaniu. Jak ktoś opublikował fałszywą informację 2000 lat temu, to do dziś w nią wierzymy. Dziś po kilku dniach, a nawet godzinach fake news jest weryfikowany i obalany jako nieprawdziwy. Wymusza to konieczność wymyślenia kolejnej fałszywej informacji i zwiększa częstotliwość ich występowania. Jeżeli jednak spojrzymy na umysł przeciętnego człowieka, to jest on wypełniony nie tylko dużo większą ilością informacji – niż miało to miejsce 10, 15 czy 100 lat temu – ale także informacją dużo bardziej rzetelną. Fałszywych informacji, którym wierzymy, jest więc znacznie mniej. Choć w naszym otoczeniu występują częściej…
Rozmawiał Adam Jadczak