Z dr Hannah Fry, wykładowcą Centrum Zaawansowanej Analizy na University College London, rozmawiamy o zaawansowanej analizie danych; matematyce miast; możliwościach współczesnych algorytmów; przewidywaniu zachowań ludzi; wykorzystaniu naszych danych przez firmy i władzy, jaką dzięki temu nad nami uzyskują; konieczności przywrócenia „kontroli” nad danymi przez użytkowników; zagrożeniach i szansach, jakie niosą algorytmy i sposoby ich stosowania.
Od zawsze tworzyliśmy przypuszczenia na temat innych osób. Nie zawsze są one trafne, ale myślę, że dane, które dziś mamy – wsparte tzw. sztuczną inteligencją czy uczeniem maszynowym – powodują, że jesteśmy coraz lepsi w naszych przewidywaniach. W dalszym ciągu nie są one poprawne w 100%, ale dokonujemy ich w sposób bardziej systematyczny i logiczny.
Na czym polega matematyka miast, którą wykłada Pani na UCL?
Prowadzę badania na temat migracji do miast, analizuję, w jaki sposób mieszkańcy korzystają z jednego z parków w Londynie… Współpracuję też z policją, zajmuję się kradzieżami i terroryzmem. Staram się np. zrozumieć, dlaczego niektóre ulice są atrakcyjne dla włamywaczy, a inne nie.
I co „przyciąga” przestępców?
Jest kilka rzeczy. Zazwyczaj lubią oni miejsca, które znają. Jeśli więc mijają jakiś dom regularnie w drodze do szkoły lub do baru, wówczas zwiększa się prawdopodobieństwo, że to właśnie tam „uderzą”.
Może zatem lepiej mieszkać na końcu świata, przy drodze, obok której nikt nie przechodzi?
W podejmowanych przez włamywaczy decyzjach zachodzą pewne zależności. Dotyczą one np. tego, jak bardzo ruchliwa jest ulica. Włamywacze lubią, gdy jest dużo ludzi dookoła, których de facto nie obchodzi miejsce, w którym się znajdują. Natomiast nie lubią, gdy są w pobliżu ludzie, którym na nim zależy. Jeśli więc to miejscowi spacerują w pobliżu, nie jest to dobre dla włamywaczy i zazwyczaj rezygnują z planów.
Podczas Pani prezentacji na SAS Forum Polska 2018 mogliśmy zobaczyć wiele przykładów na to, jak używać danych, aby np. rozwiązywać kryminalne zagadki. Czy w przyszłości tzw. sztuczna inteligencja będzie w stanie przewidzieć co zrobimy?
Myślę, że już tak jest. Problem z przewidywaniem zachowań ludzi nie jest jednak aspektem fizycznym. Nie jest tak, że ktoś rzuca piłkę i wie dokładnie, gdzie ona wyląduje. Nie można mieć stuprocentowej pewności, że ktoś coś zrobi lub tego nie zrobi. Jako ludzie, w tej chwili nie jesteśmy w stanie się tego nauczyć. Dobrym przykładem na to jest fakt, w jaki sposób sędziowie decydują o tym, czy ktoś może wyjść za kaucją, czy nie. Zasadniczo to, co robią to przewidywanie, czy dana osoba ponownie popełni zbrodnię, będąc na wolności. Jest to po prostu przewidywanie. Sędziowie – podobnie jak pozostali ludzie – nie są w tym dobrzy. Robią jednak coś więcej, niż tylko losowo podejmują decyzję. Analizują też posiadane informacje i ich kontekst. Ludzie mają wyczucie tego, co inni mogą chcieć zrobić. Powiedzmy, że przyszłam tutaj z dwiema osobami, które zostały aresztowane za popełnione przestępstwo. Jedną z nich byłby przestępca z grubą kartoteką, który ma wszystko za nic i nie widać w nim chęci poprawy. Drugą osobą byłaby np. drobna, przestraszona dziewczynka w wieku szkolnym. Gdybym zapytała, która z tych osób ponownie popełni zbrodnię, z pewnością można z dużym prawdopodobieństwem odpowiedzieć na to pytanie.
Od zawsze tworzyliśmy przypuszczenia na temat innych osób. Nie zawsze są one trafne, ale myślę, że dane, które dziś mamy – wsparte tzw. sztuczną inteligencją czy uczeniem maszynowym – powodują, że jesteśmy coraz lepsi w naszych przewidywaniach. W dalszym ciągu nie są w 100% poprawne, ale dokonujemy ich w sposób bardziej systematyczny i logiczny.
Jakich narzędzi używa Pani w swojej pracy? Czy jest to Machine Learning, Deep Learning, czy może inne algorytmy?
Używam wielu różnych technik. Uczenie maszynowe jest dobre, gdy chcesz znaleźć wzór. Z kolei modelowanie matematyczne warto zastosować, gdy chcesz zrozumieć, dlaczego odnaleziony wzór znajduje się w tych danych. Wszystko zależy od tego, co chcesz zrobić. Czasami zależy Ci tylko na odpowiedzi i na niczym więcej. Innym razem na tym, aby przyjrzeć się czemuś dokładniej i wysnuć wnioski z analizy, tak aby móc coś zmienić. Zazwyczaj jednak używam raczej modelowania matematycznego niż uczenia maszynowego. Obydwie techniki są jednak dobre, choć sprawdzają się w różnych sytuacjach.
Przedstawiciele wielu firm uważają, że zbieramy dziś mnóstwo danych, ale nie wiemy tak naprawdę co z nimi zrobić. Najważniejsze zaś jest to, aby zadać odpowiednie pytanie. Jakie pytania zadaje Pani sobie? Na SAS Forum Polska 2018 obejrzeliśmy prezentację na temat środków transportu w Londynie i zmian w ciągu doby, jakie dokonują się w zależności od tego, ile osób aktualnie korzysta z podmiejskich pociągów, metra, autobusów… Animacja wyglądała bardzo ciekawie, ale nie wiem, jakie wnioski można z tego wyciągnąć?
Wszystko zależy od tego, jakie nurtuje nas pytanie? Ludzi interesuje np.: Co się stanie, gdy coś pójdzie nie tak i jak można się na takie wydarzenie przygotować? W jaki sposób system może być nadużywany i co można zrobić, aby tego uniknąć? Jakie działania sprawdzają się dobrze? Myślę, że zawsze warto analizować to, co wygląda nietypowo i odstaje od reszty; co się stanie, gdy coś pójdzie nie tak oraz co zrobi nasza organizacja – w tym przypadku sieć transportu publicznego w Londynie – aby „przetrwać”. Jeśli ktoś prowadzi firmę i dysponuje danymi gospodarczymi, np. danymi klientów, może zadać te same pytania.
Czy w danych znajdują się ukryte historie, które mogą nas zaskoczyć?
Myślę, że tak. Zasadniczo są to właśnie te historie, które próbuję opowiedzieć…
… np. matematyka miłości? W czasie prezentacji pokazała Pani wzór na „szczęśliwe małżeństwo”. Znajdują się w nim m.in. takie zmienne, jak to, w jaki sposób osoba w związku zachowuje się sama i w towarzystwie partnera. Skąd brać takie informacje?
Tak naprawdę nie zajmuje się w swoich badaniach matematyką miłości. Pomyślałam o czymś śmiesznym do opublikowania na TEDx i to zrobiłam. Nie sądziłam, że obejrzy to 5 milionów ludzi.
Właściwie to wszystko jest zawarte w danych. Gdybym chciała się dowiedzieć jaki ktoś jest, gdy jest sam i ze swoją partnerką, powinnam nagrać go w obu sytuacjach. Następnie zaś odnotować każdy aspekt zachowania takiej osoby. Pozwoliłoby to nam zaobserwować zmiany w jej osobowości. Nieważne – pozytywnie czy negatywnie – ale z pewnością zmieniłoby się zachowanie tej osoby. Masz dane dotyczące danej osoby i kształt, w który próbujesz dopasować te informacje. Skalujesz i „obracasz” je dopóty, dopóki nie upewnisz się, że pasują do określonego kształtu, schematu, odpowiedzi…
Podczas wykładu „Być człowiekiem” pokazuje Pani, w jaki sposób dane opisują to, kim jesteśmy i jak ujawniają się nasze obawy i nadzieje. Czy te wzory – oraz historie – stają się coraz bardziej złożone i w coraz bardziej precyzyjny sposób opisane w miarę upływu czasu?
Im więcej danych otrzymujemy, tym więcej się uczymy na temat nas samych. Przyczynia się to też do poszerzenia wiedzy ogólnej, zwłaszcza jeśli chodzi o nasze nadzieje i obawy. Gdy przygotowywałam się do wykładu, zastanawiałam się nad tym, co wiedzą o nas brokerzy przetwarzający dane osobowe. Są firmy, które kupują i sprzedają nasze dane i na ich podstawie wyciągają dowolne wnioski, jakie tylko możemy sobie wyobrazić. Mają bardzo długą listę kategorii przypisanych każdej z osób. Wiedzą np. czy nasi rodzice się rozwiedli, jaka jest nasza orientacja seksualna – deklarowana i faktyczna, czy jesteśmy nosicielami wirusa HIV, czy dokonaliśmy aborcji… Mają informacje o wszystkim, co tylko można sobie wyobrazić, nawet najbardziej osobiste. Dane te zbierają m.in. na podstawie tego, co zostanie wpisane w wyszukiwarkę. Być może Rozporządzenie o Ochronie Danych Osobowych zmieni tę sytuację…
Powstały firmy, które zbierają ogromne ilości danych i dzięki temu mają bardzo dużą władzę. Na przykład Google, Facebook, Apple – chociaż ta ostatnia w nieco mniejszym stopniu – gromadzą informacje o tym, co widzimy, o czym rozmawiamy, jak przeżywamy nasze życie… I to jest w porządku. Nie czynię z nich „złowrogich” firm. Ale czy faktycznie chcemy żyć w świecie, gdzie Facebook ma więcej władzy niż tradycyjne media, które na mocy prawa mają zachować niezależność.
Co RODO będzie oznaczało dla Pani pracy? Czy jej nie utrudni?
Myślę, że jest to świetna ustawa, dzięki której władza wraca w ręce jednostki. Lekkie zamieszanie związane z jej wprowadzeniem jest warte swojej ceny, w szczególności teraz, gdy zaczęto bardzo dużo mówić o danych osobowych i sposobach ich przetwarzania przez firmy. Ludzie po raz pierwszy zdali sobie sprawę, co ich dane o nich tak naprawdę mówią i jak mogą być manipulowani poprzez ich używanie. Jest to bardzo ważne, aby ludzie mieli kontrolę nad tym, co im się przydarzy. Władza nad danymi przeszła na drugą stronę – użytkowników. Dobrze, że powróciła na właściwe miejsce.
Istnieją firmy, które kupują i sprzedają nasze dane i na ich podstawie wyciągają dowolne wnioski, jakie tylko możemy sobie wyobrazić. Mają bardzo długą listę kategorii przypisanych każdej z osób. Wiedzą np. czy nasi rodzice się rozwiedli, jaka jest nasza orientacja seksualna – deklarowana i faktyczna, czy jesteśmy nosicielami wirusa HIV, czy dokonaliśmy aborcji… Mają informacje o wszystkim, co tylko można sobie wyobrazić, nawet najbardziej osobiste. Dane te zbierają np. na podstawie tego, co zostanie wpisane w wyszukiwarkę. Być może Rozporządzenie o Ochronie Danych Osobowych zmieni tę sytuację.
Współpracuję z firmą, która – dzięki aplikacji mobilnej – wskazuje położenie najbliższego, bezpłatnego Wi-Fi. Ponieważ używasz tej aplikacji – a ona używa Twojej lokalizacji, by pomóc Ci znaleźć „otwartą” sieć bezprzewodową -musiałeś wcześniej wyrazić na to zgodę. Wszystko jest jasne. Dla naukowca informacje na temat tego, gdzie znajdują się ludzie i w jaki sposób się przemieszczają, jakie kierunki i drogi wybierają są bardzo cenne. Firma ta pozwalała nam używać tych danych. Mogliśmy dzięki temu przeprowadzić badania na temat wzorów przemieszczania się mieszkańców po Londynie. Z powodu wejścia RODO nie jesteśmy już w stanie tego zrobić bez wyraźnej zgody użytkowników aplikacji.
Nawet jeśli dane uzyskiwane od firmy, z którą współpracujecie, są anonimowe?
Nawet wówczas nie można ich wykorzystać. RODO nie pozwala nam zebrać danych w jednym celu, a następnie tych samych danych użyć w innym celu. Będą sprzeczne opinie na temat tego zapisu, ale myślę, że ogólnie jest to tego warte.
Będzie Pani dużo trudniej przeprowadzać swoje badania?
Nie sądzę. Ale będziemy musieli za każdym razem prosić o zgodę na wykorzystanie ich danych w badaniu. Nie powinno to stanowić problemu, jak wtedy, gdy przygotowywałam program brytyjskiej telewizji. Poprosiliśmy wówczas widzów, aby podali nam swoje dane. Chodziło o analizę tego, jakie skutki miałaby pandemia grypy. Jak wiele ofiar by przyniosła. Uczestnicy badania ściągali aplikację na telefon, a my za jej pośrednictwem rozprzestrzenialiśmy „wirusa grypy” w całym kraju. Poprosiliśmy widzów, aby podpisali zgodę na udział w tym eksperymencie w tym samym tygodniu, gdy zaczęło być głośno o RODO. Byliśmy więc bardzo zdenerwowani, czy nasze badanie się powiedzie. Tymczasem w ciągu jednej nocy dziesiątki tysięcy ludzi zgodziło się nam pomóc. Ludzie – jeśli tylko wyjaśni się im do czego ich dane będą używane i w jaki sposób może na tym skorzystać społeczeństwo – są bardziej chętni do tego, aby je udostępniać. Nie sądzę, aby istniało ryzyko, że RODO uniemożliwi wszystko, choć powinniśmy być bardziej szczerzy i głośno mówić o tym, gdy używamy danych osobowych.
Czy zmieniamy się w cyfrowych ludzi, mierząc każdy aspekt naszego życia? Na przykład aplikacja Life Cycle zapisuje to, kiedy: spaceruję, śpię, biegam, pracuję, spędzam czas ze znajomymi…
Wszystko, co tylko może być zmierzone, jest dziś mierzone. Istnieją jednak ograniczenia w tym, co technologia może zrobić. W dalszym ciągu są rzeczy, których nie można zastąpić technologią, np. sztuka. Wiele kwestii związanych z „rejestrowaniem” naszej aktywności czy osiągnięć sportowych wynika bardziej z ciekawości. Niekoniecznie jesteśmy przez to mniej ludzcy.
Pracuje Pani z ekspertami z zakresu fizyki, matematyki, informatykami, geografami… Jaki wpływ mają oni na Pani badania?
Kiedyś istniały ścisłe granice pomiędzy poszczególnymi dyscyplinami naukowymi. Byłeś matematykiem, fizykiem, geografem. Zostały wyznaczone jakieś 200 lat temu. Wówczas jednak dyscypliny te nie były takie, jak są obecnie. Nie sądzę też, aby te granice były zawsze pomocne. Podczas wykładu przedstawiłam przykład śledztwa dotyczącego seryjnego mordercy, mordercy, który był lekarzem. Musieliśmy połączyć w tym przypadku nie tylko wiedzę z zakresu kryminologii i geografii, lecz także matematyki, statystyki, a nawet informatyki, by na koniec wszystko zaprogramować. Trudno sobie wyobrazić, aby za taką analizą stała tylko jedna osoba, specjalizująca się tylko w jednej dyscyplinie naukowej. Tak więc w Centrum Zaawansowanej Analizy na University College London, w którym pracuję, są różni naukowcy, z różnymi umiejętnościami.
Wracając do śledztwa dotyczącego seryjnego mordercy, czy próbowaliście Państwo dowiedzieć się, które ze śmierci pacjentów tego lekarza były zaplanowane, a które naturalne?
Jego pacjentami zazwyczaj byli ludzie w podeszłym wieku. Morderca podawał im zastrzyk, po którym umierali. Lekarz ten następnie przekazywał rodzinie informację, że odeszli w spokoju. Nikt tego nie sprawdzał dopóty, dopóki zbyt duża liczba śmierci nie wzbudziła podejrzeń. Analizując dane, staraliśmy się dowiedzieć, które z nich były naturalne, a które zaplanowane.
Czy policja mogła użyć tych danych jako dowodu?
Dokładnie tak. Policja przeanalizowała dane wszystkich pacjentów, którzy zmarli i tych, którzy przeżyli wizytę w gabinecie tego lekarza. Dane te porównali z informacjami z innych gabinetów. W ten sposób udało się zaprezentować odchylenia od normy, wskazujące na celowe działanie seryjnego mordercy. Powód, dla którego wymieniłam ten przykład, jest taki, że metoda wykorzystana w tym śledztwie była też używana w innych sprawach.
W najnowszej książce „Witaj świecie” podkreśla Pani, że algorytmy coraz bardziej definiują i kształtują naszą przyszłość. Przyszłość naszego społeczeństwa czy człowieczeństwa?
Analityka i sztuczna inteligencja zmieniają wszystko – począwszy od tego, w jaki sposób wybieramy polityków, poprzez system sądownictwa i system opieki zdrowotnej, aż po edukację. Wszystko zmienia się tak szybko, że dziś tak naprawdę nie wiemy, jakie obowiązują zasady i jakie chcemy, aby one były. W wraz z tym nieuchronnie zmieniamy się jako ludzie, zmieniają się też nasze oczekiwania w stosunku do tego, jak się będziemy komunikować z innymi ludźmi, w jaki sposób będziemy przeżywać nasze życie. Jak np. jestem całkowicie uzależniona od mojego smartfona, co chyba zaszło za daleko. Wszystko się szybko zmienia, na zawsze.
W jaki więc sposób zmienia się współczesne społeczeństwo?
Zasadniczo zmieniło się to, że powstały firmy, które zbierają ogromne ilości danych i dzięki temu mają ogromną władzę. Na przykład Google, Facebook, Apple – chociaż ta ostatnia w nieco mniejszym stopniu – zbierają informacje o tym, co widzimy, o czym rozmawiamy, jak przeżywamy nasze życie… I to jest w porządku. Nie czynię z nich „złowrogich” firm. Ale czy faktycznie chcemy żyć w świecie, gdzie Facebook ma więcej władzy niż tradycyjne media, które na mocy prawa mają zachować niezależność.
W USA są jednostki policji, które używają algorytmów do tego, aby spróbować przewidzieć to, gdzie nastąpi kolejna zbrodnia. Analizują w tym celu informacje o określonych obszarach miasta. Jeśli zostaniesz zaaresztowany, ponieważ algorytmy wyślą policję do Twojego sąsiedztwa, to można uznać, że osoby – w których rękach znajduje się ten algorytm – mają zbyt dużą władzę. Zapobieganie zbrodni samo w sobie nie jest złe, ale musimy podjąć decyzję, czy pozwolić komukolwiek, kto ma te algorytmy i dane, posiadać taką władzę. Moim zdaniem, oddaliśmy zdecydowanie za dużo władzy nad sobą.
Z kolei w USA są jednostki policji, które używają algorytmów do tego, aby spróbować przewidzieć to, gdzie nastąpi kolejna zbrodnia. Analizują w tym celu informacje o określonych obszarach miasta. Jeśli zostaniesz zaaresztowany, ponieważ algorytmy wyślą policję do Twojego sąsiedztwa, to można uznać, że osoby – w których rękach znajduje się ten algorytm – mają zbyt dużą władzę. Zapobieganie zbrodni samo w sobie nie jest złe, ale musimy podjąć decyzję, czy pozwolić komukolwiek, kto ma te algorytmy i dane, posiadać taką władzę. Moim zdaniem, oddaliśmy zbyt dużo władzy nad sobą. Musimy usiąść i zastanowić się, czy chcemy, aby tak było?
Powinniśmy więc zachować nasze dane wyłącznie dla siebie, czy dzielić się nimi z tak wieloma firmami, jak tylko to możliwe, aby zdemokratyzować dostęp do nich?
Ja trzymam swoje dane wyłącznie dla siebie. Jestem bardzo ostrożna w kwestii ich udostępniania. Jednak nie sądzę, abyśmy całkowicie przestali dzielić się informacjami na swój temat. Chodzi raczej o publiczną dyskusję w tej kwestii. Schodzimy do nudnych tematów, takich jak regulacje, ale uważam, że to jest to, czego właśnie potrzebujemy. Potrzebujemy zachęty, aby nadrobić zaległości w świecie, jaki dała nam technologia.
Udostępniając nasze dane – np. zdjęcia naszych twarzy – możemy jednak wykrywać potencjalne objawy groźnych, potencjalnie śmiertelnych chorób… Czy to nie powinno nas przekonać do większej otwartości?
To naprawdę trudne pytanie, bo dotyczy opieki zdrowotnej. Mamy dwie opcje do wyboru: albo oddajemy wszystko – całą naszą kartę pacjenta – za każdym razem, gdy idziemy do lekarza. Nasze dane zapisane są w jakimś zbiorze i każdy lekarz może mieć do nich dostęp. Albo możemy zatrzymać dane tylko dla siebie, ale nie „czerpiemy” z tego żadnych korzyści. To naprawdę trudny wybór. Nie ma na to jasnej odpowiedzi. Są jednak państwa – takie jak Islandia – w których przekazano „władzę” nad danymi medycznymi w ręce jednostki. To pacjent – a nie lekarz – jest w posiadaniu danych. Idąc do lekarza, pacjent przynosi je ze sobą. W Niemczech także istnieją elektroniczne karty, na których zapisane są dane medyczne. Lekarz może mieć wgląd do historii choroby, ale same dane należą do nas. Taka sytuacja jest dobra również dla naukowców. Gdy chcesz zebrać dane, aby przeprowadzić jakieś badanie naukowe, możesz poprosić o nie ludzi, nie zabierasz ich bez ich wiedzy.
Powinniśmy bać się dużych, prywatnych firm, które mają ogromną władzę i nie działają w najlepszym dla nas interesie. Działają bowiem dla zysków, a nie dla dobra społeczeństwa. Uważam, że powinniśmy bać się tego, że władza zostanie zabrana wybranym przez nas rządom. Powinniśmy też obawiać się systemów działających na bazie algorytmów i danych, od których nie można się odwołać. Jeśli algorytm podejmuje decyzje o nas, nie możemy zadawać mu pytań ani się z tym kłócić. Tymczasem tak jest w przypadku podejmującego decyzje człowieka. Boję się również faktu, że ludzie uważają algorytmy za perfekcyjne i myślą, że skoro pochodzą od maszyny, to znaczy, że muszą być prawidłowe.
Z kolei w Wielkiej Brytanii dane medyczne nie są w ogóle przechowywane w formie elektronicznej. Nie można więc ich nikomu udostępniać. Nie ma ich w żadnym komputerze. Znajdują się po prostu w papierowej kartotece w każdej z jednostek opieki zdrowotnej, w której kiedykolwiek byliśmy leczeni. Gdy zatem w Wielkiej Brytanii idziesz do szpitala, lekarze nie mają dostępu np. do danych lekarza rodzinnego. Niedawno 13-letnia dziewczyna, Tamary Mills, zmarła, ponieważ lekarze nie mieli dostępu do danych o astmie, na którą chorowała. System wydaje się szalony, ponieważ nawet badający nas lekarz nie ma dostępu do naszych danych. Z drugiej strony, brytyjski szpital chciał stworzyć aplikację wykorzystującą algorytmy sztucznej inteligencji. Miała ona – na bazie zebranych danych o pacjentach –- przewidywać, jakie jest prawdopodobieństwo urazu nerki u danej osoby. Nie wiedzieli, jak to zrobić, więc… przekazali wszystkie dane pacjentów w ręce prywatnej firmy, łącznie z informacjami o tym, czy chorują na HIV, czy mieli styczność z narkotykami… Firma ta wiedziała o nich dosłownie wszystko. Pacjentom nie dano wyboru, nie mogli zdecydować, czy chcą udostępnić dane.
Firmy ubezpieczeniowe z pewnością chciałyby mieć dostęp do danych na temat naszego zdrowia…
To kolejny ważny punkt. Najgorsze jest sekwencjonowanie DNA oferowane przez takie firmy, jak: 23andMe.com, ancestry.com czy myheritage.com. Ludzie wysyłają im próbkę swojego materiału genetycznego do analizy, aby dowiedzieć się, kim byli ich przodkowie. Gdy dokonamy sekwencjonowania DNA, możemy wykryć także wady genetyczne, z czym związane jest ryzyko zachorowania na groźne choroby. Co prawda, jeśli z twojego DNA wynika, że masz predyspozycje do raka piersi, ubezpieczyciel nie może wykorzystać tych danych przeciwko nam. Ale może to już zrobić w przypadku udzielenia ubezpieczenia na życie. Mogą nam go odmówić. Jeżeli dane na temat naszego zdrowia byłyby więc powszechnie dostępne, to czy nie będziemy inaczej traktowani przez ubezpieczycieli? Prawdopodobnie tak, a to nie jest już w porządku. Podobnie może być z danymi zbieranymi przez Life Cycle, z którego może wynikać np., że prowadzę niezdrowy tryb życia. Ciekawe jest zobaczyć siebie w obiektywie danych. Miliony ludzi to robi. Martwię się tylko o ubezpieczenie na swoje życie…
Czy powinniśmy zatem bać się danych i algorytmów?
Nie, jeśli ludzie się obudzą (śmiech). Myślę, że są dwie możliwe drogi i dziś jesteśmy trochę na ich rozstaju. Ale myślę też, że RODO jest dobrym kierunkiem. Powinniśmy więcej rozmawiać na ten temat, bo naprawdę jest się czego obawiać.
Czego powinniśmy się obawiać?
Powinniśmy bać się dużych, prywatnych firm, które mają ogromną władzę i nie działają w najlepszym dla nas interesie. Działają bowiem dla zysków, a nie dla dobra społeczeństwa. Uważam, że powinniśmy bać się tego, że władza zostanie zabrana wybranym przez nas rządom. Powinniśmy też obawiać się systemów działających na bazie algorytmów i danych, od których nie można się odwołać. Jeśli algorytm podejmuje decyzje o nas, nie możemy zadawać mu pytań ani się z tym kłócić. Tymczasem tak jest w przypadku podejmującego decyzje człowieka. Boję się również faktu, że ludzie uważają algorytmy za perfekcyjne i myślą, że skoro pochodzą od maszyny, to znaczy, że muszą być prawidłowe. W przypadku ludzi nie mamy jednak do czynienia z problemem natury fizycznej. Mimo że dobry będzie algorytm i poprawne dane zebrane na nasz temat, zawsze będą zdarzały się błędy. Ważne jest to, w jaki sposób radzimy sobie z nimi, jak reagujemy na to, że popełnić je może coś – algorytm – który wygląda na bardzo inteligentny.
Jakie korzyści może przynieść nam wykorzystanie algorytmów?
Pozytwną kwestią jest potencjał do rozwiązania wielu palących problemów na świecie, takich jak: głód, ubóstwo, brak dostępu do wody i pożywienia, zanieczyszczenie środowiska, zasadniczo każdego problemu, z jakim ludzkość się dziś boryka. Mamy potencjał, aby dokonać ogromnej, pozytywnej zmiany dzięki zastosowaniu nowoczesnych technologii.
Rozmawiał Adam Jadczak