Technologia cyfrowa angażuje człowieka na zasadach i z konsekwencjami, których on często nie rozumie. Nie rozumie, bo nie chce, bo tak jest lepiej dla tych, którzy na tym zarabiają, bo stanowi składnik inwigilacji czy jest dość zawiła, jeśli szukać mechanizmów ją tworzących i napędzających. Są książki dla opornych, psychologiczne, filozofujące, poradnikowe, które pouczają, napominają, wyczulają – by zniechęcić lub zachęcić do uczestnictwa w świecie informacji bitowej. Jak bezpiecznie i zdrowo funkcjonować w tej XXI-wiecznej wiosce z treściami serwowanymi w telefonach, z pracującymi w tle systemami kontrolującym nasze życie? Psycholog i badacz stosunku ludzi do cyfryzacji Gerd Gigerenzer, posiadając doświadczenie w pracy nad dostosowaniem regulacji informatycznych dla naszego dobra, napisał „Zdrowy umysł w sieci algorytmów” by skrajności – strach i zachwyt – sprowadzić do zdrowego poziomu. Uznał, że lepiej poinformowany użytkownik będzie krytyczny, gdy trzeba, ale i otwarty na dobrodziejstwa. Książka została napisana językiem psycho-socjologii z punktu widzenia konsumenta i uczestnika rewolucji informatycznej. Wyraźnie dzieli się na dwie części. Pierwsza, bardziej teoretyczna, to próba zdefiniowania samej sztucznej inteligencji (AI), opis technik stosowanych w informatyce, określenie pól jej wykorzystania i wypunktowanie ograniczeń funkcjonalnych. Druga część, to głównie praktyczna dyskusja nad konsekwencjami rozpychania się samej technologii w naszej codzienności. Zdecydowanie lepiej oceniam część drugą, bo w pierwszej raziła skrótowość i dla mnie nieakceptowane uproszczenia. Całość, to ciekawy głos w ważnej dyskusji.
Najpierw minusy, by ‘mieć je z głowy’ i pod koniec opowiedzieć o plusach uzasadniających ostateczną dobrą notę. Gigerenzer zakłada (w sposób zawoalowany, np. str. 82,101) zasadę, że ludzka inteligencja/umysł/świadomość to niemożliwy do ‘rozpisania’ na fizykalne składowe fenomen. Do tego sprowadza proces budowania znaczenia o doświadczanej rzeczywistości do czegoś definiowalnego wyłącznie przez ludzki sposób percepcji. W efekcie wyciąga wniosek, że ukierunkowana na konkretny sposób interakcja maszyna-człowiek oferuje nieprzekraczalne ubóstwo płytkiego żonglowania danymi. A przecież AI jest tak modelowane, by spełniało nasze kulturowe potrzeby. Niezależnie od tego, czy ‘ziemskie maszyny’ po wieki pozostaną ‘głupie’ w rozumieniu człowieka, czy czeka nas ‘osobliwość’ Kurzweila i jakaś ‘dominacja terminatorów’, z samego faktu niespełniana/nierozumienia naszych społecznych artefaktów przez AI, nie wynika że górujemy i będziemy górować nad ‘krzemowymi mózgami’. Jeśli psycholog pisze: „program nie wie, że gra w coś, co nazywamy szachami”, to na kilku poziomach należy dokonać licznych założeń (już nawet nie chodzi o uzgodnienie znaczenia słowa ‘wiedzieć’, co może wyczerpać intelektualnie). Wszystkie warstwy niezbędne człowiekowi do ustalenia sensu aktywności szachowej – od definicji językowej, procesu mechanicznej manipulacji, rozumienia struktury i formy bierek do istoty przyjemności zabawy i sensu przewidywania ruchu w możliwych alternatywach – to składowe umowy społecznej, z których tylko ostatnią zaszczepiamy maszynom, bo pozostałe im są zbędne (w rozumieniu ludzkich potrzeb). To nie znaczy jednak, że nie dałoby się rozbudować AI o inne subiektywizacje budujące proces ‘grania w szachy’. Analizując blaski i cienie maszynowego tłumaczenia tekstów (str. 131-138) psycholog rozważa intuicję. Brakuje jej maszynom (znów - w rozumieniu naszych potrzeb), bo niełatwo ją ‘implementować’ w postaci takiej, jak oczekujemy, ale to jest jeszcze dalekie od radykalnego stwierdzenia, że obiektywnie sobie nie radzi z niuansami, idiomami, kontekstem. Jak rozumiem proces poznawczy zachodzący w głowie człowieka, to polega on na przyswajaniu, dopowiadaniu, korzystaniu z wszystkiego, co bodźce wcześniej nam zaaplikowały. Nie ma w tym magii, która separuje nasz gatunek od maszyny nieodwołalnie i na wieki. No i na koniec o perspektywie. Wyliczone potknięcia AI (np. trudności z odczytaniem treści i sensu obrazka), pozbawione niuansów prezentowanie efektu zastosowania algorytmów itd., to nie tylko problem poznawczego ubóstwa komputera. Tak, jak człowiek czasem wyłapie dziecinne błędy AI, tak on sam jest generatorem błędów, które tej ostatniej się nie zdarzają.
Ciekawy jest przewijający się w książce leitmotiv pozycjonujący użyteczność AI i granice jej obecnego sensownego zastosowania. Gigerenzer opisując automatyzację (samochody), zastosowania w medycynie (wstępna analiza dolegliwości pacjenta) czy analizę przyszłości makroekonomicznych wskaźników, odwołuje się do pojęcia ‘stabilności systemu’. W przypadku samochodów bez kierowcy oznaczałoby to, że niezbędna byłaby optymalizacja infrastruktury jezdni niwelująca losowe czynniki zagrażające człowiekowi (które on sam też generuje). Psycholog jest sceptyczny wobec ‘teslowych planów’, by udało się niedługo wyeliminować człowieka-kierowcę. Sam uważam, że całość dobrze by działała, gdyby wszystkie samochody były automatyczne i ruch odbywałby się bez możliwości kolizji z pieszymi. Autor rozważa przypadek zawiły prawnie, gdy osoba zginęła pod kołami testowego pojazdu, w którym tester jednostki akurat przestał obserwować drogę by zająć się smartfonem. Nie ma idealnych rozwiązań, do tego należy ustalić czy są szanse na zmniejszenie liczby wypadków, a nie na szali kłaść precedensowy przypadek i luki prawne, pomijając tysiące osób, które giną pod kołami samochodów prowadzonych przez człowieka. Inaczej będzie się wspierać demagogię wybiórczego stosowania umoralniających narracji, które pozbawione szerokiego kontekstu są mniej wartościowe od zwykłego teoretyzowania. Zauważyłem również, że psycholog bardzo karkołomnie i według mnie niepoprawnie diagnozuje dyskryminację. Ponieważ to temat poboczny, to rozwijam problem w przypisie. (*)
Zdecydowanie lepiej wypadły te fragmenty, w których psycholog analizuje korporacyjnych potentatów informatycznych kupujących naszą uwagę w pozornie darmowych aplikacjach. Mechanizmy ogłupiania, budowania w nas wzmocnień dopaminowych, by z milionerów robić miliarderów, to wałkowany problem korporacji IT. Gigerenzer zwraca uwagę na detale, które formują patologiczny świat, w którym użytkownik-konsument coraz bardziej budzi się w świecie orwellowskim (str. 197):
„Łącząc się z Internetem, wchodzimy w świat nieświadomej zgody. Jednocześnie sądy uznają naszą winę niezależnie od tego, czy przeczytaliśmy warunki korzystania z usług. To znaczy prawodawca oczekuje, że konsumenci będą czytać umowy, ale dostawcy usług nie mają żadnego obowiązku pisania ich zrozumiałym językiem.”
Z badań wynika, że umowy (jako wymóg zaakceptowania ich treści przed rozpoczęciem korzystania z serwisu) są z kolejnymi latami coraz dłuższe, a mechanizm wybiórczego zaakceptowania stopnia inwigilacji przez ciasteczka tak zniechęcający do świadomego przejścia całej procedury, że słusznie środowiska pro-konsumenckie wskazują na intencjonalną zawiłość i uciążliwość. Opisując iluzoryczność naszej prywatności w Internecie (str. 213-242), profesor w kilku przykładach uświadamia tak zwanemu Zachodowi, że Chiny przynajmniej oficjalnie i na poziomie zasad funkcjonowania państwa deklarują inwigilację. W przypadku demokracji, kapitalistyczna inwigilacja jest zawoalowana, choć nie mniej detaliczna i skuteczna. Opisując biznesowy model oparty na inwigilacji, pokazuje problemy społeczne, które cynicznie wzmacniają korporacje internetowe skupione wprost na zysku z reklam wycenianych na podstawie aktywności ludzi. Szara strefa, za którą stoją wielkie i realne pieniądze, prowadzić może do trudnych do wyobrażenia sobie przed dekadami sytuacji (str. 226):
„Gdy użytkownicy płacą swoimi danymi, a nie pieniędzmi, odmowa przekazania danych osobowych mogłaby być uznana za kradzież.”
Istnieją badania, z których wynika niewielka korzyść z wdrażania personalizowanych reklam (st. 312, 318). Jednak cała machina uczestników w procesie budowania zysku – od platform tworzących aplikacje zbierające dane, poprzez reklamodawców i producentów oprogramowania do inwigilacji – wszyscy wspierają ten kierunek, bo ‘karmią się’ czasem i uwagą miliardów użytkowników. Do tego niechętnie uwzględnia się koszty społeczne czy dobrze uzasadniony słupek z parametrem na prezentacji dla zarządu, który odstaje od zaplanowanego wzrostu.
Analizując bardzo pesymistyczną alternatywę przyszłości człowieka w świecie cyfrowym, psycholog szybko przechodzi od zjawisk uzależnienia jednostek do upadku systemów demokratycznych, które znamy. Jest w tym porażająco nieciekawa prognoza (str. 257):
„Masowa inwigilacja wytworzy wiele błędnych danych i fałszywe oskarżenia, ale gdy system się utrwali, ludzie przyzwyczają się do tych problemów i nauczą się znajdować rozwiązania. Z pomocą przyjdzie nowomowa, która przeobrazi umysły. Inwigilacja to bezpieczeństwo. Wolność to zagrożenie. Ostatecznie większość obywateli uzna nowy autokratyczny świat za sprawiedliwy i wygodny, za wyraz postępu ekonomicznego i bezpieczeństwa, a nie utraty wolności.”
To właśnie media społecznościowe uznaje profesor za kluczową sferę aktywności człowieka, prowadzącą ‘w objęcia Orwellowskiej przyszłości’, a która nieuchronnie wciąga, bo spełnia sporo potrzeb ewolucyjnie nieodzownych człowiekowi. Triki uzależniające (str. 264-274) to bardzo dobre podsumowanie istoty uzależniania, które trudno zatrzymać. Kilka porad praktycznych – to zaledwie wstęp, który jednak mógł być nieco bardziej rozbudowany. Zupełnie praktyczne porady bardzo ciekawie podsumował autor analizując problem prawdy w Internecie. Istnieją bardzo proste mechanizmy odfiltrowywania fake-news od wartościowych treści (str. 326-327), które warto zapamiętać.
„Zdrowy umysł w sieci algorytmów” to ciekawy zbiór obserwacji aktualnego stanu relacji człowiek-maszyna. Początkowe rozdziały, zbudowane na zasadzie uproszczonej konfrontacji, wypadły średnio. Proponuję potraktować je raczej jako zestaw hipotez, które mają alternatywne i bardziej wysublimowane wyjaśnienia. W miarę rozwoju narracji, okazuje się, że cały problem z AI wyniki z faktu, że chodzi o relacje człowiek-człowiek, a algorytm jest skutecznym narzędziem do budowania zysku w modelu opartym na zachętach kierowanych do miliardów jednostek, które nieświadomie godzą się na utarty części praw. Gigerenzer uświadamia czytelnikowi głębię i nieuchronność konceptu wirtualnego ‘splątania krzemu z węglem’ jaskrawymi przykładami z naszej codzienności. Czasem to patologia, czasem piękna pomoc i wyręczanie ludzi z powtarzalnej i uciążliwej pracy. Dodatkowo zachęca do namysłu, świadomego samoograniczenia, do zawalczenia o wysiłek i używanie mózgu, nawet wbrew ofertom zdania się na serwery chłodzone gdzieś tam w podziemiach. One powinny służyć nie tylko tym, którzy formalnie je zbudowali, ale i tym, którzy idą na kompromis z pędzącym światem i oczekują większej jawności. Książka napisana jest dość podstawowym językiem. Grafiki (niektóre zabawne, jak przy opisie Big Data, która pozwala na ‘wydobycie’ absurdalnych korelacji spośród ogromnych zasobów – np. spożycie czekolady na obywatela w różnych krajach a liczba laureatów Nagrody Nobla, czy liczba rozwodów w stanie Main a spożycie margaryny w USA na osobę). Psycholog jest realistą i słusznie zakłada, że potrzeba sporo pracy u podstaw, by cywilizacja ludzka nie utraciła czegoś ważnego w wyniku rewolucji informacyjnej.
* Na stronie 190 dyskryminacją nazywa autor mechanizm identyfikacji obrazu: „system klasyfikacji obrazów Google’a potrafi zidentyfikować ciemnoskórą parę jako ‘goryle’”. Oczywiście chodzi o parę ludzi. ‘Dyskryminująco-twórcza’ jest być może ludzka kultura równościowa i w konsekwencji postawa oburzenia. Jednak sam algorytm nie dyskryminuje. Fakt, że w obszarze międzyzwrotnikowym mieszkają z reguły ludzie o ciemnej karnacji, która na poziomie pikseli zdjęć przypomina czarny kolor skóry innych naczelnych, to nie jest dyskryminacja. Trochę bardziej zawiłe, ale pokazujące również problem z nieodpowiednim moralnym umiejscawianiem źródła uprzedzenia, są zdania na str. 194:
„(…) sieć może zwiększyć dyskryminację. Przypuśćmy, że sieć wie tylko tyle, iż dwie trzecie osób gotujących to kobiety, Aby osiągnąć jak najlepszy wynik /w analizie płci na podstawie aktywności osób na zdjęciach/, mogłaby przyjąć, że każda osoba gotująca jest kobietą, co oznacza, że dwie trzecie odpowiedzi byłoby poprawnych. To oczywiście maksymalnie pogłębiłoby uprzedzenia. By tego uniknąć, sieć mogłaby losowo zgadywać, że osoba gotująca jest kobietą w przypadku dwóch trzecich zdjęć, a mężczyzną w przypadku jednej trzeciej.”
Mechanizm statystyczny, w którym algorytm stosuje prawdopodobieństwo ważone nie jest dyskryminacją. To wymagający ludzkiego namysłu fakt. Maszyna działa tu jak nauka – opisuje jak jest, a człowiek decyduje jak ma być i stara się (powinien) wyciągać wnioski. Stąd nie rozumiem w tym przykładzie jak AI przyczynia się do dyskryminacji? Na wejściu jest człowiek (jako programujący algorytm) i na wyjścia też (jego statystyczne nierównowagi, gdzie lenistwo mężczyzn pozwala im na unikanie prac kuchennych).
Wyobraźmy sobie, że pewna kawiarnia pozbyła się całej konkurencji przez to, że oferuje darmową kawę, więc nie mamy innego wyboru niż umawiać się właśnie tam. Podczas gdy rozkoszujemy się miłymi rozmo...
Wyobraźmy sobie, że pewna kawiarnia pozbyła się całej konkurencji przez to, że oferuje darmową kawę, więc nie mamy innego wyboru niż umawiać się właśnie tam. Podczas gdy rozkoszujemy się miłymi rozmo...
Gdzie kupić
Księgarnie internetowe
Sprawdzam dostępność...
Ogłoszenia
Dodaj ogłoszenie
2 osoby szukają tej książki
Pozostałe recenzje @Carmel-by-the-Sea
Eden, gdzie rządzi AI(*)
Sztuczna inteligencja nie działa, gdy dziecko wyjmie jej wtyczkę z prądem. Ale wciąż zostaje człowiek zwabiony jej powabem. A to już nie tak łatwo zdematerializować. Moż...
Człowiek uwielbia opowieści. Nikt tak pasjonująco o przyrodzie nie opowiada jak David Attenborough. Nie tylko Jego filmy są świetne. Pisze równie ciekawie. Zaktualizowan...