Czy sztuczna inteligencja nam zagraża?

O tym, jak pozostać człowiekiem, sztuce krytycznego myślenia w świecie zdominowanym przez sztuczną inteligencję, samoprowadzących się samochodach, emocjach robotów i zagrożeniach cywilizacyjnych Monice Godziembie-Dąmbskiej opowiada prof. filozofii Uniwersytetu Papieskiego Jana Pawła II w Krakowie, Paweł Polak.

Czym jest sztuczna inteligencja?

Sztuczna inteligencja jest pojęciem, które zostało wprowadzone w obrębie nauk technicznych. To nazwa dla zbioru różnorodnych technik służących do rozwiązywania skomplikowanych zagadnień sterowania, podejmowania decyzji itp. Natomiast z filozoficznego punktu widzenia trzeba uznać, że do dzisiaj nie ma zgody, czym jest inteligencja. Jeżeli chcielibyśmy rozumieć sztuczną inteligencję jako próbę odtworzenia inteligencji, to zamykamy się w błędnym kole pojęć, to zatem zła droga do definiowania sztucznej inteligencji.

Czy sztuczna inteligencja może pomóc nam w podejmowaniu najbardziej trafnych wyborów, korzystnych rozwiązań?

Systemy sztucznej inteligencji bywają w takich zastosowaniach bardzo skuteczne i przydatne. Przykład – diagnoza lekarska. W złożonym przypadku lekarz ma do czynienia z bardzo skomplikowaną sytuacją, ponieważ wiele chorób może dawać podobne objawy, więc musi on skutecznie różnicować choroby, żeby postawić trafną diagnozę. Aby wypracować odpowiednie rozpoznanie, musi mieć więc ogromny zasób wiedzy. Wiedzy medycznej zaś ciągle przybywa. Żaden lekarz nie jest już w stanie przeczytać każdej pracy na temat wszystkich chorób, zatem żaden z nich nie ma pełnej wiedzy, która jest obecnie zgromadzona przez ludzkość. Ogranicza to możliwość ulepszania celności diagnoz, mimo istnienia potencjalnie dostępnej wiedzy. Co więcej, diagnozy muszą być stawiane w relatywnie krótkim czasie. W związku z tym postanowiono stworzyć system wspomagający diagnostykę lekarską. Komputer z właściwym oprogramowaniem jest w stanie z bazy danych artykułów gromadzić wiedzę na temat różnych chorób i używać jej do diagnozowania. Wykonuje on bardzo zaawansowane czynności intelektualne. Dlatego jego skuteczność okazała się większa niż bardzo dobrych specjalistów.

Czy powinniśmy obawiać się ograniczenia zdolności człowieka do krytycznego myślenia?

Wszystkie narzędzia informatyczne wchodzą w jakiś sposób w bardzo głębokie interakcje z naszym sposobem myślenia. Mówi o tym tzw. teza Davida Boltera, głosząca, że technologie kształtują nasze myślenie. Kiedy projektujemy systemy informatyczne, to trzeba rozróżnić cele, które ma użytkownik, od celów, które mają projektanci danych urządzeń. Cele te nie zawsze są zbieżne. Prowadzi to do tego, że nieświadomie jesteśmy manipulowani przez technologię. Jednym z przykładów jest zjawisko nazywane „porywaniem świadomości”. Większość użytkowników używa już smartfonów – te niewinnie wyglądające urządzenia potrafią jakże często wywoływać w użytkownikach obsesyjne odruchy zerkania do niego średnio co 5 min… Do książki kucharskiej raczej nie będziemy tak często zaglądać. To by wyglądało dziwacznie. Natomiast nikogo nie dziwi to, że smartfon zmusza nas do tego, żeby pukać w jego szybkę co chwilę. Są pewne techniki projektowania, które powodują, że uzależniamy się od technologii. To jest jedno z zagrożeń dla krytycznego myślenia. Technologia w sposób dla nas nieuświadomiony zaczyna nami manipulować. Bardzo często się temu poddajemy i tracimy w pewnej mierze wolność krytycznego myślenia.

W jakich dziedzinach życia jawi się najwięcej zagrożeń związanych z gwałtownym postępem technologicznym?

Niestety, istnieją one wszędzie. Jesteśmy podatni na uzależnianie się od pozytywnych bodźców i wszędzie tam, gdzie takie bodźce mogą się pojawiać, może nastąpić uzależnienie. Możemy się również zwalniać od pewnych świadomych czynności intelektualnych na rzecz maszyn. Niekiedy jest to pomocne, ale może też prowadzić m.in. do magicznego podejścia do technologii. Wielu użytkowników bezkrytycznie wierzy programom i robotom, zwykle nie mając świadomości, jakie mechanizmy za nimi stoją. Użytkownik może uznać, że ma do czynienia z ukrytą rzeczywistością, która w jakiś cudowny sposób generuje zawsze dobre odpowiedzi. W XXI wieku odradza się typowe myślenie w kategoriach magicznych. Innym ogromnym zagrożeniem jest to, że każdy program ma błędy (śmiech). Nasze zaufanie powinno być więc ograniczone. Natomiast trudno sobie wyrobić takie ograniczone zaufanie, jeżeli nie wiemy, co dzieje się w komputerze lub w robocie. Sprawa może być poważna z jeszcze jednego powodu. Dotyczy ona sytuacji, w której takie samo podejście mogą mieć również inżynierowie projektujący mosty. Dzisiaj programy, które doskonale liczą i pozwalają optymalizować pewne rzeczy, traktowane są jako magiczna wyrocznia.

Co z samoprowadzącymi się pojazdami? Stanowią realne zagrożenie na drodze?

Samoprowadzący się samochód jest jednym z najtrudniejszych do zbudowania autonomicznych robotów, dlatego że mamy tutaj do czynienia z szybko zmieniającym się otoczeniem, w którym czyha nań wiele niebezpieczeństw. Jeśli chodzi o samoloty – zostały ustalone pewne sztywne reguły ruchu, które powodują, że zaprojektowanie autopilota jest zadaniem łatwiejszym od skonstruowania samoprowadzącego auta. W przypadku jazdy samochodem musimy zakładać, że np. wielu uczestników ruchu drogowego może się nie stosować do ogólnie przyjętych reguł. Przykładem jest dziecko, które wtargnie na jezdnię, bo akurat wyrwało się rodzicom. System musi zatem bardzo szybko podejmować decyzje, analizując ogromne ilości danych. Jest to wyzwanie dla automatyki.

Zastanawiając się nad niebezpieczeństwami związanymi z takimi samochodami, warto porównywać je do statystycznego kierowcy, np. w Polsce. Takie zestawienie z realnymi zagrożeniami pokazuje, że samoprowadzące się samochody są bezpieczniejsze, mimo że miewają wypadki. Nie powinniśmy wnioskować z jednego tragicznego przypadku o wartości całej technologii. Warto zastosować metodykę znaną z awiacji. Mówi ona, że przypadki takie powinny być ściśle analizowane, aby ulepszać autonomiczne samochody i zwiększać bezpieczeństwo ich użytkowania.

Samoprowadzące się samochody są bardzo interesujące. Do ich projektowania zaprasza się niekiedy również filozofów. Musimy bowiem założyć, że czasem taki samochód podejmuje decyzje o charakterze etycznym. Na przykład może dojść do sytuacji, w której wypadek jest nieunikniony. Co ma wtedy zrobić taki samochód? Czy potrącić osobę wyglądającą na starszą i w ten sposób poświęcić ją dla osoby młodszej? Czy może ma on raczej doprowadzić do kolizji z mniejszą ilością osób, żeby uratować większość? Czy takie auto może poświęcić życie kierowcy, aby nie zabić przypadkowego pieszego? Pytania te związane są z klasycznymi dylematami etycznymi. Zagadnieniami takimi zajmowali się dotychczas tylko filozofowie, dziś są to problemy, z którymi muszą zmierzyć się również inżynierowie. Dodajmy, że w takich sytuacjach nie ma prostych rozwiązań. Niewprowadzenie żadnych reguł też może być przecież pewnym rozstrzygnięciem, bowiem samochód i tak coś zrobi w określonej sytuacji.

Jakie zmiany należałoby wprowadzić do systemu edukacji młodzieży w kontekście możliwej ekspansji sztucznej inteligencji?

Dziś wiemy, że nieodległa przyszłość nie będzie taka sama jak teraźniejszość. Wiele krajów reformuje z tej racji już teraz pod tym kątem swe systemy edukacyjne. Zapewne wiele tradycyjnych zawodów zniknie, co mocno zmieni zarówno ekonomię, jak i same społeczeństwa. Potrzebne będą inne kompetencje niż dzisiaj. Trzeba nastawić się również na to, że przez całe życie będziemy musieli się czegoś uczyć. Musimy być ciągle otwarci na zmiany. Jest to hasło dosyć często przywoływane, natomiast rzadko jest ono stosowane konsekwentnie.

W przyszłości będziemy musieli również ponownie odkryć wartość filozofii. Technologia zmusza nas bardzo wyraźnie do przemyślenia tego, co to znaczy być człowiekiem, jak zachować wartości humanistyczne. To, że będziemy używać nowych narzędzi, wcale nie znaczy, że będziemy gorszymi ludźmi. Musimy sobie po prostu uświadomić, co znaczy być człowiekiem w świecie „inteligentnych” maszyn. Wiele wskazuje także na to, że powinniśmy przemyśleć podstawy filozofii pracy, bowiem to roboty przejmą większą część naszych zajęć.

Filozofia jest też ważna dlatego, ponieważ stanowi najbardziej ogólną z umiejętności ludzkich. Naturalnie zmusza do tego, żeby być otwartym na wszelakie rodzaje wiedzy i łączyć je w krytycznej syntezie. Powtórzę, że to właśnie filozofia uczy krytycznego myślenia. Powinna być zatem nauczana, abyśmy jako ludzkość nie stali się tylko biernymi odbiorcami technologii, której nie rozumiemy i nie potrafimy opanować. To może doprowadzić do katastrofy cywilizacyjnej.

Czy w świecie opanowanym przez maszyny grozi nam dehumanizacja?

Myślę, że tak. Człowiek i jego myślenie ma możliwość upodabniania się do technologii. O tym mówi właśnie teza Boltera. Głosi ona, że człowiek może myśleć na wzór danej techniki. Ta dehumanizacja już się dokonuje. Jednym z przykładów jest nadawanie ludziom numerów identyfikacyjnych. To coś, co jeszcze sto lat temu było traktowane jako przejaw skrajnej dehumanizacji. Numeryczne podejście do człowieka przybrało wstrząsający wyraz w byłych niemieckich obozach śmierci, gdzie ludzie zostali właśnie pozbawiani swoich imion, nazwisk… Byli tylko numerami. Te numery pozwalały traktować więźniów na sposób mechaniczny. To nie byli już zatem ludzie. Owe tragiczne doświadczenia XX wieku pokazują, że wprowadzenie technik cyfrowych może mieć dramatyczne konsekwencje dla tego, co to znaczy być człowiekiem. Dzisiaj w nieporównywalnie mniejszej skali, ale również tego doświadczamy, np. korzystając z systemu opieki medycznej, gdzie identyfikujemy się numerem PESEL. Zdehumanizowany charakter systemu łagodzony jest tylko dlatego, że po drugiej stronie bywają jeszcze ludzie, którzy mają ludzkie odruchy i naruszają reguły. Gdyby ten system był dobrze działającym algorytmem, a recepcjonistki zastąpił mechanizm sztucznej inteligencji, to prawdopodobnie bylibyśmy bez szans na doświadczenie ludzkich odruchów.

Coraz bardziej zaczynamy być traktowani jak kolejny numer. Kryje się za tym aktualne zagrożenie dehumanizacji, z którym powoli się oswajamy i na nie godzimy. W imię czego? W imię sprawności zarządzania, optymalizacji kosztów? Zastępowanie ludzi przez maszyny prowadzić będzie do pogłębiania się sfer samotności, w których ludzie będą przeżywać namiastki relacji z maszynami, tracąc jednocześnie możliwości nawiązania prawdziwych relacji międzyludzkich.

Czy maszyny mające naśladować człowieka będą w stanie w podobny sposób okazywać emocje?

Nie do końca jeszcze wiemy, czym są emocje w człowieku. Czy to są reakcje czysto umysłowe czy cielesno-umysłowe? Prawdopodobnie to drugie jest bliższe prawdy. Z drugiej strony mamy wiele robotów, które naśladują ludzkie reakcje. Potrafią mimiką i gestami wyrażać radość bądź smutek. Można więc twierdzić, że w jakiś sposób odtwarzają one zachowania emocjonalne człowieka. Ale czy to są emocje? Moim zdaniem jest to raczej bliższe zachowaniu aktora, który potrafi okazywać coś mimiką, gestami, ale to nie są jego własne, prawdziwe emocje, tylko naśladowanie czegoś zapisanego w scenariuszu. Trudno natomiast powiedzieć, czym mogą być własne emocje dla maszyn – to bardzo abstrakcyjne pytanie, choć może inspirować do interesujących przemyśleń.

Czy zgodnie z postawionym przez prekursora sztucznej inteligencji Alana Turinga pytaniem „maszyna może myśleć?”, lub inaczej – czy kiedykolwiek będzie mogła?

Co to znaczy myśleć? Turing był świadom, że pojęcie to jest trudne do analizy, dlatego postanowił nie zajmować się tak zawiłym pytaniem. Zastąpił je innym: czy maszyna może brać udział w konwersacji tak jak człowiek? W zasadzie jesteśmy już na tym etapie, że automaty (chatboty) potrafią uczestniczyć w konwersacjach i radzą sobie z tym całkiem dobrze.

Co zatem z naszą przyszłością?

Nie jestem futurologiem (śmiech), ale wiem, że przyszłość zaczyna się teraz, bo jest skutkiem podejmowanych obecnie decyzji. Warto nieustannie zastanawiać się krytycznie nad tym, co się wokół nas dzieje, aby móc lepiej reagować na wyzwania, jakie się pojawią. Dlatego filozofia ma przyszłość!

Rozmawiała Monika Godziemba-Dąmbska
Czas Serca nr 155