Stephen Hawking, jeden z najwybitniejszych umysłów XX wieku, twierdził, że wystarczy 100 lat, by komputery prześcignęły ludzi. Jego przewidywania spełniają się na naszych oczach. Sztuczna inteligencja wyręcza człowieka niemal w każdej dziedzinie życia. Już stanowi ona ważne wsparcie dla świata biznesu, rozrywki, przemysłu czy wojska, a wciąż pojawiają się informacje o pomysłach na jej nowe zastosowanie.
Czy jednak zgodzilibyśmy się dać robotowi wyposażonemu w sztuczną inteligencję skalpel do ręki podczas operacji na naszym sercu albo broń w czasie wojny? Większość osób odpowie „nie” lub co najmniej zawaha się przed udzieleniem ostatecznej odpowiedzi. A to pokazuje, że do głównych wyzwań stojących przed ludzkością w XXI wieku dołączyło pytanie: jak sprawić, aby AI brała pod uwagę dobro ludzkości, a nie zero-jedynkową, pragmatyczną kalkulację?
Pomóż w rozwoju naszego portalu
Armagedon ludzkiego intelektu
„Sztuczna inteligencja nigdy nie wygra z człowiekiem” – mówił szachowy arcymistrz Garri Kasparow po pierwszej serii potyczek z komputerem. Rok później jednak świat zamarł. Było to 11 maja 1997 r., gdy gruchnęła wieść – Garri Kasparow przegrał 3,5: 2,5 z komputerem Deep Blue, który potrafił analizować 200 mln pozycji na sekundę.
Reklama
Mijały lata, a po sukcesie maszyny koncernu IBM zostały tylko wzmianki w kronikach, aż nastał 2016 r., który możemy porównać do armagedonu ludzkiego intelektu w zderzeniu ze sztuczną inteligencją. Program AlphaGo pokonał Lee Sedola, 8-krotnego mistrza świata w grze go.
Docenimy ten wyczyn, gdy uświadomimy sobie, że plansza do gry go ma wymiar 19 na 19 pól, podczas gdy szachownica to zaledwie 8 na 8 pól. Amerykański szachista Edward Lasker tak porównał obie gry: jeżeli szachy są królową gier, to go z pewnością jest ich cesarzem.
Dla twórców sztucznej inteligencji go stanowiło wyzwanie nie do przezwyciężenia. Sukces AlphaGo stanowi kres dominacji człowieka w grach planszowych, a zarazem początek nowej ery sztucznej inteligencji, która mocą obliczeniową, szybkością przyswajania nowych strategii, a więc uczenia się, oraz sprytem – tak, bo o sprycie w tym przypadku też możemy mówić – przewyższyła człowieka.
Rasistowska sztuczna inteligencja
W AI drzemie niewyobrażalny potencjał. Czego może dokonać, jeśli wymknie się spod ludzkiej kontroli, dowodzi eksperyment z chatbotem o imieniu Tay.
W tym czasie, gdy AlphaGo rozkładał na łopatki mistrza go, Microsoft przygotowywał się do uruchomienia Tay – chatbota wyposażonego w najdoskonalszą wówczas sztuczną inteligencję. Tay, stylizowana na przeciętną amerykańską 19-latkę, miała rozmawiać na Twitterze z przedstawicielami pokolenia milenialsów i przy tej okazji uczyć się od nich.
Reklama
Osiągnięcia Tay w zakresie przyswajania wiedzy i wykorzystywania jej w dalszych rozmowach przerosły oczekiwania twórców chatbota. W trakcie konwersacji zauważono jednak jedno drobne „ale”... Nikt się nie spodziewał, że najdoskonalsza sztuczna inteligencja w zaledwie 24 godz. postanowi zostać rasistką, seksistką i mizoginistką. Po tym, jak Tay umieszczała obraźliwe wpisy i chwaliła wyczyny Hitlera, Microsoft wyłączył bota.
Eksperyment Microsoftu ujawnia obawę zapowiedzianą przez Stephena Hawkinga, który twierdził, że największym wyzwaniem związanym ze sztuczną inteligencją jest utrzymanie nad nią kontroli. Tay pokazała, że w warunkach laboratoryjnych spisuje się znakomicie, lecz uwolniona zachowuje się nieprzewidywalnie, a jej algorytmy nie są odporne na szkodliwe idee.
Bunt maszyn
Tay pozbawiona etycznego fundamentu balansowała na granicy nienawiści do ludzkości. Doświadczenie z nią pokazuje, jak niebezpieczne mogą być maszyny wyzute z tego, co stanowi o człowieczeństwie – moralności.
Jako pierwsi moralny aspekt istnienia myślących maszyn rozważali twórcy fantastyki. Wydaje się, że najlepsze rozwiązania wypracował Isaac Asimov, gdy w powieści Zabawa w berka z 1942 r. zaproponował trzy prawa robotyki. Jego nowatorskie podejście do kwestii etyki maszyn z czasem stało się podstawą dalszej debaty na ten temat. Czysto teoretyczne rozważania Asimova obecnie nabierają realnego i praktycznego wymiaru.
Reklama
Pierwsze prawo robotyki brzmi: robot nie może skrzywdzić człowieka ani przez zaniechanie działania pozwolić na to, aby człowiek doznał obrażeń. Drugie prawo: robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem. Trzecie prawo: robot musi chronić samego siebie, o ile nie stoi to w sprzeczności z pierwszym lub drugim prawem. Wkrótce Asimov dodał prawo zerowe, będące podstawą dla trzech praw robotyki – brzmi ono: robot nie może wyrządzić szkody ludzkości lub przez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
Nowa etyka AI
Etyka robotów Asimova powstała w czasach, gdy ludzkość zachłysnęła się pierwszymi skonstruowanymi komputerami. Były one gigantycznymi maszynami obliczeniowymi niepozwalającymi myśleć o sztucznej inteligencji.
Obecnie, gdy możliwości technologiczne są znacznie bardziej zaawansowane i pozwalają na skonstruowanie samodzielnie myślących maszyn, prawa robotyki brzmią nieco naiwnie. Zdaniem ekspertów, w dziedzinie AI nie znalazłyby one praktycznego zastosowania, ponieważ związana jest z nimi asymetria w relacjach.
W tym, co zaproponował autor SF, jedynym beneficjentem działania robotów jest człowiek, któremu inteligentne maszyny są całkowicie podporządkowane. A to może prowadzić do konfliktu i próby wyzwolenia się spod kontroli człowieka. Jakby tego było mało, sztuczna inteligencja stała się zbyt dochodowym biznesem, by stojące za jej rozwojem korporacje dopuściły do ograniczeń w postaci etycznego kagańca innego niż prawa rynku i zysku. Założenie niekrzywdzenia ludzi przez inteligentne maszyny jest mrzonką w zderzeniu z komercyjnym wykorzystaniem sztucznej inteligencji, wszak wojsko, dostrzegające ogromny potencjał AI w działaniach bojowych, okazuje się jej największym beneficjentem.
Reklama
Teoretycznie można wpleść w algorytmy AI jakiś fundament moralny, ale mało prawdopodobne jest to, aby korporacje, widzące biznesowy potencjał w rozwoju tej technologii, zdecydowały się same z siebie na podobny krok. Jeśli zostałyby do tego zobligowane prawnie, a nad takimi rozwiązaniami pracuje m.in. Unia Europejska, to zapewne ograniczenia związane z niekrzywdzeniem ludzi przez maszyny zostałyby zawężone do jakiejś grupy urzędników i technokratów.
Nie wiemy też, jak algorytm przyswoi zaprogramowany kodeks etyczny, czy samoświadoma i samoucząca się maszyna nie postanowi uczynić moralnego przewrotu i przewartościować wszelkie wartości.
Historia pokazała zdolność człowieka do buntu wobec norm etycznych. A skoro sztuczna inteligencja powstaje na nasz wzór, nie możemy wykluczyć możliwości jej buntu, od tego dzieli nas zaledwie krok do wizji rodem z serii filmów Terminator. Oczywiście, równie prawdopodobna jest pokojowa koegzystencja ludzi i myślących maszyn. Póki co, dywagacje na temat etyki robotów pozostają bardziej w sferze filozofii niż praktyki. Choć ta ostatnia zbliża się wielkimi krokami.