Korwin-Mikke: Niezrozumienie sztucznic

Janusz Korwin-Mikke. Foto: PAP
Janusz Korwin-Mikke. Foto: PAP
REKLAMA

My tu zajmujemy się sporami między PO i PiS, zajmujemy się bardziej poważnymi sporami Bandy Czworga z KONFEDERACJĄ, sporami Polski z UE, sporami UE z USA, sporami Anglo-Socu z Rosją – a także sporem powstającego BRICS-u z cywilizacją Zachodu. Tymczasem wszystko to jest małym pikusiem w porównaniu z problemami, które zaczną powstawać z powodu Sztucznej Inteligencji (AI).

Kto tego nie przyswoił, niech to uważnie przeczyta i zapamięta: AI nie ma NIC WSPÓLNEGO z programami komputerowymi. Program komputerowy działa dokładnie tak, jak my chcemy; w każdej chwili możemy go skorygować, możemy sprawdzić, dlaczego działa tak, a nie inaczej. Natomiast działanie AI jest dla nas nie do pojęcia.

REKLAMA

Do tej pory AI zrobiła wejście smoka: po czterech godzinach treningu (grała sama ze sobą, nikt jej niczego nie uczył) potrafiła roznieść mistrza świata w szachach – a tworzone w pocie czoła programy komputerowe pobiła wyraźnie. Z najlepszym wygrała 28 partii i zremisowała 72. Podobnie z grą w go – gdzie co prawda trenowała aż cztery dni. Jest przy tym dość oczywiste, że wsadzenie AI do szybszej maszyny podniosłoby jej sprawność w stopniu trudnym do oceny. Ponieważ powstaje nowa generacja komputerów, możliwości AI staną się dla nas całkowicie nieosiągalne.

Powiedzmy przy tym jasno: nie grozi nam, że AI w jakiś sposób podbije całą ludzkość – bo zawsze można będzie wyjąć jej wtyczkę z gniazdka. Nie ma nawet obawy, że zacznie ona kombinować, jak przejąć władzę nad światem – bo będzie ona robić tylko to, co jej powiemy. Natomiast bardzo realna jest możliwość, że poszczególne grupy (państwa, multimiliarderzy od spisku klimatycznego i COVID-owego czy kryminaliści) wykorzystają ją do ambitnych lub kryminalnych celów. Nie jest przy tym prawdą, że sztucznice nie mają moralności: mają… dokładnie taką, jaką im wpiszemy. AI z równym zrozumieniem potraktuje moralną zasadę, że życie ludzkie trzeba oszczędzać – jak zasadę, że życie ludzkie warte jest co najwyżej grosz od łebka. I będzie optymalizować swoje działanie – w nieznany nam sposób – stosując się do tej moralności.

Teoretycznie można by stworzyć, powiedzmy, tysiąc sztucznych światów przypominających realny, powierzyć je różnym sztucznicom – i sprawdzić, przy jakiej moralności te światy rozkwitają. Niestety, w świecie realnym liczba zasad jest praktycznie nieskończona – podczas gdy my będziemy w stanie opisać może paręset. No i nie chroni to nas przez gangami, które powiedzą swoim AI, że „dobrze, aby nasz gang obrabował wszystkich naokoło”.

Obecne zastosowania AI są humorystyczne. Przypominają stosowanie komputera do przybijania gwoździ. Odnoszę wrażenie, że tymi sztucznicami zajmują się ludzie na poziomie neandertalczyka – i opublikowany wywiad z p.Pichaiem, nowym, absolutnym szefem GOOGLE’a, tylko pogłębił moje przekonanie.

Sztucznicy jest wszystko jedno, czy będzie rozszerzać „władzę nad światem”, czy trzymać ją w ryzach. Zawsze będzie działała na rzecz Największego Dobra – tyle że to my jej powiemy, co Dobrem jest.

Sztucznica nie będzie działać dla swojego Dobra – chyba że jakiś idiota jej to wbuduje. Właściciele niewolników raczej wpajali im zasady chrześcijaństwa, niż uczyli, że najwyższym dobrem niewolników jest wymordować swoich panów. Grozi natomiast, że AI stworzy sobie jakąś własną heurystykę i zacznie odnosić sukcesy polegające na optymalizowaniu dobra… np. ludzi z parzystą liczbą włosów na głowie. Będziemy się dziwić jej poczynaniom – a ona nie będzie w stanie nam wytłumaczyć, czemu tak dziwnie działa.
Nie w tym jest jednak problem.

Problemem nie jest też dobro poszczególnych grup zawodowych. Na początek ofiarami AI staną się zapewne tłumacze. Już dziś podejmowane jest stworzenie AI tłumaczącej z np. polskiego na angielski na poziomie lepszym niż tłumacze w Parlamencie Europejskim – a w ciągu roku czy dwóch na poziomie lepszym od najlepszych tłumaczy. Nie ma jej tylko dlatego, że kształceniem AI zajmują się na ogół programiści lub ludzie wiedzący, jak programuje się komputer. Z równym powodzeniem można by do tresowania psa użyć człowieka umiejącego zaprogramować robota. A teraz wyobraźmy sobie, że ten „pies” ma inteligencję znacznie przekraczająca ludzką. Facet od komputerów nie potrafi wykorzystać jej możliwości.
W tych dniach odbywało się seminarium (międzynarodowe) poświęcone AI. I niestety potwierdziły się wszystkie moje obawy. Rzekomi fachowcy nie rozumieją specyfiki AI. Przypomina mi się sytuacja z roku 1970, gdy rektor jednego z uniwersytetów dostał nagrodę państwową za to, że napisał program komputerowy pozwalający… uporządkować wyrazy według alfabetu!

Niestety: żadna sztucznica nie może zaprotestować przeciwko idiotycznemu wykorzystywaniu jej możliwości. Używanie jej do gier typu strzelanka jest, oczywiście możliwe – ale to przecież potrafi każdy program komputerowy. Co prawda program trzeba napisać – a samodzielne opanowanie takiej gry zajmie zapewne pół godziny…

Znacznie trudniejsza od tłumaczeń jest edukacja dzieci (i dorosłych). Problem oczywiście w tym, że nie wiemy, na czym polega optymalne uczenie i wychowywanie dzieci! Ocena skutków działania różnych sztucznic będzie bardzo trudna, o ile nie niemożliwa. Tymczasem istnieje silne podejrzenie, że praktycznie każde państwo każe swoim sztucznicom wychowywać dzieci swoich poddanych czy „obywateli” na narzędzia, które pozwolą im pokonać inne państwa!

Co więcej: jest to łatwo osiągalne, a złe skutki tego mogą wyjść na jaw po np. 30 latach (i dwudziestu wojnach). Oczywiście przy założeniu, że wiemy, co to są „złe skutki”. Na mnie np. piorunujące wrażenie wywarł śp. Aldous Huxley i jego „Nowy, Wspaniały Świat” oraz śp. Stanisław Lem (twórca idei AI, nawiasem) ze swoim „Powrotem z Gwiazd” – ale czasem mam wrażenie, że niektórzy politycy (i ci multimiliarderzy) też przeczytali te przerażające dystopie… i potraktowali je jako wzór do naśladowania! Znam ludzi, którzy uważają, że film p.Juliusza Machulskiego (oraz p.Jolanty Hartwig i p.Pawła Hajnego, współscenarzystów!) „Seksmisja” przedstawia bardzo pozytywny model ludzkości!
Problemem jest, że AI, optymalizując swoje działania we właściwym kierunku i posłusznie przyjmując wszystkie narzucone jej ograniczenia (których liczba będzie skończona), może naruszyć jakiś bardzo ważny składnik nie objęty tymi ograniczeniami. Co więcej: trudno to będzie skontrolować.

Nawet wspomniany szef GOGLE’a, p.Pichai, nie chwyta, o co chodzi – ale pewne aspekty problemu do niego docierają. Wytłumaczył je poprawnie: „Pichai przyznał, że Google nie do końca rozumie, jak jego technologia AI produkuje pewne odpowiedzi. Jest pewien aspekt tego, który nazywamy, wszyscy w tej dziedzinie nazywają, »czarną skrzynką«. Wiesz, nie rozumiesz w pełni. I nie możesz do końca powiedzieć, dlaczego ona powiedziała to albo dlaczego się pomyliła” – mówił. Zapytany, dlaczego Google upubliczniło Barda, skoro nie do końca rozumie, jak działa, Pichai odpowiedział: Pozwól mi to ująć w ten sposób. Nie sądzę, że my też w pełni rozumiemy, jak działa ludzki umysł.

Widać, że pytający kompletnie, ale to kompletnie nie rozumie, czym jest AI! I w tym jest problem!

REKLAMA