Czeka nas wojna z Terminatorami? Militaryzacja sztucznej inteligencji postępuje

Terminator. Zdjęcie ilustracyjne Źródło: wikimedia
Terminator. Zdjęcie ilustracyjne Źródło: wikimedia
REKLAMA

Rozwój sztucznej inteligencji nie omija sfery militarnej. Różne firmy i państwa pracują nad autonomicznymi maszynami wojskowymi, ale także nad autonomicznymi systemami decyzyjnymi umożliwiającymi sztucznej inteligencji kierowanie walką. To budzi grozę.

Przykładem jest koreański producent broni Hanwha Systems, który wraz z Korean Advanced Institute of Science and Technology rozpoczął prace nad układami decyzyjnymi, algorytmami nawigacyjnymi pozwalającymi na podejmowanie decyzji przez same maszyny.

REKLAMA

Światowymi eksperci w dziedzinie sztucznej inteligencji zbojkotowali ten pomysł, żądając wprowadzenia ścisłej kontroli ze strony człowieka. Powierzenie wojskowym maszynom podejmowanie decyzji jest ogromnym ryzykiem, szczególniej w dużej skali.

Bojkot sprawił, że Koreańczycy zapewnili, iż nie mają zamiaru prowadzić badań nad urządzeniami, które podejmowałyby kluczowe decyzje zamiast człowieka i w ogóle nie będą prowadzili żadnych badan stojących w sprzeczności z ludzką godnością. Przypuśćmy.

Na razie wszyscy deklarują, że pracują nad sprzętem, który będzie współdziałał z człowiekiem, a nie będzie samodzielnie podejmował decyzji. Np. autonomiczne pojazdy, mają według deklaracji amerykańskiej armii, samodzielnie poruszać się i śledzić wroga, ale decyzja o otwarciu ognia ma nadal należeć do człowieka.

Amerykanie jako przykład podają autonomiczny F-16, który współpracował z maszynami załogowymi podczas treningowego ataku na naziemny cel, pozytywnie reagując na zadania przekazywane mu przez dowódcę eskadry.

Jednakże rozwój sztucznej inteligencji doprowadzi do takiego poziomu, że człowiek przestanie być konieczny, ponieważ maszyny będą w stanie szybciej i skuteczniej podejmować decyzje. Niewątpliwie wtedy będzie pokusa, żeby wyłączyć istoty ludzkie od podejmowania decyzji.

Konsekwencje tego przy braku ludzkiej intuicji lub błędu w programowaniu, awaria maszyny czy błędne odczytanie sytuacji, mogą być katastrofalne.

Nie miejmy złudzeń prędzej, czy później ktoś zaprojektuje i uskuteczni wojskowy program, w którym decyzje będą podejmowały maszyny, bo tak jest wygodniej, a ci, którzy się na to zdecydują, będą przekonani, że to będzie dla nich lepiej i skuteczniej. Człowiek zawsze w ostatecznym rachunku wybiera to, co jest dla niego wygodniejsze.

Źródło: Wiedza i życie

REKLAMA