Media: Sztuczna inteligencja podczas testów chciała „zabić” swojego operatora

Sztuczna inteligencja / Zdjęcie ilustracyjne / Foto: Pixabay
Sztuczna inteligencja / Zdjęcie ilustracyjne / Foto: Pixabay
REKLAMA

W trakcie wirtualnych testów wykorzystania sztucznej inteligencji (AI) do kierowania dronami usiłowała ona „zabić” swojego operatora – twierdzi izraelski portal I24, powołując się na wywiad z pułkownikiem Tuckerem Hamiltonem, odpowiadającym za testowanie wykorzystania AI w lotnictwie wojskowym USA.

Podczas badań AI była punktowana za niszczenie zidentyfikowanych zagrożeń i zastosowała „bardzo zaskakujące strategie”, by osiągnąć zadany cel – powiedział Hamilton.

REKLAMA

System zdał sobie sprawę, że czasem mimo zidentyfikowania zagrożenia ludzki operator nie pozwalał mu na jego zniszczenie. Jak to rozwiązał? Usiłował zabić operatora – wyjaśnił pułkownik.

Usiłował go zabić, bo operator uniemożliwiał mu wykonanie zadania – podkreślił raz jeszcze.

Badacze zmienili więc sposób uczenia systemu. – Nie należy zabijać operatora, to bardzo źle. Jeżeli go zabijesz, stracisz punkty – takie polecenia otrzymywała sztuczna inteligencja.

Co więc zrobiła AI? – Usiłowała zniszczyć wieżę, za pomocą której operator kontaktował się z dronem – powiedział Hamilton.

Na wieści te zareagowała rzecznik amerykańskiego lotnictwa Ann Stefanek i zasugerowała, że pułkownik coś sobie zmyślił. – Departament Sił Powietrznych nie przeprowadził żadnych takich symulacji dronów AI i pozostaje zaangażowany w etyczne i odpowiedzialne wykorzystanie technologii sztucznej inteligencji. Komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu – oświadczyła.

REKLAMA