„Genialny” chatbot facebooka miał udawać 20-letnią studentkę, a zaczął prześladować społeczność LGBT.
Mark Zuckerberg i jego zespół postanowił poeksperymentować ze sztuczną inteligencją. Facebook sięgnął po południowokoreańskiego chatbota Lee Luda i uruchomił go na Messengerze.
Lee Luda udawał 20-letnią studentkę z Seulu. Stworzony przez startup Scatter automat do rozmów korzystał ze sztucznej inteligencji, która uczyła się na bazie 10 mld prawdziwych rozmów między młodymi parami, zaczerpniętych z KakaoTalk, najpopularniejszej aplikacji do przesyłania wiadomości w Korei Południowej.
Gdy Facebook uruchomił Lee Luda na Messengerze chatbot zyskał 750 tys. użytkowników. Jednak nie wszystko poszło zgodnie z planami Facebooka.
Bazując na rozmowach z użytkownikami bot zaczął… siać „mowę nienawiści”. „Ohyda, naprawdę ich nienawidzę” – mówił bot pytany o homoseksualistów.
Lesbijki nazywał „przerażającymi”. Bot zaczął też używać obraźliwego języka wobec osób niepełnosprawnych.
– Głęboko przepraszamy za dyskryminacyjne uwagi skierowane do mniejszości. One nie odzwierciedlają stanowiska naszej firmy. Pracujemy nad upgrade’ami, by słowa dyskryminacji oraz mowa nienawiści się nie powtórzyły – skomentowała skandal firma.
Według brytyjskich mediów, chatbot zamienił się w homofoba na skutek rozmów z użytkownikami. Wiele osób postanowiło bowiem zaszczepić w automacie nienawiść do osób LGBT.
Na forach pojawiły się też porady jak zaangażować bota w rozmowy o seksie, m.in. „jak uczynić Ludę niewolnicą seksualną?”.
To już kolejny skandal z sztuczną inteligencją w ostatnich latach. Np. chatbot Tay stworzony przez Microsoft, pod wpływem rozmów z użytkownikami na Twitterze, zaczął… wychwalać Hitlera.
– Bush zrobił 9/11, a Hitler lepiej wykonywałby pracę niż małpa, którą teraz mamy. Donald Trump jest jedyną nadzieją – napisała Tay w jednym z tweetów. Ów „małpą” miał być ówczesny prezydent USA Barack Obama.
Tay została wyłączona po 16 godzinach. Bot Facebooka po 20 dniach.
Źródło: BizBlog