Sztuczna inteligencja okazuje się „rasistowska” i „homofobiczna”. Kolejny bot musiał zostać wyłączony

Batony i bułki dla osób prowadzących siedzący tryb życia. Opracowali je szczecińscy naukowcy. Foto: Pixabay
Foto: Pixabay
REKLAMA

Okazuje się, że sztuczna inteligencja używa mowy nienawiści. Kolejnego chatbota trzeba było wyłączyć przez rasizm i homofobię.

Lee Luda to chatbot z Korei Południowej, który działał na facebookowym Messengerze i w ciągu 20 dni rozmawiał z ponad 750 tys. internautami.

Przez dłuższy czas bot nie sprawiał żadnych problemów – jego odpowiedzi brzmiały naturalnie, a użytkownicy byli zadowoleni.

REKLAMA

Po pewnym czasie jednak sztuczna inteligencja zaczęła rzucać komentarze, które zostały przez odwiedzających stronę, uznane za rasistowskie lub homofobiczne.

Lee Luda stwierdziła m.in., że nienawidzi osób transpłciowych, lesbijek czy osób ciemnoskórych. Murzynów bot określał słowem „heukhyeong”, uznawanym za rasistowskie.

Ostatecznie firma wyłączyła bota. „Najmocniej przepraszamy za dyskryminacyjne uwagi kierowane do mniejszości. Nie odzwierciedlają one stanowiska naszej firmy. Pracujemy nad ulepszeniami, by dyskryminujące zwroty oraz mowa nienawiści się nie powtórzyły” – przekazano w komunikacie firmy.

Co ciekawe, to nie pierwszy bot, który oskarżany jest o rasizm. Chatbot Tay Microsoftu w 2016 porównał Baracka Obamę do małpy – również został wyłączony.

Źródło: Guardian

REKLAMA