Nie będzie kobiet i męzczyzn w Google? Sztuczna inteligencja ma wyeliminować opisy pełne „uprzedzeń płciowych”

Demokraci rozważają propozycję powołania
Demokraci rozważają propozycję powołania "komisji prawdy " w Stanach Zjednoczonych. Tak jak Ministerstwo Prawdy z książki Orwella "1984" miałaby ona ustalać co jest prawda i co wolno publikować, a co nie. Google na tle z kadru z filmu "1984"
REKLAMA

Google rozwija serwis pozwalający na automatyczne zamieszczanie podpisów pod zdjęciami. W przypadku tych z ludźmi maja być wyeliminowane określenia: kobieta, mężczyzna bo to może urazić osoby niebinarne, czy jakie tam.

To sztuczna inteligencja ma ustawiać algorytmy tak, by automatycznie było rozpoznawane co znajduje się na zamieszczanych w Google zdjęciach. Potem zdjęcia: ludzi, zwierząt, roślin, budynków, krajobrazów, loga marek etc są automatycznie podpisywane.

Jednak w przypadku fotografii ludzi Google Cloud Vision API – tak nazywa się ta usługa, ma być wyeliminowane automatyczne rozpoznawanie płci i podpisywanie:kobieta, mężczyzna.

REKLAMA

Jak informuje Business Insider Google zapowiedział deweloperom, że nie będzie już używać „etykiet płciowych” do swoich tagów graficznych. Wszelkie zdjęcia osób będą teraz oznaczone etykietami „bezpłciowymi”, takimi jak „osoba”, „człowiek” „istota ludzka”.

Google twierdzi, że ​​na podstawie zdjęć nie da się rozpoznać płci i jednocześnie unikać uprzedzeń i supozycji. Wygląd może być bowiem mylący. Ponadto „nadanie płci” może przywoływać stereotypy kulturowe i krzywdzić osoby niebinarne.

„Biorąc pod uwagę, że na podstawie wyglądu nie można wnioskować o płci, postanowiliśmy usunąć te etykiety, (kobieta, mężczyzna – przyp. red.) aby dostosować się do „Zasad sztucznej inteligencji w Google”, w szczególności zasady nr 2: Unikaj tworzenia lub wzmacniania nieuczciwych uprzedzeń” – napisała firma w liście do deweloperów.

Frederike Kaltheuner, oficer polityczna z Mozilla pilnująca politpoprawności uzasadnia: – Za każdym razem, gdy automatycznie klasyfikujesz ludzi, czy ze względu na płeć, czy ich orientację seksualną, musisz przede wszystkim zdecydować, jakich kategorii używasz – i to wiąże się z wieloma założeniami.

– Klasyfikowanie ludzi jako mężczyzn lub kobiet zakłada, że ​​płeć jest binarna – kontynuuje politruk. – Każdy, kto nie pasuje, zostanie automatycznie błędnie sklasyfikowany pod względem płciowym. Chodzi więc o coś więcej niż tylko unikniecie uprzedzeń – płci nie można wywnioskować na podstawie wyglądu. Każdy system sztucznej inteligencji, który próbowałby to zrobić, nieuchronnie wprowadza ludzi w błąd .

Google dalej wyjaśnia, że będzie będzie „starać się unikać niewłaściwego oceniania ludzi, szczególnie na podstawie cech takich jak rasa, pochodzenie etniczne, płeć, narodowość, dochód, orientacja seksualna, zdolności, oraz przekonania polityczne lub religijne ”.

Jeden z informatyków anonimowo skomentował politpoprawne pomysły twierdząc, że firmy nie będą korzystać z tej usługi Google, tylko z innych dostępnych na rynku. – Jeśli w 99% przypadków potrafię stwierdzić, czy ktoś jest mężczyzną czy kobietą, to algorytm też potrafi. Algorytmy Google nie chcą tego zrobić ? Firmy przejdą do innych usługodawców.

REKLAMA