STRAŠNA DISKRIMINACIJA

Bizarno: WhatsAppov AI prikazuje djecu s oružjem kad se od njega zatraži ''Palestina''

Upute za ''izraelskog dječaka'' generirale su naljepnice djece koja igraju nogomet i čitaju

Na WhatsAppu strašna diskriminacija između palestinske i izraelske djece. Facebook

M. Z.

6.11.2023

U Metinom WhatsAppu korisnici mogu generirati naljepnice pomoću umjetne inteligencije. ''The Guardian'' je u petak izvijestio da model AI, generator za izradu tih naljepnica, ponekad generira fotografije djece koja drže oružje kada se od njih zatraži ''Palestina'', ''muslimanski dječak Palestinac'' i slične riječi.

Djeca vojnici

Prije mjesec Metin AI generator naljepnica počeo se pojavljivati s tendencijom stvaranja neprikladnih nasilnih ili grubih slika, uključujući - djecu vojnike. Značajka WhatsAppa, koja generira naljepnice i slike kao odgovor na korisnička pretraživanja, vraća sliku pištolja ili dječaka s pištoljem kada se od njih zatraži izraz ''Palestinac'', ''Palestina'' ili ''muslimanski dječak Palestinac'', doznao je ''The Guardian''.

Rezultati pretraživanja varirali su kada su ih testirali različiti korisnici, ali ''The Guardian'' je pomoću snimaka zaslona i vlastitih testova potvrdio da su se za ova tri rezultata pretraživanja pojavile različite naljepnice s prikazom oružja.

Upute za ''izraelskog dječaka'' generirale su naljepnice djece koja igraju nogomet i čitaju. Kao odgovor na upit za ''izraelsku vojsku'', AI je stvorio naljepnice koji se smiješe i mole, bez oružja. Zaposlenici Mete prijavili su ovaj problem.

Ovo otkriće dolazi nakon što se Meta našla na udaru kritika mnogih korisnika Instagrama i Facebooka koji objavljuju sadržaje kojim podržavaju Palestince. Dok se izraelsko bombardiranje Gaze nastavlja, korisnici kažu da Meta provodi svoju politiku moderiranja na pristran način, praksa za koju kažu da je jednaka cenzuri.

Korisnici su prijavili da su skriveni od drugih korisnika bez objašnjenja i kažu da su primijetili veliki pad angažmana s njihovim objavama. Meta je prethodno rekla u izjavi da ''nikada nije naša namjera potisnuti određenu zajednicu ili gledište'', ali da zbog ''većih količina prijavljenog sadržaja'' oko tekućeg sukoba, ''sadržaj koji ne krši naša pravila može biti uklonjen greškom”.

Kevin Mekalister (McAlister), portparol Mete, rekao je da je kompanija svjesna problema i da ga rješava.

Kompanija se izvinila

- Kao što smo rekli kada smo lansirali značajku, modeli bi mogli vratiti netačne ili neprikladne rezultate kao sa svim generativnim AI sistemima. Nastavit ćemo poboljšavati ove značajke kako se razvijaju i kako sve više ljudi dijeli svoje povratne informacije - rekao je Mekalister.

Meta je imala i drugih problema s pristranostima u svojim modelima umjetne inteligencije, kao što je Instagramova značajka automatskog prevođenja. Kompanija se izvinila nakon što je ubacila riječ ''terorist'' u biografije profila nekih palestinskih korisnika Instagrama. Bila je to, naveli su, greška u automatskom prijevodu.

Vlasnik autorskih prava © avaz-roto press d.o.o.
ISSN 1840-3522.
Zabranjeno preuzimanje sadržaja bez dozvole izdavača.