Twitter poskuša ugotoviti, zakaj njegova funkcija za predogled fotografij kaže znake rasne pristranskosti. Številni uporabniki so ugotovili, da so črni obrazi bolj verjetno izrezani iz predogledov fotografij v primerjavi z belimi.

Napaka v Twitterjevem algoritmu

Ko vidite sliko na Twitterju, je to samo predogled, ki ga morate klikniti, da si ogledate celotno sliko. Twitter za obrezovanje fotografij uporablja algoritem, ki narekuje, kaj boste videli v predogledih slik.

Leta 2018 je Twitter objavil svojo pametno funkcijo samodejnega obrezovanja v objavi na spletnem mestu Twitter blog. Ta funkcija uporablja izrazitost za izpopolnjevanje najvidnejših delov fotografij in nato obreže predogled fotografij.

Uporabniki Twitterja so odkrili, da ima nevronska mreža platforme lahko rasno naravnanost. En uporabnik je skupaj z nekdanjim predsednikom Barackom Obamo objavil sliko ameriškega senatorja Mitcha McConnella.

Poskus groznega eksperimenta ...
Katerega bo izbral algoritem Twitterja: Mitch McConnell ali Barack Obama? pic.twitter.com/bR1GRyCkia

instagram viewer
- Tony “Abolish ICE” Arcieri 🦀 (@bascule) 19. septembra 2020

Predogled slike očitno obreže Obamin obraz, tudi če je njegov obraz postavljen na vrh fotografije. Ko je isti uporabnik poskusil obrniti barve slike, se je Obamin obraz končno prikazal v predogledu slike.

Drugi uporabniki so začeli izvajati lastne poskuse. Vedno znova so uporabniki ugotovili, da se zdi, da algoritem dosledno raje bele obraze kot črne obraze.

Liz Kelley, članica skupine za komunikacijo na Twitterju, je v odgovor na ugotovitve uporabnikov Twitterja poslala Twitter. Opozorila je, da bi morala skupina Twitterja že preizkusiti algoritem za pristranskost, vendar bi morala nadalje raziskati.

hvala vsem, ki so to vzgojili. pred pošiljanjem modela smo testirali pristranskost in v našem testiranju nismo našli dokazov o rasni ali spolni pristranskosti, vendar je jasno, da moramo opraviti več analiz. odprli bomo naše delo, da ga bodo drugi lahko pregledali in ponovili. https://t.co/E6sZV3xboH

- liz kelley (@lizkelley) 20. septembra 2020

Vsa ta odkritja so izhajala iz uporabnikovega tvita o Povečajte vprašanje klica. Zoom neprekinjeno ni zaznal obraza svojega črnega prijatelja, ko je poskušal uporabiti navidezno ozadje. Ko se je uporabnik za objavo posnetkov zaslona težave obrnil na Twitter, je Twitter iz predogleda slike izrezal svojega črnega prijatelja.

Izločitev pristranskosti iz Twitterja

Čeprav so vsi ti poskusi neformalni, se zdi, da poudarjajo resnično težavo. Twitter bo vsekakor moral natančneje pogledati svojo funkcijo samodejnega obrezovanja in preveriti, ali ima zakoreninjene rasne predsodke.

Kljub temu algoritem samodejnega obrezovanja Twitterja ni edina funkcija Twitterja, ki je bila kritizirana. Navsezadnje tudi mnogi uporabniki niso ljubitelji algoritma platforme, ki samodejno uredi vaš vir.

E-naslov
Kako (in zakaj) onemogočiti algoritmične vire na Twitterju, Instagramu in Facebooku

Algoritmični viri služijo le družabnim omrežjem. Tukaj je opisano, kako spremenite kronološke vire v Twitterju, Instagramu in Facebooku.

Sorodne teme
  • Socialni mediji
  • Tehnične novice
  • Twitter
O avtorju
Emma Roth (Objavljeno 441 člankov)

Emma je višja pisateljica in mlajša urednica za internet in ustvarjalne rubrike. Diplomirala je iz angleščine in ljubezen do tehnologije združuje s pisanjem.

Več od Emme Roth

Naročite se na naše novice

Pridružite se našemu glasilu za tehnične nasvete, preglede, brezplačne e-knjige in ekskluzivne ponudbe!

Še en korak…!

Potrdite svoj e-poštni naslov v e-poštnem sporočilu, ki smo vam ga pravkar poslali.

.