Mõjutajad ütlevad, et Instagram eemaldab suurema tõenäosusega fotod pluss suurusega kehadest ja neil võib olla õigus

Aastal 2018 viibis mõjutaja Katana Fatale Hawaiil välidušis ja valgus oli paras.



Ta seadis oma telefoni toolile, seadis taimeri ja tegi selle foto.

huvitavaid fakte Interneti kohta
Katana Fatale

Ta jagas seda oma tuhandete jälgijatega Instagramis, kus ta on alates 2014. aastast postitanud ja propageerinud pluss-suurusega kehasid.

'See sai hämmastava veojõu. Tundsin end nii ilusana, 'rääkis ta BuzzFeed Newsile. 'Mäletan, et olin just rannas ja läksin uuesti seda kontrollima ning mul tuli see hoiatus, et see on eemaldatud.'

Kuigi ta oli alasti, oli ta järgnenud Instagrami kogukonna juhised , mis keelavad naiste nibud, seksuaalaktid, suguelundid ja alasti tagumiku lähivõtted. Kõik muu, kui see neid asju ei näita, on postitamiseks OK. Ettevõte lubab pilte rinnaga toitmisest ja mastektoomiajärgsetest armidest, samuti alastiolekut maalidel ja skulptuuridel.

Nii et Fatale oli segaduses, miks talle nüüd öeldi, et edasiste rikkumiste korral võidakse tema konto ära võtta, eriti kui teised naised näisid olevat võimelised postitama sarnaseid pilte ilma probleemita.

Instagram: @kimkardashian

Fatale pole kaugeltki ainus pluss-suuruse mõjutaja, kellel see probleem on. On küll olnud arvukalt aruanded inimestest nagu Fatale, kelle pildid ja videod märgistati ja eemaldati sotsiaalmeediast.

Isegi väga tuntud naisi ei säästeta. Hiljuti, Lizzo kurtis, et TikTok end bikiinides kajastanud, aga õhemate naiste videod ei tundunud sama kohtlemist saavat.

Kuigi puuduvad kindlad andmed, mis näitavad, et pluss-suurusega inimeste pilte märgistatakse sagedamini, on sellest olnud nii palju anekdoote, et mõjutajad ei suuda mustrit mitte näha.

'Seda on lihtsalt liiga palju. Kus suitsu, seal tuld. Seal toimub absoluutselt midagi, kus paksud inimesed on esile tõstetud, 'ütles Fatale.

Instagram: @katanafatale

BuzzFeed Newsiga rääkinud ekspertide sõnul on väga võimalik, et neil on õigus. Sotsiaalmeediarakenduste sisu modereerimine on tavaliselt tehisintellekti ja inimeste moderaatorite segu ning mõlemal meetodil on suuremate kehade suhtes potentsiaalne eelarvamus.

Mathieu Lemay on AI konsultatsioonifirma Lemay.ai kaasasutaja. Ta ütles, et esimene asi, mida mõista, on see, et tehisintellekt pole kaugeltki täiuslik ja tegelikult omamoodi laisk.

'Tehnoloogia ja diskrimineerimine lähevad kaugele tagasi,' ütles ta BuzzFeed Newsile. 'Iga kord, kui kavandate uut projekti või uut prototüüpi, peate mõtlema, kuidas see puruneb.'

Sellised ettevõtted nagu Facebook loovad oma patenteeritud piltide ja videote modereerimise AI. Nad loovad selle, andes sellele miljoneid pilte, et see saaks mustreid tuvastada ja õppida, mis on vastuvõetav ja mis mitte. See õpib näiteks tuvastama pornograafiat, nibu või bikiini. Kasutajate üleslaaditud pilte skannides otsustab ta, kui tõenäoline on, et see pilt sisaldab keelatud sisu. Kui see on väga kindel, saab see sisu automaatselt märgistada. Kui see on ainult kindel, saab ta selle sisu inimesele kahekordselt kontrollida.

Probleem on selles, et halli alasid on nii palju ja tehisintellekt saab oma oletusi teha ainult selle põhjal, mida talle on õpetatud. Seal tekib esimene võimalik probleem. Kui AI-le ei söödetud palju pilte pluss-suuruses naistest, mis on võimalus, arvestades meedia suuremate kehade eelarvamusi, võib see olla probleemi algus.

Siis ütles Lemay, et AI ei saanud teada erinevust väiksema, alasti keha ja pluss suurusega keha vahel bikiinides.

'Kui võtate kaks mudelit, ühe pluss-suuruse ja mitte pluss-suuruse, on tõenäoline, et nahaga seotud piksleid on rohkem,' ütles ta.

Kuna tehisintellekt ei tea, mida ta näeb, võib see põhjustada vale liigituse. Kuid need tehisintellekti süsteemid on ehitatud inimeste poolt ja inimesed on erapoolikud.

Shoog McDaniel on Floridas elav kunstnik, kelle fookuses on suurte kehade aktifotod.

Nagu Fatale, teavad nad reegleid - nibud ja suguelundid on kaetud, tagumikud on paljad vaid eemalt. Ja ometi on olnud aegu, kus nende postituste eemaldamine on olnud iganädalane nähtus.

Instagram: @shooglet

'See oli trend, millest kogukond laiemalt on juba mõnda aega rääkinud, st kui need robotid või mis iganes alastust otsivad, on see naha protsent ülejäänud kehaga võrreldes,' ütlesid nad. BuzzFeed uudised.

'Ma arvan, et see on suur osa sellest ja see on osa süsteemsest fatfoobiast, millega me silmitsi seisame, ja see on täiesti vastuvõetamatu, aga mida me saame teha?'

McDaniel ütles, et neil pole kunagi õnnestunud piltide eemaldamist tühistada. Facebook, kellele kuulub Instagram, on napisõnaline, kuidas selle modereerimise protsess toimib.

Soovime, et meie poliitika oleks kaasav ja kajastaks kõiki identiteete, ning kordame pidevalt oma poliitikat, et näha, kuidas saaksime end paremaks muuta. Me eemaldame sisu, mis rikub meie eeskirju, ja õpetame tehisintellekti potentsiaalselt rikkuva sisu ennetavaks leidmiseks, ”ütles pressiesindaja BuzzFeed Newsile.

„Seda tehnoloogiat ei ole koolitatud sisu eemaldamiseks inimese suuruse alusel, vaid seda otsitakse rikkuvate elementide otsimiseks - näiteks nähtavad suguelundid või vihakõnet sisaldav tekst.

TikTokil oli sarnane sõnum.

'TikTok on kõikehõlmav platvorm, mis põhineb looval väljendamisel - ja meie kasutajad peavad kinni meie kogukonna juhistes kirjeldatud käitumisjuhistest,' ütles pressiesindaja.

Instagram: @shooglet

Need vastused ei ole McDanieli jaoks eriti rahuldavad.

'Praegusel kujul tsenseeritakse üha rohkem inimesi ning elutähtsat ja elu andvat tööd võetakse kiiresti maha,' ütlesid nad.

ma ütlen seda meemiks

McDaniel teab ka selle inimlikku elementi liiga hästi. Nende töö allub sageli keha häbistavate trollide brigaadidele, kes teatavad oma piltidest. Sellised platvormid nagu Instagram on kindlasti sellest nähtusest teadlikud ja ütlevad, et aruannete arv ei käivita automaatselt midagi, kuid mitte kõik pole nii kindlad, et see ei mängi oma osa.

Sisu modereerimist ja veebipõhist ahistamist uuriv teadlane Kat Lo ütles, et aruannetel võib olla suurem osa mõõdukuse masinavärgis, kuid nii on ka inimestel.

'See on nii salakaval tehnoloogiliste süsteemide puhul, mis on nii suured. Seal on nii palju samme ja nii palju võimalusi isegi väikeste eelarvamuste esinemiseks, 'ütles ta.

Ühiskonnas esineva eelarvamuste tõttu on tema sõnul väga võimalik, et kui suurema inimese kujutis langeb inimese moderaatori ette, märgivad nad selle tõenäolisemalt kui roppust või seksuaalsust kui väiksema inimese kujutist.

'Seal on tuhandeid ja tuhandeid väikeseid põhjuseid, mitte laiemaid põhjuseid, nagu' Ma näen nibu, 'ütles ta.

Kõigi nende hallide alade ja nende modereerimise andmebaaside tohutu ulatuse tõttu oleks sellise võimaliku probleemi lahendamine tegelikult kallis ja aeganõudev ning ettevõtetel on selleks väga vähe motivatsiooni.

Lo ütles, et sellised rakendused nagu Instagram või TikTok on surve all hoida asju PG-s, nii et nad oleksid rakenduste poodides kättesaadavad, aga ka selliste seaduste tõttu nagu FOSTA-SESTA või ressursid, mis on vajalikud terrorismiga seotud sisu eemaldamiseks. Lihtsam on olla ettevaatlik.

Ja see võib Fatale -sugused inimesed segadusse jätta.

'Mind teeb kurvaks, et Instagram saab endale lubada seda teemat täielikult ignoreerida,' ütles ta.

'Mind ei tohiks vaigistada ja kustutada, sest te muudate mu keha hüperseksuaalseks, sest see on suurem,' lisas ta. 'Kui nad arvavad, et see probleem läheb ära ja kui nad arvavad, et rasvakogukond loobub sellest probleemist, on neil pikk peavalu.'

Veel sellest