Cine este responsabil pentru eliminarea GIF-urilor naziste?
Moderează ura animată
În prima fotografie alb-negru granulată, bărbații sapă gropi în timp ce spectatorii privesc de pe o creastă din spatele lor. În prim-plan, un soldat nazist privește, cu spatele la cameră. În diapozitivul următor, figuri minuscule sapă în jurul marginii unui vas vast, cretat în pământ. Apoi, o stradă: un om zace nemișcat pe trotuar, cu sânge care îi curge din cap. Apoi, groapa din nou, acum plină de trupuri. Doi soldați mor printre morți.
Urmează mai multe fotografii alb-negru: femei și copii care așteaptă executarea; un bărbat îngenuncheat deasupra unei tranșee pline de corpuri în timp ce un soldat își țintește capul cu un pistol; o imagine cu pantofi, călcați în noroi. Împreună, acestea cuprind un GIF de prezentare de diapozitive, acum eliminat de gazda Giphy, care descrieun masacru de evrei ucrainenide SS în 1941. Denumit și etichetat descendantsnet, GIF a apărut ca rezultat al căutării termenului einsatzgruppen - echipele morții din Germania nazistă - atât pe Facebook Messenger, cât și pe serviciul de mesagerie direct al Twitter.
Acesta a fost doar un exemplu într-o serie de GIF-uri jignitoare care descriu totul, de la rasism explicit și imagini naziste la violență grafică și agresiune sexuală, care au fost disponibile în diferite momente pentru ca utilizatorii să le posteze pe Facebook și Twitter. Aceste animații au fost accesibile pe ambele platforme, datorită unui lanț de aprovizionare complex, în care nu este clar doar modul în care utilizatorii pot raporta și freca conținut perturbator, dar nu este clar nici cine este responsabil pentru controlul bazelor de date sursă.
În timp ce GIF-ul einsatzgruppen și multe dintre acestea au fost eliminate, mecanismele care le-au permis să prolifereze în primul rând rămân neschimbate. Această lipsă de responsabilitate atunci când vine vorba de moderarea GIF-urilor ridică întrebări suplimentare și îngrijorătoare cu privire la modul în care platformele de socializare aleg să comisioneze, să comercializeze și să polițizeze conținut de la terți. Acest lucru este valabil mai ales pentru conținutul care se pretează cu ușurință manipulării și diseminării de către troli și grupuri de ură a căror proliferare online a crescut în ultimii ani într-o criză existențială masivă pentru platformele de socializare în general.
Inventat în 1987ca un format miniatural video, în buclă, GIF-urile au devenit efectiv propriul lor limbaj digital. Sunt reacții neschimbabile care pot fi implementate în aproape orice context și adesea transmit mesaje mai eficient decât textul în doar câteva cadre. O singura datastrange internet curios, GIF-urile au devenitun refugiu amuzantpentru mulți pe fondul unui ciclu de știri din ce în ce mai brutal și confuz. Pentru alții, ei sunt unvehicul de atac util. Puteți utiliza GIF-uri pentruflirtși rețea. State nationaleconversaîn ele. Când Ucraina a suferit un atac cibernetic major anul trecut, reacția sa oficială a fost să o facătweetun GIF al This is fine dog, un meme descris de creatorul său ca la jumătatea distanței dintre ridicarea umărului și negarea completă a realității.
GIF-urile au devenit un refugiu pentru mulți pe fondul unui ciclu de știri din ce în ce mai brutal și confuzPopularitatea incredibilă a GIF-urilor le-a făcut, de asemenea, o propunere comercială puternică. În ultimii ani, două startup-uri au ajuns să domine peisajul GIF:Giphy, fondată în 2013 șiTenor(numit inițial Riffsy) un an mai târziu. Bazele de date exhaustive ale Giphy și Tenor furnizează Facebook, Twitter, iMessage, Slack și multe altele, cu sute de mii de GIF-uri. Site-urile lor respective permit, de asemenea, oricui să creeze sau să-și încarce propriile GIF-uri în aceste baze de date. În februarie, Tenora anunțatcăutarea GIF-urilor pe tastatura sa proprietară a depășit 12 miliarde pe lună, în timp ce Giphy spune că are până la 300 de milioane de utilizatori activi zilnic.
Ambele firme se bazează pe un amestec de parteneri corporativi, indexarea motoarelor de căutare și utilizatori obișnuiți, adesea anonimi, pentru a încărca GIF-uri, care la rândul lor sunt conectate la rețelele sociale precum Facebook și Twitter și alți clienți. Invitarea întregului internet pentru a crea în mod eficient conținut nou pe platforma dvs. are riscurile sale. Când vine vorba de GIF-uri, cea mai evidentă și mai ușor de combătut este încălcarea drepturilor de autor. La rândul său, Giphya reușit să se îndepărteze de o majoritatea potențialelor probleme legate de Digital Millennium Copyright Act (DMCA) prin încheierea de contracte de licențiere cu principalii parteneri comerciali.
Celălalt pericol mai îngrijorător este acela că ambele site-uri vor vedea conținut urât și dureros fie indexat accidental de crawlerele web personalizate, fie încărcat în mod deliberat, acesta din urmă fiind de mult o problemă pentru platformele video mai proeminente precum YouTube. Pentru a restrânge posibilitatea filtrelor GIF-uri jignitoare pe site-urile lor,ambii furnizoriau reguli privind interdicția de a încărca discursuri de ură sau conținut defăimător, ilegal, pornografic sau violent și folosesc un amestec de instrumente umane și de moderare automată pentru a le pune în aplicare. Dacă pe Facebook și Twitter este postat un GIF jignitor din baza de date, există instrumente de raportare pe ambele platforme care permit utilizatorilor să semnaleze clipurile postate pentru eliminare - deși nu există un mecanism pentru ca utilizatorii de pe ambele platforme să raporteze GIF-uri care apar de la terți atunci când utilizatorii căutare.
GIF-urile rasiste și antisemite originare din Giphy continuă să apară. În noiembrie 2015,Times of Israel raportatdespre existența unei teorii a conspirației din 11 septembrie GIF care apare în rezultatele pentru Israel în căutarea GIF a Facebook. În martie 2017, un site de știri australiandescoperitcă alte sute de clipuri care descriu imagini Hitler și naziste erau disponibile pentru a fi postate de pe butonul GIF al Facebook. (Facebook a blocat ulterior GIF-urile cu cuvântul cheieHitler.) Apoi, în iulie 2017, Forbes raportatmai multe cazuri în care clipurile antisemite în mod explicit erau returnate în anchetele de căutare ca răspuns la termenul evreu, dintre care unul a fost ulterior folosit pentru a hărțui un reporter evreu pe Twitter. La începutul acestui an, Instagram și Snapchat au suspendat temporar funcționalitatea GIF pe platformele lor după ce a fost descoperită o animație rasistă în biblioteca de autocolante Instagram ca rezultat al căutării termenului infracțiune.
Confuzia cu privire la cine răspunde pentru moderarea GIF-urilor provine din modul în care apar pentru un utilizator mediuOrice GIF furnizat fie Twitter, fie Facebook trebuie să respecte standardele comunității fiecărei platforme, care fie interzic sau impun o limită de vârstă pentru conținutul grafic violent sau pornografic și interzic discursurile de ură (inclusiv simbolurile naziste). Însă, în cea mai mare parte, utilizatorii pot raporta conținut numai după ce este postat, nu dacă apare într-o căutare extrasă de la o terță parte. (Există o opțiune de marcare pentru utilizatorii versiunii desktop a Facebook și, deși puteți încerca tehnic să raportați rezultatele căutării GIF în acest fel, instrumentul estedestinat să raporteze caracteristicile site-ului defect.) Oriunde altundeva, utilizatorii se pot baza doar pe instrumente de marcare concepute pentru conținutul postat sau urmărirea animației înapoi la gazda originală și avertizarea moderatorilor cu privire la existența sa acolo. Acest lucru creează un blocaj care probabil descurajează majoritatea utilizatorilor ocazionali să raporteze.
Când a fost abordat cu privire la mecanismele sale de marcare GIF, Twitter a refuzat să comenteze. Între timp, un purtător de cuvânt de la Facebook a răspuns că site-ul a purtat mai multe conversații cu partenerii noștri, inclusiv atunci când ni se raportează ceva care nu îndeplinește standardele comunității noastre. Purtătorul de cuvânt a repetat, de asemenea, o declarație pe care i-a dat-o companiaForbesîn iulie 2017: GIF-urile care pot fi trimise pe Messenger sunt furnizate de terți. Dacă suntem informați că un furnizor terț încalcă politicile noastre, contactăm furnizorul pentru a ne asigura că soluționează problema prin eliminarea conținutului care încalcă.
Este un răspuns satisfăcător? Cred că este probabil un răspuns veridic în acest caz, dar nu pare foarte satisfăcător, spune Sarah T. Roberts, expert în moderarea conținutului la UCLA. Este o diferență arbitrară pe care majoritatea utilizatorilor ar avea probleme să o înțeleagă. Gândiți-vă la performanța lui Mark Zuckerberg în fața Congresului ... [acei senatori și reprezentanți] nici măcar nu au obținut unele dintre aceste distincții.
În teorie, modelul actual pentru controlul GIF-urilor ar trebui să funcționeze. La urma urmei, există mai multe etape în care este evaluată oportunitatea unui clip: în etapa de încărcare, în care GIF este supus unui amestec de revizuire umană și automată; împotriva standardelor comunității Facebook sau Twitter; și, în cele din urmă, de către utilizatorii acestor platforme, care ar trebui să poată alerta platforma și furnizorul, dacă animația încalcă regulile.
Însă acest lucru presupune că regulile care guvernează ceea ce este și nu este permis sunt aceleași între furnizorii terți și platformele sociale pe care le deservesc. De fapt, standardele diferă mult, chiar și între Tenor și Giphy. Tenor, de exemplu,interziceîncărcarea de conținut care este violent sau amenințător sau care promovează violența, care este în conformitate cuRegulile FacebookPe aceasta problema. Între timp, Giphy face o excepție pentru violența fictivă, motiv pentru care se caută clipuri dinInglourious Basterdsva returna mai multe clipuri violente pe furnizor care sunt blocate ca opțiune pe Messenger.
Anonimatul unui utilizator care încarcă GIF variază, de asemenea: pe Giphy, orice vizitator poate crea unul, deși trebuie să fiți un utilizator verificat pentru ca clipul dvs. să apară ca rezultat al căutării. Pe Tenor, utilizatorii trebuie să-și creeze un cont înainte de a putea încărca ceva. Termenii de căutare sunt, de asemenea, supravegheați. O căutare pentru nazist pe Giphy, de exemplu, nu va da rezultate; tastați același termen pe Tenor, între timp, și va apărea o cornucopie de clipuri animate de Hitler. Până de curând, a existat, de asemenea, o disparitate în mecanismele de raportare ale ambelor site-uri. Pe Giphy, utilizatorii pot semnaliza conținutul stresant prin pagina de detalii a fiecărui GIF. Acest mecanism de pe site-ul Tenor a fost absent până la sfârșitul lunii mai.
Această abordare indirectă, cu mai multe conducte de moderare, înseamnă, de asemenea, că vizitatorii Facebook, în special, nu știu adesea că GIF-urile au fost furnizate site-ului prin intermediul unor terțe părți. În raportul său privind clipurile antisemite din 2015, aTimes of Israeltitlul le-a descris ca o caracteristică de pe Facebook, în timp ce în martie 2017, Comisia australiană de combatere a defăimării B’nai B’rith a cerut lui Mark Zuckerberg să intervină personal și să înlăture clipurile care înfățișează simbolurile hitleriste și naziste. Uneori, moderatorii Facebook nu par să știe cine este responsabil pentru cenzurarea conținutului GIF. În iulie 2017,Forbesa raportat, de asemenea, cazul unui utilizator pe nume Liz Dobin, care a fost în mod repetat frustrat în încercările sale de a raporta un GIF antisemit. La un moment dat, a fost informată de un moderator că pune o întrebare pe care nu o putem susține de aici.
Această confuzie cu privire la cine este responsabil pentru moderarea GIF-urilor provine din modul perfect în care funcția apare unui utilizator mediu de Facebook sau Twitter, spune Tarleton Gillespie, autorul Custodi ai internetului: platforme, moderarea conținutului și deciziile ascunse care modelează social media .
Dacă [doriți] să aruncați un GIF animat în postarea dvs., nu doriți ca acest lucru să simtă că trebuie să treceți la [furnizor], să vă conectați, să alegeți ceva în motorul de căutare și să vă deplasați înapoi, spune Gillespie . Cu cât puteți reduce la minimum acea serie de pași, cu atât veți folosi mai mult șansele de a vă simți mai intuitiv. Dar asta șterge faptul că [platformele de socializare și bazele de date GIF] sunt de fapt parteneri, făcând acest lucru împreună.
Apelurile directe adresate Comunității de asistență Facebook au căzut de multe ori pe auz. Acum doi ani, utilizatorul Ryan Morsea postat o întrebareîntrebând cum ar putea raporta prea mult o descriere de desen animat a feței negre ca răspuns la termenul de căutare. Știa că GIF-urile au fost furnizate Facebook prin terțe părți, dar nu era sigur ce rol a jucat rețeaua socială în moderarea conținutului respectiv. În cele din urmă, nu a fost ceva pe care l-am auzit vreodată, spune Morse. Nu părea să existe un proces sau ... răspunderea pentru ceva care trece prin sistemul lor.
Nu părea să existe un proces sau o responsabilitate pentru ceva care trece prin sistemul lor.Mai mulți alți utilizatori au postat întrebări similare în Comunitatea de ajutor despre cum să raportați GIF-uri jignitoare în căutare,inclusivThorlaug Ágústsdóttir, politolog din Islanda. Ágústsdóttir descoperise că primul rezultat pentru termenul de feminism a fost o buclă a unei femei cu părul roșu care striga într-o cameră cu cuvântul TRIGGERED sub față. În imposibilitatea de a găsi o modalitate de raportare, ea și prietenii ei au încercat să jocă sistemul. Eșecul lor a subliniat cât de puțin se știe despre modul în care sunt livrate GIF-uri pe Facebook.
Am crezut că sunt generate de utilizatori, spune Ágústsdóttir. Dar nu pare așa, deoarece un grup de 20 de femei nu a reușit să schimbe ceea ce a apărut în selecția GIF după ce a postat GIF-uri noi în piscină.
În majoritatea cazurilor în care apariția GIF-urilor jignitoare pe social media a fost discutată public, furnizorii și platformele au adoptat o postură reactivă: este identificată o animație, ambele companii sunt abordate pentru comentarii publice, iar furnizorul răspunde prin eliminarea GIF-urilor . Este un proces care depinde de existența unui utilizator jignit, de obicei unul care a dat peste o animație jignitoare doar după ce a folosit un termen de căutare benign.
O investigație superficială relevă faptul că o mulțime de materiale este ușor accesibilă pe Twitter și Facebook unui al doilea tip de utilizator: cel care caută în mod deliberat material ofensator pentru a posta și, prin urmare, nu are nicio înclinație de a raporta existența sa. În mai multe cazuri, a fost posibil să se ocolească termenii de căutare interzise pentru insultele rasiale, adesea prin simpla plasare a spațiilor între literele unui cuvânt sau a unei expresii. Multe dintre GIF-urile care au rezultat au descris stereotipuri rasiste, deși altele pur și simplu au portretizat oameni de origine neagră sau asiatică. Tocmai de ce acest lucru este posibil rămâne neclar, deoarece aproape niciunul nu fusese etichetat ca atare nici pe Giphy, nici pe Tenor.
În cea mai mare parte, utilizatorii pot raporta conținut numai după ce este postatTipurile de mecanisme care sunt folosite pentru a ocoli gărzile care există - de exemplu, după cum descrieți, punând spații între literele terminologiei rasiste - acestea sunt la fel de vechi ca internetul social în sine, spune Roberts. Ceea ce combate în mod normal acest lucru este o simplă listă de cuvinte cu termeni interzise. Este doar cea mai ușoară, mai puțin complicată barieră de conținut automat din punct de vedere tehnologic. De asemenea, este incredibil de ușor de învins.
O modalitate prin care trolii evită barierele de conținut pentru a realiza acest lucru este de a crea suporturi legate de diferiți termeni de căutare care sunt adesea mai generali (sau mai obscur) în sens pentru a-i masca sensul și intenția. Există dovezi care sugerează că ambele au avut loc pe Giphy și Tenor. Termenul de căutare viol a evocat multe imagini violente și fără gust pe Facebook Messenger. (Niciunul nu a apărut pe Twitter.) Între timp, termenul de căutare armenians a prezentat o prezentare a victimelor din 1992Masacrul Khojaly.Schutzstaffela produs reamuri de imagini naziste, în timp ce rezultatele genocidului includeau imagini de știri arhivate ale unui miting nazist și o imagine a unui câmp presărat cu cruci funerare care afișează textul White Genocide Africa de Sud.
GIF care descrie masacrul lui Babi Yar se încadrează, de asemenea, în această categorie ca imagini care au fost extrem de divorțate de contextul său original. Pe Giphy, sursa sa este listată ca un site obscur de istorie a familiei creat de Christine Usdin, un artist și genealog amator care estecreditatcu traducerea a mii de înregistrări ale recensământului leton în engleză. Site-ul - dedicat în mare parte poveștii lui Višķi, un fost shtetl din Letonia - este o sursă pentru localitatea așezării.Pagina Wikipedia, ceea ce explică faptul că majoritatea locuitorilor evrei au fost uciși de unitățile Einsatzgruppen sau mutați cu forța în ghetoul Daugavpils din apropiere. GIF-ul animat care înfățișează masacrul Babi Yar a fost unul dintre cele menite să arate barbarul naziștilor. Usdin nu l-a încărcat cu siguranță pe Giphy: a fost încărcat pe platformă în octombrie 2016. Usdin a murit în 2013.
GIF-ul Babi Yar al lui Usdin a fost supus aceluiași proces de revizuire și distribuție ca un clip de două secunde dinBiroulsau cel mai recent joc NBA. Ca raspuns laThe VergeLa cererea de comentariu, Tenor a emis scuze pentru găzduirea de GIF-uri jignitoare pe platforma sa și a spus că lucrează din greu pentru a se asigura că animațiile pe care le furnizează partenerilor săi sunt conforme cu standardele și politicile comunității lor.
Punerea spațiilor între literele termenilor de căutare rasiste este la fel de veche ca și internetul social în sine.Avem un proces extins de revizuire umană înainte ca conținutul să poată fi postat pe Tenor și avem opțiuni de marcare a conținutului în aplicația noastră și pe site-ul nostru web, pe lângă revizuirea proactivă a conținutului din biblioteca sa existentă, a declarat un purtător de cuvântThe Verge. [Am] adăugat, de asemenea, opțiuni de semnalizare la fiecare GIF de pe site-ul nostru web pentru a facilita și mai mult raportarea conținutului. Tenor a adăugat că toate animațiile descoperite deThe Vergeacum fusese eliminat sau recategorizat. Au fost introduse și clasificatoare de conținut și a fost remediată o eroare care le-a permis utilizatorilor să efectueze căutări necorespunzătoare tastând spații între cuvinte.
Între timp, un purtător de cuvânt de la Giphy a declarat că furnizorul are o politică de toleranță zero pentru orice conținut care încalcă Regulile comunității și că are deja mai multe niveluri de filtre de moderare a conținutului pentru fiecare conținut distribuit prin GIPHY, inclusiv un amestec a software-ului, a serviciilor terțe și a mecanismului de semnalizare intern. Avem linii directe de comunicare cu partenerii noștri de integrare pentru a aborda imediat orice problemă de conținut pe care o găsesc și care încalcă propriile lor orientări privind conținutul. Purtătorul de cuvânt a adăugat că Giphy remodifică în mod proactiv conținutul în mod regulat și menține o listă neagră de termeni și conținut ofensator, care este actualizată continuu.
Chiar și așa, aceste măsuri de protecție nu au făcut prea mult pentru a împiedica apariția pe Facebook și Twitter a unor clipuri de mitinguri naziste, glume de viol și imagini grafice ale crimelor de război. Aceste GIF-uri au fost ascunse la vedere pe Tenor și Giphy, în unele cazuri de ani de zile. Acest lucru se întâmplă adesea deoarece politicile proactive de moderare nu sunt aplicate cu elan chiar și atunci când există. În absența acestui lucru și a unui mecanism de semnalizare mai integrat și mai aprofundat pentru GIF-urile Giphy și Tenor de pe Facebook și Twitter, utilizatorii vor rămâne confuzi cu privire la - și, prin urmare, descurajați - de a raporta conținut ofensator. Și sunt puține lucruri care să sugereze că conținutul grafic și dureros nu va continua să fie indexat accidental sau încărcat de troli și grupuri de ură în anii următori.
Alte platforme au adoptat o abordare mai moderată a moderării GIF decât Facebook și Twitter. Când un utilizator Instagram din Marea Britanie a raportat că în martie a apărut o animație rasistă pe funcția Povestiri a platformei, platforma a suspendat funcționalitatea GIF pe platforma sa în câteva ore. Într-oafirmațielaTechCrunch, Giphy a spus că animația era disponibilă datorită unei erori în filtrele noastre de moderare a conținutului care afectează în mod specific stickerele GIF. GIF-urile au fost reinstalate pe ambele platforme mai târziu în acea lună, după ce Giphy a spus că și-a spălat biblioteca de autocolantenu mai puțin de patru ori.
Regulile de moderare vorbesc multitudinea de tipul de loc pe care o rețea socială dorește să îl aibă utilizatorii săiDesignul Facebook și Twitter le permite mai multe opțiuni creative decât Instagram sau Snapchat. O soluție ușoară - și primul ordin de lucru - ar trebui să fie soluționarea mecanismului de raportare existent, astfel încât [să funcționeze] într-un mod real, spune Roberts. Aceasta este linia de bază. Acesta este un lucru ușor pe care l-ar putea face chiar acum.
Aceasta ar însemna adăugarea unui mecanism pentru ca utilizatorii să raporteze un rezultat de căutare ofensator în cadrul căutării butonului GIF, care le-ar permite să raporteze instantaneu existența sa atât platformei, cât și furnizorului. Acest lucru ar necesita, la rândul său, politici unificate cu privire la conținutul permis, linii de comunicare mai directe între cele două și o explicație publică mai clară de către ambii cu privire la cine este responsabil pentru moderarea GIF-urilor pe rețelele sociale în beneficiul utilizatorilor care sunt încă confuz.
În timp ce un sistem de semnalizare eficient în cadrul căutărilor GIF de pe Facebook și Twitter ar putea fi un început, ar trebui, de asemenea, să fie completat de alte instrumente de moderare. Gillespie îi atrage pe oameni care joacă sistemul respectiv, cum ar fi trolii care încarcă conținut scandalos sau cei care se plâng de conținut care nu încalcă drepturile, doar pentru a vedea ce se întâmplă.
Facebook și Twitter ar putea, de asemenea, să cenzureze GIF-urile prin termeni de căutare mai agresiv, dar acest lucru este, de asemenea, problematic dacă subiectul pe care îl indică cuvântul este prea general. Instrumentele de moderare automată sunt, de asemenea, utile în identificarea conținutului jignitor înainte ca acesta să poată fi văzut de majoritatea utilizatorilor. Acest lucru a fost recent creditat de Facebook ca motiv pentru care a fost capabil să ia măsuri de aplicare a legii asupra a 1,9 milioane de postări al-Qaeda și ISIS pe platforma sa. Algoritmii, totuși, nu sunt infailibili și necesită o pregătire extinsă pentru a se asigura că înțeleg corectcontextdin mass-media cărora le revine sarcina de poliție. Tot ce trebuie să faceți este GIF-uri rasiste Google și faceți clic pe primul rezultat al căutării Giphy - care oferă GIF-uri care descriu pe cinevazicalăceva este rasist chiar alături de GIF-uri care prezintă de fapt imagini rasiste - pentru a înțelege cât de limitate pot fi instrumentele de screening automat.
Numai moderatorii umani - încercați, testați și cicatrici - pot lua aceste decizii nuanțateÎn cele din urmă, niciunul dintre aceste instrumente și acțiuni nu este egal cu munca atentă a moderatorilor umani care traulează prin mizeria de conținut online ticălos - deși adesea are un cost personal ridicat. Nu vreau să sugerez să punem mai mulți oameni la vedere, în ochii obrazului, a acestui tip de muncă, spune Roberts, însă cu excepția mecanismelor tehnologice, care, în multe cazuri, nu sunt adecvate, aceasta este „soluția”.
steve ditko art
GIF-urile sunt polisemice: sunt capabili să transmită multe semnificații simultan, în registre multiple de accentuare. Instrumentele automate, cum ar fi PhotoDNA, pot ajuta enorm la împiedicarea răspândirii conținutului ilegal conținut în ele, dar sentimentele jignitoare înfășurate în imagini benigne le pot scăpa.
A arunca mai mulți dintre ei la problemă nu este o soluție pe care ea o recomandă cu plăcere, dar, potrivit lui Roberts, este una dintre puținele disponibile pentru poliția unui mediu copt pentru abuz. Rațiunea de a fi a unui GIF este să fie această formă abstractă care transmite un fel de semnificație puternică în cel mai scurt timp, explică ea. Deci, la ce vor ajunge oamenii? Ei bine, poate vor doar să ajungă la nadir.