YouTube e eliminat continut daunator inca de la inceput, insa eforturile in aceasta directie s-au accelerat in ultimii ani, in principal prin actualizarea regulilor pe care comunitatea trebuie sa le respecte, imbunatatirea instructiunilor, introducerea sistemelor „machine learning”, dezvoltarea de echipe care sa analizeze continutul sau de programe dedicate in parteneriat cu diferite organizatii. Numai in anul 2018, YouTube a facut peste 30 de schimbari in politicile care guverneaza platforma.

Ca rezultat, in al doilea trimestru al lui 2019, YouTube a eliminat peste 4 milioane de canale si 9 milioane de videouri pentru ca incalcarea regulilor comunitatii. La finalul lunii august, YouTube a publicat raportul trimestrial privind continutul eliminat de pe platforma (Q2 2019), care ofera informatii asupra volumului de continut indepartat, de ce si cand a fost sters.

Inainte de a elimina continut, trebuie ca acea linie intre ce este acceptat si ce se sterge sa fie trasata unde trebuie. Obiectivul este de a asigura libertatea de expresie, si in acelasi timp protejarea si sustinerea comunitatii de pe YouTube. Cu acest scop, YouTube are o echipa de dezvoltare a politicilor comunitatii, care le analizeaza constant pentru a se asigura ca ele sunt la zi, mentin comunitatea in siguranta si nu ingradesc gradul de libertate al YouTube.

Nu intotdeauna este nevoie de noi politici. Uneori se fac doar unele clarificari. Un astfel de exemplu a fost la inceputul lui 2019, cand YouTube a publicat mai multe detalii legate de cand considera ca videourile de tip provocare sunt prea periculoase pentru YouTube. Video-urile cu provocari au luat o mare amploare, si era nevoie de o clarificare privind limitele lor.

In alte cazuri complexe, echipa de analiza poate petrece mai multe luni de zile pentru dezvoltarea unei noi reguli. Acest lucru se face consultand experti externi si creatori de continut de pe YouTube, pentru a vedea unde actualele reguli isi arata limitele, care sunt particularitatile din diferitele regiuni ale lumii, astfel incat schimbarile propuse sa fie aplicate in mod echitabil la nivel global.

O astfel de schimbare fundamentala a fost actualizarea adusa politicilor privind instigarea la ura (hate speech). Modificarea lor a durat luni, iar noul set de politici a fost lansat la inceputul lunii iunie 2019. Impactul noului set de politici privind instigarea la ura s-a vazut in trimestru al doilea din 2019:

  • Peste 100.000 video-uri eliminate, reprezentand o crestere de 5 ori
  • Numarul de canale sterse pe motiv de „hate speech” a crescut de 5 ori, la peste 17.000
  • Numarul de comentarii eliminate de pe YouTube aproape s-a dublat in Q2 2019, la peste 500 milioane, in parte datorita stergerii de comentarii „hate speech”

Machine learning vs. continut nociv

YouTube se bazeaza pe o combinatie de oameni si tehnologie pentru a marca continutul care urmeaza sa fie analizat. In unele cazuri sunt utilizate „amprente digitale” pentru a gasi copii ale continutului nepotrivit, inainte de fi vizionat. Pentru anumit tip de continut, precum abuzuri sexuale impotriva copiilor sau terorism, YouTube contribuie intr-o baza de date a industriei de continut, pentru a creste sansele ca acest tip de continut sa fie blocat inainte de incarcare.

In 2017, YouTube a extins utilizarea tehnologiei machine learning in detectarea continutului potential nepotrivit, trimit apoi pentru analiza umana. Aceasta tehnologie este potrivita pentru a detecta modele, ceea ce ajuta in gasirea continutului similar - dar nu exact la fel - cu alt continut deja eliminat, chiar inainte ca acesta sa fie vizionat de utilizatori. Astfel, peste 87% dintre cele 9 milioane de video-uri eliminate in al doilea semestru din 2019 au fost initial identificate de sistemele automate ale YouTube. Un update al sistemelor de detectie automata a spamului in al doilea trimestru din 2019 a dus la o crestere cu 50% a numarului de canale sterse pentru incalcarea regulilor privind spamul.

Eliminarea continutului inainte de a fi vizionat

In tot acest efort de eliminare a continutului care incalca regulile, un aspect important este ca videourile de acest fel sa nu fie vizionate pe scara larga sau chiar deloc, inainte de a fi eliminate. Aici elementul critic este sistemul automatizat de alertare, care a ajutat la detectarea si evaluarea a continutului inainte de a fi semnalizat de comunitate. In consecinta, peste 80% dintre continutul semnalizat de sistemele automatizare a fost eliminat inainte de a primi o singura vizualizare, in al doilea trimestru al lui 2019.

Anticiparea unor unor probleme inainte de aparitia lor este importanta. Cu acest scop, YouTube a lansat la inceputul lui 2018 Intelligence Desk, o echipa care monitorizeaza stirile, social media si rapoartele utilizatorilor pentru a detecta noi trenduri in zona continutului inadecvat. Google a angajat peste 10.000 de oameni pentru detectarea, analiza si eliminarea continutului care incalca politicile YouTube.

Abonează-te pe

Calculator Salariu: Află câți bani primești în mână în funcție de salariul brut »

Despre autor
Alex Goaga
Alex Goaga scrie despre antreprenoriat, new media si IT&C de peste sase ani, visand (in timpul liber!) la viitoarele holograme portabile “tip Star Wars”. Pasionat de citit (benzi desenate printre altele) .

Te-ar putea interesa și:



Mai multe articole din secțiunea New Media »


Setari Cookie-uri