YouTube har avslørt omfanget av videoproblemet, med totalt 8,3 millioner videoer fjernet fra nettstedet i oktober til desember i fjor.

Av disse videoene ble ca. 6,6 millioner av disse flagget av en algoritme. Resten ble plukket opp av menneskelige øyne som vi gjetning trenger litt bleking akkurat nå.

Gjennomgangsrapporten for YouTube-retningslinjene for håndhevelse fremhever hva Google gjør for å sikre at YouTube er et tryggere sted å besøke. Men det avslører også akkurat hva en kollisjon av kontroversen nettstedet kunne være hvis det ikke hadde disse tiltakene på plass - tiltak som mange fortsatt tror ikke går langt nok til å hindre strømmen av hatfulle eller fornærmende bilder.

Rapporten sier at ut av videoene tatt ned, ble 75% aldri sett av publikum. Vend dette imidlertid, og det betyr en fjerdedel.

Det er publikum som gjør mye av jobben YouTube bør gjøre, som fungerer som moderatorer på nettstedet ved å flagge innhold der det er nødvendig. For tiden er 30% av det som er flagget, seksuelt innhold, mens 26% er merket som "spam eller villedende". "Hatefulle eller fornærmende" innholdsklokker på 15%, med "voldelig eller avstøtende" innhold som utgjør 13% av videoene flagget.

rødt flagg

I rapporten forklarer YouTube litt om sitt Trusted Flagger-program, som er tilgjengelig for offentlige etater og andre institusjoner. Dette for YouTube er et prioriteringsprogram, men videoene går gjennom de samme kontrollene som de ville hvis en vanlig bruker hadde flagget en video, de er bare prioritert.

“Trusted Flagger-programmet ble utviklet for å aktivere svært effektive flaggers for å varsle oss om innhold som bryter med retningslinjene våre for fellesskap via et masserapporteringsverktøy,” sier rapporten.

“Personer med nøyaktighetskrav med høy flagg, frivillige organisasjoner og offentlige organer deltar i dette programmet, som gir opplæring i å håndheve YouTubes retningslinjer for fellesskapet.”

Størrelsen på videokontroll er imidlertid gjort av AI - noe som ikke sannsynligvis endres, gitt det store innholdet som blir flagget, selv om YouTube sies å rekruttere tusenvis av mennesker for å hjelpe i denne jobben..

“YouTube utviklet automatiserte systemer som hjelper til med å gjenkjenne innhold som kan bryte retningslinjene våre. Disse automatiserte systemene fokuserer på de mest egregious former for misbruk, som for eksempel barnutnyttelse og voldelig ekstremisme,” leser rapporten.

“Når potensielt problematisk innhold er flagget av våre automatiserte systemer, kontrollerer menneskelig gjennomgang av det innholdet at innholdet faktisk bryter med våre retningslinjer, og tillater innholdet å brukes til å trene våre maskiner for bedre dekning i fremtiden..

“For eksempel, med hensyn til de automatiserte systemene som oppdager ekstremistisk innhold, har våre lag manuelt gjennomgått over to millioner videoer for å gi store mengder treningseksempler, noe som forbedrer maskinens læringsteknologi.”

Det fortsetter å merke seg at automatiserte systemer i 2017 bidro til å flagge mer voldelig ekstremistisk innhold for menneskelig gjennomgang, og fremskrittene i maskinlæring innebar at nesten 70% av det voldelige ekstremismeinnholdet ble tatt ned innen åtte timer og halvparten av det på to timer . Det bruker det det lærte av dette for å håndtere annet problematisk innhold.

Når det gjelder å flagge denne typen videoer, topplegger India listen over landet med det mest flaggede innholdet, med USA på andreplass - Storbritannia er sjette.

Hvis du vil se hvordan YouTubes flaggingsystem fungerer på en merkelig cutesy måte, så gå til videoen nedenfor.

  • YouTube-barna er ikke ok, og dette må endres, raskt