Ingen kommentar
MediaCreeper

Information

This article was written on 12 maj 2015, and is filled under Användbarhet, Tips.

Current post is tagged

, ,

Bildmoderering: automatisera så långt det går!

pixladDetta är ett förslag som uppkom efter att ha läst ännu en beskrivning av den vidriga arbetsmiljön för de som innehållsmodererar bl.a. Facebook och Whisper (artikeln finns att läsa här, men innehåller beskrivningar av extrema våldshandlingar och övergrepp, så jag rekommenderar faktiskt att inte läsa).

Min tanke är att avlasta moderatorerna. Istället för att teamet ska utsättas för den psykologiska påfrestningen av att se samma vidriga bild om och om igen ser bara en i teamet den en enda gång. Något som gör debriefing lättare.

För att sälja in det till de content-beroende företagen så går det även att trycka på att detta är billigare i längden i och med tidsbesparingaren då varje moderator enbart hanterar unika bilder istället för att behöva processa samma bild om och om igen.

Principskiss

1 – Moderatorerna

  • Moderatorerna kollar varje ny bild som tar sig förbi algoritmens filter och kan flagga den som olämplig på olika grunder.
  • Flaggade bilder sparas på server tills ärendet är avgjort.

2 – Algoritmen

  • Varje bild som laddas upp ges en checksum i form av en kryptografisk irreversibel hash.
  • Varje ny checksum kollas mot en lista med redan existerande checksummor.
  • Om checksumman redan finns sparas inte bilden på servern, utan den redan existerande används.
  • Har checksumman en flagga i listan laddas inte bilden upp, utan användaren som försöker ladda upp den får alltifrån en automatisk varning till en polisanmälan (d.v.s. blanda in moderatorerna) beroende av vilken flagga som satts.

(alternativ är att Google skulle sälja video-/bild-identifieringstjänster som den som kontrollerar DRM-skyddat material på YouTube, eller att Shazam utvecklar en tjänst som liknar deras musikidentifierings-app)

Vad gör då detta?

Förhoppningsvis skyddar det moderatorernas hälsa då de skulle slippa se övergrepp upprepas. Förmodligen skulle personalstyrkan då även minskas, vilket ger ett upplägg den etiska diskussionen om alla jobb ska sparas eller om det finns vissa jobb människor inte bör ha (där min åsikt kort sagt är att jobb som är skadliga bör automatiseras eller tas bort).

Det skulle även som sagt göra processen billigare, snabbare och mer enhetlig – det skulle inte hänga på en enskild moderator att bedöma, framför allt med den risk som finns att materialet ska normaliseras för den som jobbat länge.

Kommentarer inaktiverade.