Detta är ett förslag som uppkom efter att ha läst ännu en beskrivning av den vidriga arbetsmiljön för de som innehållsmodererar bl.a. Facebook och Whisper (artikeln finns att läsa här, men innehåller beskrivningar av extrema våldshandlingar och övergrepp, så jag rekommenderar faktiskt att inte läsa).
Min tanke är att avlasta moderatorerna. Istället för att teamet ska utsättas för den psykologiska påfrestningen av att se samma vidriga bild om och om igen ser bara en i teamet den en enda gång. Något som gör debriefing lättare.
För att sälja in det till de content-beroende företagen så går det även att trycka på att detta är billigare i längden i och med tidsbesparingaren då varje moderator enbart hanterar unika bilder istället för att behöva processa samma bild om och om igen.
1 – Moderatorerna
2 – Algoritmen
(alternativ är att Google skulle sälja video-/bild-identifieringstjänster som den som kontrollerar DRM-skyddat material på YouTube, eller att Shazam utvecklar en tjänst som liknar deras musikidentifierings-app)
Förhoppningsvis skyddar det moderatorernas hälsa då de skulle slippa se övergrepp upprepas. Förmodligen skulle personalstyrkan då även minskas, vilket ger ett upplägg den etiska diskussionen om alla jobb ska sparas eller om det finns vissa jobb människor inte bör ha (där min åsikt kort sagt är att jobb som är skadliga bör automatiseras eller tas bort).
Det skulle även som sagt göra processen billigare, snabbare och mer enhetlig – det skulle inte hänga på en enskild moderator att bedöma, framför allt med den risk som finns att materialet ska normaliseras för den som jobbat länge.