社交媒體臉書直播暴力內容引發爭議后,這個互聯網巨頭如何管理20億用戶發帖一直是輿論關注的熱點。英國《衛報》21日公布了臉書公司泄露出來的內部文件——通常只有10秒鐘決定內容去留的臉書內容管理員,如何篩選平臺上的仇恨言論、恐怖主義、情色和暴力等爭議性內容。
《衛報》說,臉書的外流文件包括內部培訓手冊、電子表格和流程圖。臉書內容管理員每周要審核超過650萬個可能來自假賬號的舉報,無數“復仇式情色”內容讓管理員疲于應付。所謂“復仇式情色”是指在沒有獲得同意的情況下,在網上張貼分手情人的暴露影像。不少臉書內容管理員對界定情色十分困惑,比如手繪的情色內容可以保留,電子的要刪除;墮胎視頻可以保留,含色情內容的除外……
臉書的內部文件規定,像“殺掉特朗普”這樣的言論要刪除,但一些指導原則還是引發爭議。比如,臉書允許網友直播企圖自殘的視頻;暴力致死的視頻被臉書標記為“令人不安”,但不一定會刪除,因為這些視頻有助于引起他人對精神疾病的關注;有些非性虐待或欺負孩童的照片不會被刪除,除非含有“施虐”或慶祝元素;虐待動物的圖片可以保留,除非照片引發不適;允許網民發表暴力言論……
路透社說,臉書一直強調安全是首要考慮因素,“但同時要確保言論自由”,“魚與熊掌兼得”這么容易嗎?臉書的指導文件雖然看似細致,但在實際操作過程中,不少界線并不分明,“再雇傭1萬名內容審核人員可能都不夠用。”▲
(孔哲)
環球時報2017-05-23