Facebook 人工智能主動發現 仇恨言論增近 400%

| 彭振濠 | 29-04-2021 22:05 | |

【e-zone 專訊】社交網絡對言論的判斷必具爭議性,Facebook 就指接近9成7仇恨言論是由 Facebook 主動移除,而非由用戶報告,於 2019 年至 2020 年,仇恨言論更增長 389% 。

  • Facebook 主動發現的仇恨言論增長 389%
  • 強調無政治傾向

Facebook 內容政策經理 Manu Gumm 在訪談中指出,主動發現率增長達 389%,其中原因是 Facebook 的人工智能系統更有效判斷出相關言論,她指出,Facebook的《社群守則》中訂明不允許的內容,而 Facebook 對仇恨言論的定義是,根據特徵直接攻擊他人,作出人身攻擊等,她強調這定義是在對外進行大量研究,並諮詢許多獨立專家後得出。

Facebook 表示,按比例計算,用戶在 Facebook 上每看到 1 萬則內容,估計只有 7 至 8 則內容會包含仇恨言論。

【相關報道】Facebook 緬甸、泰國遇挑戰 刪政治討論群組

而 Manu Gumm 認為,對機構、甚至是宗教作健康批評,是可以接受。至於直接攻擊的方式,Facebook 認為,暴力或抹滅人性的言論、有害的刻板印象、貶低性的陳述、蔑視、厭惡或打發、咒罵、呼籲排他或劃清界線。但Manu Gumm解釋,Facebook在制定政策時,會與當地專家、地區代表研究,亦會考慮文化背景,不同語言等因素,她亦提到在全球 15000 人的團隊中,亦有懂廣東話的審查員。

現時 Facebook 團隊中共有超過 35,000 人負責處理人身安全和保安問題,其中超過 15,000 人是內容審查員。問到近年政治言論被關注, Manu Gumm 強調,Facebook政策制定並無考慮政治傾向,但遇到仇恨言論就要按規則執行,保證社群遵從法律,她強調該守則是全球一致。

【相關報道】抵制失效 中小企撐 Facebook 淨利倍升

Facebook 指現時用處理仇恨言論的人工智能技術,主要包理解不同語言的 XLM-R 及能夠從整體的角度檢視帖文,包括圖像、影片還是文字,並同時找出各種違反政策的問題的全文解讀技術 WPIE。

Source:ezone.hk

 

相關文章

Page 1 of 21