Facebook和Twitter無法監管發佈的內容

AI和人類似乎都無法適當地審核內容

最近更新時間 2021-02-20 11:25:16

Social media

我現在不想在社交媒體公司工作。隨着人們對起義計劃,陰謀論以及其他有害內容的關注,Facebook,Twitter和其他人將面臨重新清理其行為的壓力。然而,不管他們嘗試什麼,我所能看到的都是障礙。

我自己對內容審核的經驗使我對公司的動機深表懷疑。我曾經拒絕在Google從事一項人工智能項目,該項目旨在解析YouTube著名的有害評論:投入這項工作的資金太少了,尤其是與YouTube的16.5億美元估值相比,我得出的結論是,這不是很嚴肅,就是失敗了。我在Twitter上的反騷擾項目也有類似的經歷:試圖僱用我的人在我們講話後不久就辭職了。

從那以後,這個問題變得更加嚴重,很大程度上是設計使然。在大多數社交媒體公司中,內容審核包括兩個部分:一個依賴於用户或AI的標記系統,以及一個人類可以參考既定策略的判斷系統。要進行審查,通常需要標記並發現違規的內容。這為可疑內容提供了三種獲取途徑:可以將其標記為違例,但不能標記為違例,但可以將其標記為違例,也不能將其標記為違法。

創造和傳播有毒內容的人們花了無數時間來弄清楚如何避免被人和AI標記,通常是確保僅覆蓋那些認為它沒有問題的用户。兩家公司的政策還遺漏了很多不好的東西:例如,直到最近,Facebook才決定刪除有關疫苗的錯誤信息。

rss_feed