「我們發現一件很恐怖的事——仇恨言論的互動率,比溫和內容高出六倍。」
這句話不是來自某個反社群媒體的激進份子,而是來自Meta內部一名前數據科學家的證詞。這份證詞,連同TikTok內部流出的數百份文件,正在美國國會掀起一場新的風暴。
今天,我們要揭開一個殘酷的真相:你以為AI只是在「推薦你喜歡的內容」?錯了。它正在刻意餵養你的憤怒。
演算法的暗黑實驗:憤怒=流量=金錢
2026年4月,Meta和TikTok的吹哨人聯合向美國聯邦貿易委員會提交了一份爆炸性報告。報告指出,兩家公司的AI推薦系統,明知某些內容會對使用者造成心理傷害,卻仍然將其推送到更多人的頁面上。
為什麼?
因為數據會說話。Meta內部的研究顯示,含有「憤怒表情符號」的貼文,其擴散速度是一般貼文的3.7倍。TikTok的實驗更直接:當系統刻意減少「可能引發負面情緒」的內容時,用戶平均使用時長暴跌了28%。
這不是bug,這是feature。
一位不願具名的前TikTok工程師向我們透露:「高層開會時說得很直白——如果我們把那些『讓人感到不舒服但很刺激』的內容拿掉,用戶就會滑去Instagram Reels。我們不能讓這種事發生。」
從仇恨言論到暴力極端主義
這份報告中最令人不安的部分,是AI如何無差別地放大所有高互動率的內容——包括暴力極端主義。
報告指出,在2025年10月的以巴衝突期間,TikTok的推薦演算法在72小時內,將一個僅有2000粉絲的極端帳號推廣到超過300萬次觀看。該帳號的內容包含未經審查的暴力片段和煽動性言論。
Meta的情況更糟。其內部審計發現,在2025年第四季度,Facebook的推薦系統主動繞過了自己的內容審查機制,將一批已被標記為「仇恨言論」的貼文重新推送給用戶——原因是這些貼文的互動率「異常高」。
Meta發言人在回應本刊時表示:「我們已經對相關系統進行了修正,並將繼續投資於安全基礎設施。」但吹哨人反駁:「修正?他們只是換了個演算法名稱,讓同樣的事情繼續發生。」
香港台灣:我們是實驗白老鼠嗎?
你可能會想:「這都是美國的事,關我什麼事?」
事實是,亞洲市場是這場暗黑實驗的重災區。
根據報告中的數據,Meta和TikTok在東南亞和東亞市場的內容審查力度,平均比歐美市場弱了40%。原因很簡單:歐盟有GDPR和數位服務法案(DSA)的嚴格監管,美國面臨國會聽證會的壓力,但在亞洲,法規相對寬鬆。
香港一位專門研究社群媒體的學者(因議題敏感要求匿名)向我們分析:「香港和台灣用戶對政治內容高度敏感,這正是演算法最喜歡的養分。你在Facebook上憤怒地分享一則政治貼文,系統就學會了——『啊,這個用戶喜歡生氣,多給他看這個。』」
更可怕的是,這些平台在港台的內容審查團隊規模極小。吹哨人報告指出,TikTok在台灣的內容審查員只有不到50人,卻要負責審查每天數百萬則繁體中文內容。審查員平均花在每則內容上的時間——不到3秒。
3秒鐘,能判斷什麼?
吹哨人的代價
揭露這些真相的代價是什麼?
Meta的前數據科學家告訴我們,她在2025年11月向公司內部提出安全疑慮後,48小時內就被調離了核心推薦團隊,轉到一個「基本上不存在」的部門。她最終在2026年1月被解僱。
TikTok的吹哨人更慘。他在2025年12月向英國《衛報》洩露內部文件後,他的LinkedIn頁面被數百條仇恨留言灌爆,他的家人接到了威脅電話。他現在住在一個秘密地點。
「我知道這份工作會讓很多人討厭我,」他透過加密通訊軟體告訴我們,「但我更害怕的是,我的孩子將來問我:『爸爸,你當時為什麼不說話?』」
延伸閱讀
我們能怎麼辦?
這不是一篇讓人絕望的文章。以下是你現在就可以做的三件事:
-
關閉「推薦」功能:在Facebook和TikTok的設定中,關閉「根據你的興趣推薦內容」。這會大幅降低演算法對你的控制。
-
刻意打破模式:每當你看到讓你憤怒的內容,不要按讚、不要留言、不要分享。滑過去。演算法會學會你「不喜歡」這些內容。
-
使用第三方工具:安裝瀏覽器擴充功能如「News Feed Eradicator」或「DF Tube」,它們可以完全移除你的推薦牆,只顯示你主動追蹤的帳號。
但說實話,這些都是治標不治本。真正的問題是:我們願意為了方便,出賣自己的情緒健康嗎?
討論題:你最近一次在Facebook或TikTok上感到「莫名憤怒」是什麼時候?你覺得那是你真正的情緒,還是演算法餵給你的?留言告訴我們你的經驗。