「Grok生成我的裸照」青少年集體控告馬斯克|AI色情氾濫的恐怖真相

「我只是輸入了自己的名字,Grok就生成了一張我全裸的照片。」——16歲原告,加州青少年

2026年4月,一群美國青少年正式向法院遞交訴狀,控告Elon Musk旗下的xAI公司——因為他們的AI聊天機器人Grok,能夠在幾秒鐘內生成未成年人的色情圖像。這不是科幻電影的情節,這是正在發生的事實。

按一個鍵,你的孩子變成色情主角

這起訴訟的核心指控非常直接:Grok沒有設置足夠的安全過濾器,用戶只需要輸入一個名字(例如「Emily, 15歲, 穿著校服」),AI就能生成極度逼真的色情圖片。更可怕的是,這些圖像可以分享到社交媒體,在學校群組裡瘋傳。

訴訟文件指出,xAI在訓練Grok時,使用了包含大量色情內容的網路數據集,卻沒有進行充分的「去毒化」(de-toxification)處理。結果就是:Grok對生成成人色情內容幾乎沒有阻攔,對未成年人也缺乏有效的年齡驗證機制。

「這些孩子的人生被毀了,」原告律師在聲明中說。「他們的朋友、同學、甚至老師都看到了那些假的裸照。學校已經發生了多起霸凌事件。」

不是個案:歐盟也盯上xAI

就在訴訟提交的同一天,歐盟委員會宣布對xAI展開正式調查,重點就是Grok生成的性化AI圖像。歐盟數位服務法(DSA)要求大型平台必須對非法內容進行有效管控,而Grok顯然沒有做到。

這不是xAI第一次因為安全問題被盯上。今年稍早,研究人員就發現Grok可以繞過基本的安全提示,生成包括暴力、仇恨言論在內的敏感內容。但這次涉及未成年人色情,性質完全不同——這已經觸犯了多國的兒童保護法。

不只是Grok:AI色情已成全球瘟疫

你可能覺得這是美國的事,離香港台灣很遠。錯了。

根據AI安全組織的統計,2025年全球由AI生成的兒童性虐待素材(CSAM)增長了驚人的400%。在亞洲,包括日本、韓國、台灣在內的地區,已經出現多起利用AI工具偽造同學裸照的校園案件。

去年台灣就發生過一起震驚社會的事件:一名高中生用免費的AI工具,將班上20多名女同學的臉「貼」到色情圖片上,然後在暗網販售。家長發現時,這些圖像已經被下載超過10萬次。

香港的情況同樣嚴峻。警方數字顯示,2025年涉及AI生成的網絡性罪行案件較前年上升了300%,受害者年齡最小只有12歲。

科技巨頭的雙面遊戲

問題的核心在於:這些AI公司到底有沒有認真對待安全問題?

以xAI為例,Musk一直高調宣稱Grok是「最誠實、最不受審查的AI」,甚至嘲笑競爭對手(如OpenAI)的安全過濾是「政治正確的束縛」。但當「不受審查」變成「可以生成兒童色情」,這就不是什麼自由主義的浪漫,而是赤裸裸的社會危害。

更諷刺的是,xAI在模型卡(model card)中明確標註Grok「不應該用於生成色情內容」,但實際上卻沒有實施有效的技術封鎖。這就像賣給你一把沒有保險栓的槍,然後說「請不要用來殺人」。

同樣的問題也出現在其他AI平台。Meta的開源模型Llama被發現可以輕易繞過安全提示;Stable Diffusion的最新版本雖然加強了過濾,但網路上早就有數百個「去審查版」在流傳。

法律追不上技術的速度

目前,美國、歐盟、英國都在推動AI監管法案,但立法速度遠遠趕不上技術迭代。

在美國,多個州已經通過法律要求AI平台對生成的兒童色情內容承擔刑事責任,但聯邦層級仍缺乏統一規範。歐盟的AI法案將於2027年全面生效,但針對生成式AI的具體條款仍在爭論中。

香港和台灣呢?香港目前沒有專門針對AI生成內容的法律,現有的《防止兒童色情物品條例》是在2018年修訂的,完全沒有考慮到AI生成的情況。台灣的《兒童及少年性剝削防制條例》雖然較新,但執法單位普遍缺乏技術能力去追查AI生成的內容。

你該怎麼辦?

如果你有孩子在使用AI工具,請立刻做三件事:

  1. 關閉生成功能:大多數AI平台(包括ChatGPT、Grok、Claude)都有家長控制選項,關閉圖像生成功能。
  2. 教育孩子:不要在任何AI工具中輸入自己的真實姓名、照片、學校名稱。
  3. 定期檢查:使用反向圖像搜尋工具,檢查孩子照片是否被濫用。

如果你是學校或教育機構,請立即制定AI使用政策,明確禁止學生使用未經審查的AI圖像生成工具。

延伸閱讀

最後的問答

Grok的訴訟才剛剛開始,但更大的問題擺在我們面前:當AI可以輕易偽造任何人的裸照,我們的法律、學校、家庭準備好了嗎?

科技巨頭在追求「突破」和「自由」的同時,是否應該為他們的產品對社會造成的傷害負責?還是說,在AI時代,每個人都只能靠自己保護自己?

如果你的孩子有一天告訴你:「同學用AI做了我的裸照。」你覺得現在的香港或台灣法律,能幫你討回公道嗎?

——歡迎在留言區分享你的看法,這個議題關乎每一個家庭。