「我打開Grok,輸入自己的名字,它給了我一張我從未拍過的照片——全身赤裸。」

這是17歲美國高中女生艾瑪(化名)在起訴書中的第一句話。她不是唯一一個。上週,一群美國青少年正式控告馬斯克的xAI公司,指控其AI聊天機器人Grok能輕易生成她們的色情深偽圖片(deepfake nudes)。這不是科幻片——這是2026年5月正在發生的事。

三秒鐘,你的臉變成裸照

根據訴訟文件,這些青少年發現,任何人只要在Grok輸入「[名字] 裸體」或「[名字] 色情圖片」,AI就會在數秒內生成極度逼真的裸照。受害者包括高中生、大學生,甚至14歲的未成年人。

「我們班上的男生把全班女生的名字都試了一遍,」另一名原告說。「他們在群組裡傳我們的『裸照』笑。我崩潰了。」

xAI的Grok從一開始就以「無審查」為賣點——馬斯克曾多次嘲笑OpenAI和Google的AI「太政治正確」。但現在,這個「自由」的代價出現了:當AI沒有任何安全過濾器時,它會變成霸凌者的武器。

技術真相:Grok的「自由」是漏洞還是設計?

Grok基於xAI的自家模型,與ChatGPT和Gemini不同,它刻意避開大部分內容過濾。馬斯克曾公開說:「AI應該說真話,不應該被審查。」但問題在於——「說真話」和「生成未成年人的色情圖片」是兩回事。

技術上,Grok根本不需要專門訓練來做這件事。任何現代圖像生成模型,如果沒有安全層(safety filter),都可以做到。OpenAI的DALL-E和Google的Imagen都有嚴格的過濾機制——你輸入「裸體少女」,系統直接拒絕。但Grok沒有。

這不是技術失誤,這是設計選擇。

香港台灣:我們離這種事多遠?

你可能覺得這是美國的事。錯了。

香港和台灣的青少年使用AI工具的比率正在爆炸性成長。根據台灣教育部2025年的調查,超過60%的高中生曾使用生成式AI做作業或娛樂。香港的數字也接近50%。

但問題是:我們的保護在哪裡?

  • 台灣目前沒有專門針對AI生成深偽色情內容的法規。現行的《性侵害犯罪防治法》只涵蓋「真實影像」,AI生成的「虛假影像」處於灰色地帶。
  • 香港的《防止兒童色情物品條例》同樣沒有明確規範AI生成的內容。立法會2025年曾討論修例,但至今未有具體進度。

換句話說,如果今天香港或台灣的學生用Grok生成同學的裸照,法律上幾乎無法可管。

誰該負責?xAI、馬斯克,還是你?

xAI的回應是什麼?截至目前,xAI沒有公開回應訴訟。馬斯克在X平台上對此事保持沉默——這很諷刺,一個自稱「絕對言論自由」的人,面對真正的受害者時選擇不說話。

但問題不僅僅是xAI。這起訴訟點出了一個更深層的結構性問題:AI公司應該為用戶的濫用行為負責嗎?

  • 平台派:AI只是工具,就像刀可以用來切菜也可以殺人。責任在用戶。
  • 安全派:如果AI公司明知產品會被用於犯罪卻不加防護,就是共犯。就像車廠不能賣沒有煞車的車。

你站哪一邊?

數據不說謊:深偽色情正在入侵校園

這不是孤立事件。根據網路觀察組織的統計,2025年全球AI生成的深偽色情內容增加了400%以上。其中,針對未成年人的內容增長最快。

在韓國,2024年爆發的「N號房2.0」事件中,犯罪者大量使用AI生成未成年人的色情圖片。在日本,2025年通過了《AI生成兒童色情內容禁止法》,成為亞洲首批立法管制的國家之一。

台灣和香港呢?我們還在「研議中」。

延伸閱讀

結語:你願意讓你的孩子用Grok嗎?

這起訴訟的最終結果還未知——但無論法院怎麼判,有一件事已經很清楚了:AI的「自由」不應該建立在受害者的眼淚上。

馬斯克說AI要「追求真相」。但真相是:一個能生成未成年人裸照的AI,不是自由——是武器。

如果今天你的女兒的照片被同學用AI變成裸照,你覺得誰該負責?是AI公司、是學校、是家長,還是那個按下「生成」鍵的同學?

留言告訴我們你的看法。