AI倫理的警鐘:從港大法律生製造不雅照事件談起
在人工智慧(AI)技術迅猛發展的時代, AI不僅帶來便利與創新, 也引發了深刻的倫理困境。從醫療診斷到藝術創作, AI的應用無所不在, 但當其被濫用於侵犯個人隱私或製造虛假內容時, 便暴露了倫理邊界的模糊性。近期, 香港大學(HKU)法律學院一名男學生涉嫌使用AI工具生成同學的不雅裸照事件, 便是AI倫理問題的典型案例。這起事件不僅凸顯了AI在性別歧視和隱私侵犯方面的風險, 也引發了對法律、教育和社會規範的反思。
據報導, 香港大學法律學院一名男學生利用免費的線上AI工具, 從社交媒體上取得的女性熟人照片, 生成超過700張不雅裸照。這些照片涉及20至30名女性, 包括同班同學、學姐、朋友、舊小學同學, 甚至高中老師。學生承認選擇了與自己有個人聯繫的女性作為目標, 事件曝光後, 他曾聯繫部分受害者道歉, 但聲稱僅涉及5人, 與證據不符。這件事件於2025年7月在社交媒體上被三名香港大學學生揭露, 迅速引起公眾關注。受害者向大學投訴, 要求嚴懲, 但大學經法律諮詢後, 僅發出警告信和口頭譴責, 並要求學生正式道歉。據大學聲明, 他們維持「對性別歧視、騷擾或不當行為的零容忍政策」, 並承諾進一步審查事件, 必要時採取額外行動。
這宗事件凸顯了AI技術發展所帶來的多重倫理與法律困境:
- 私隱與同意的徹底侵犯
未經當事人同意, 擅自取用其個人照片進行二次創作, 特別是生成具有侮辱性的不雅內容, 嚴重侵犯了個人的私隱權、肖像權與人格尊嚴。AI技術的普及, 使得這種惡意行為的門檻大大降低。 - 法律的滯後與灰色地帶
此事件揭示了當前法律的不足。據悉, 現行法例主要針對「未經同意下發布」相關的私密影像, 但對於單純「製作」及「持有」的行為, 法律規管則相對模糊。技術的發展速度已超越法律的修訂步伐, 導致加害者可能無法被有效追責。 - 教育與機構的責任
作為頂尖學府的法律系學生, 其行為理應具備更高的道德標準。此事件反映出部分高學歷學生在數碼倫理及法律意識上的薄弱。同時, 校方的處理方式被批評為未能體現對此類不當行為的「零容忍」態度, 亦未能充分保護受害學生的權益與心理健康。
AI倫理的核心價值在於確保技術應用尊重人類尊嚴和權利, 是次事件最突出的倫理違規是對隱私和同意的侵犯。學生從公開社交媒體擷取照片, 雖非非法, 但利用AI轉化為不雅內容, 等同於數位性暴力。受害者未經同意便成為「數位受害者」, 這不僅造成心理創傷, 還可能影響她們的學業和人際關係。部分受害者在事件曝光後, 仍需與涉事學生同堂上課至少四次, 儘管大學為兩名受害者安排替代課程, 但不足以緩解壓力。
另一層倫理議題是性別歧視。事件中受害者全為女性, 這反映了AI工具在強化社會偏見方面的風險。許多AI模型基於互聯網數據訓練, 可能內嵌性別刻板印象, 導致生成內容時傾向於物化女性。倫理學家指出, AI開發者應嵌入「公平性」原則, 如透過多樣化數據集減少偏見, 但現實中, 免費工具往往缺乏此類保障。
此外, 權力不對等加劇了問題。作為法律學院學生, 涉事者本應熟稔法律倫理, 卻濫用技術, 這凸顯了教育體系在AI倫理培養上的不足。AI倫理框架, 如歐盟的《AI法案》, 強調高風險AI(如深度偽造)需嚴格審查, 但香港尚未有類似全面法規。
面對AI技術的迅速演進, 社會必須從多方面作出應對:
- 加強倫理教育:學校及社會應將AI倫理、網絡安全及尊重他人私隱的觀念, 納入常規教育體系, 培養公民負責任地使用科技的態度。
- 完善法律框架:政府及立法機構應盡快檢討現有法例,堵塞漏洞, 考慮將惡意製作AI生成的不雅內容刑事化, 而不僅僅是規管其發布行為。
- 確立技術規範:科技公司在開發AI工具時, 應加入更多道德約束和安全機制, 防止技術被輕易用於惡意目的。
除此以外, 未來, 香港可參考新加坡或歐盟模式, 制定AI倫理指南。新加坡作為亞洲科技樞紐之一, 在AI倫理處理上採取主動且平衡的態度, 強調創新與責任的並行。該國的AI治理框架以政府主導的指導原則為核心, 旨在確保AI技術的開發和應用符合倫理規範, 避免偏見、隱私侵犯和社會風險。新加坡的策略不僅限於國內, 還影響區域如東盟(ASEAN)的AI政策。
總括而言, 香港大學AI生成裸照事件, 揭示了AI倫理的緊迫性。它不僅是個案, 更是系統性問題的縮影。AI帶來無限可能, 但若無強有力的倫理框架, 便可能淪為傷害工具。我們需從法律、教育和技術多管齊下, 確保AI服務人類而非反噬尊嚴, 只有這樣, AI才能真正成為進步的助力, 而非倫理的隱患。