談 AI 道德及倫理的憂慮

Dr Joseph Leung

近年人工智能(artificial intelligence, AI)深信是最熱門的話題之一, 不單影響各行各業的生態, 更擔心會取代人類工作。隨著去年Open AI的ChatGPT、Google的Bard、微軟的Bing Chat、百度的文心一言和阿里巴巴的通義千問等以生成式人工智能(Generative AI)驅動的聊天機械人的出現, 人工智能的先進的語言工具已經能夠像人類般回應提問, 徹底改變我們使用科技交流和互動的方式, 曾經在電影情節如史蒂芬史匹柏(Steven Spielberg)導演的那部《A.I.人工智慧》(A.I. Artificial Intelligence)中那個一直盼不到人類母愛而令人心碎的機器人小男孩會否變成現實?

麥肯錫(McKinsey & Co) 將「Generative AI生成式AI」定義為「可用於創建新內容(包括語音、代碼、圖像、文字、模擬和影片)的算法」。生成式AI具有革命性的潛能, 可為各行各業提高效率和帶來新的認知。現時各科技巨頭已在研究將生成式AI應用到它們生產的軟件之中, 令無數企業受益, 這些變革為各行業帶來翻天覆地改變, 例如在法律界, 一些律師行已經開始利用生成式AI把不同的法律工作自動化, 以提升效率, 例如合同分析、盡職調查、訴訟和監管合規等。

有見及此, 不少國家及地區政府正積極推行AI相關的道德及倫理守則, 例如新加坡電腦學會(Singapore Computer Society)早於2020年已經跟南洋理工大學 (Nanyang Technological University)合辦AI道德及倫理課程, 而香港私隱專員公署早前亦發布《人工智能 (AI): 個人資料保障模範框架》, 提供國際認可及切實可行的建議和最佳行事常規, 以協助機構在採購、實施及使用AI, 包括生成式AI時, 遵從《個人資料(私隱)條例》(《私隱條例》)的相關規定, 確保機構在善用AI之餘, 亦保障個人資料私隱。

具體而言, 這份《模範框架》是建基於一般業務流程, 向採購、實施及使用任何種類的AI系統的機構, 就保障個人資料私隱方面提供有關AI管治的建議及最佳行事常規, 旨在協助相關機構遵從《私隱條例》的規定, 及恪守私隱專員公署在2021 年出版的《開發及使用人工智能道德標準指引》中倡議的三項數據管理價值和七項AI道德原則。《模範框架》涵蓋以下四個範疇的建議措施, 包括制定AI策略及管治架構、進行風險評估及人為監督、實行AI模型的定製與AI系統的實施及管理、及促進與持份者的溝通及交流。

筆者認為這是一個好的開始, 然而宣傳度略有不足, 若然能夠加入更多持分組織, 與專業團體、教育機構、政府部門等, 轉化成公民教育, 提升市民及學生的資訊素養。人們若能培養自身對於AI 倫理問題或風險的敏銳度, 便可發揮公民監督或協助政府監督的力量, 評估AI 開發或使用者有無善盡避免傷害特定個人或群體之嫌, 逐漸改善AI 開發者與大眾媒體常過度誇大AI 功能, 但對於可能帶來的倫理問題或風險卻常閃爍其詞或避而不談的不好現象。