多管齊下令AI更安全
人工智能 (AI) 近日的發展速度已經到了人類擔心的階段, AI聊天機器人所具備的寫作技巧和知識已經在世界範圍內掀起了風暴, 虛假圖像亦凸顯人工智能技術具備潛在危害性, 例如CNN在5月23日報導, 經驗證的推特賬戶分享了一張「相片」, 聲稱五角大樓附近發生爆炸, 相片真假難辨, 引起當地一片混亂, 甚至導致股市短暫下跌。
AI對一些人而言是真正的進步, 對另一些人來說則是危險, 它既令人着迷又令人恐懼, 更令人擔心是近來全球聚焦討論的人工智能ChatGPT, 其創辦企業OpenAI行政總裁奧爾特曼, 就AI會否構成安全風險, 到美國國會參議院作證。 他承認承認AI的進步, 將對勞動力帶來重大影響, 更認為隨著AI變得越來越強大, 行業受政府監管是至關重要。
有見及此, 歐盟和美國攜手合作, 同意對該行業進行監管。歐洲希望迅速為該行業制定一個從 2025 年開始適用的、具有約束力的法律框架。在美國方面, 她贊成制定行為準則, 但不考慮任何具有約束力的內容。美國是開發AI公司的大本營, 如OpenAI公司, 是ChatGPT的母公司, 它的大股東是微軟, 以及Meta公司、谷歌和亞馬遜, 即使後者目前對潛在的監管持贊成態度, 但具體到什麼程度, 還有待觀察。其實歐盟 早於2021年已經提出了一項關於AI 的法規提案(AI 法案), 旨在建立一套統一的AI 規則, 確保AI 的可信賴性和符合歐洲價值觀。該法案將根據AI 的風險等級, 對其進行不同程度的監管和要求。它還將建立一個歐洲AI 委員會, 負責協調、監督和支持AI 的發展。
筆者認為單靠政府監管並不足夠, 開發者的專業道德是同樣重要。鑑於AI潛在的道德方面的風險, 機構亦應在其營運以及開發和使用AI的過程中, 秉持良好的數據道德標準。因此, 機構應顧及所有相關持份者的權利、自由及利益(即採取多方持份者參與的方式), 以減低私隱風險及道德方面的風險。
至於另一個不容忽視的部分, 便是提升市民對AI 的認知及相關的道德和風險, 透過數碼公民素養便是其中一個可行的方案, 港大研究團隊於2019年至2022年, 進行了一項與本港中小學生的數碼公民素養及其影響因素的相關研究, 對公民的數碼能力提出了新要求, 包括AI和大數據(如ChatGPT等強大應用程式)等, 研究認為數碼素養既對網上學習有積極貢獻, 也是抵禦網絡成癮和網絡欺凌的保護因素, 現在正好把握ChatGPT等AI工具在社會造成更大影響之前, 預早建立對人工智能的基本認識, 特別是有關機器學習(Machine learning)和深度學習(Deep learning)的基礎知識, 從中理解人工智能發展的優勢與局限。
總括而言, 只要各方面加強對AI 的監管, 定必令AI造福人類, 解決一些人類多年來不能解決的問題, 令世界更美好。