如何面對人工智能時代
人工智能(AI)已經融入我們的日常生活已是不爭的事實, 常見的應用如流行音樂應用程式的推薦引擎、客服機械人和大數據分析, 銀行利用人工智能評估客戶的信用可靠程度及偵測洗黑錢活動, 醫療服務提供者利用人工智能分析醫療紀錄及協助醫生診斷。政府部門利用人工智能監察及完善道路交通, 以減少擠塞情況, 其他機構亦利用人工智能評估求職者的履歷、回覆顧客的查詢等。人工智能透過節省人手、改善運作效率、優化資源分配、提供個人化服務以及引發新構想, 為不同行業帶來龐大機遇和利益。有研究顯示, 到2030年人工智能將為全球的本地生產總值提升14%, 對整個社會經濟、企業、甚或個人都會產生機遇和衝擊; 故此如何面對人工智能的產業趨勢發展, 避免工作機會不被機器取代的窘境, 都成為不少人重視的課題。
根據德勤(Deloitte)最近的研究, 超過三分之二的智能手機用戶已經在其智能手機使用某種形式的人工智能(AI)或機器學習(ML), 使用率最高的類別包括預測文本, 行車路線建議和語音助理。人工智能正變得無處不在, 有專家認為這僅僅是開始而已。
許多人對人工智能可能產生的影響感到憂喜參半, 有調查顯示近三分之二的人至少有點擔心在不久的將來因人工智能的進化而失業, 亦有70%的人表示, 他們會對將自己的一些活動交給人工智能處理的可能性感到樂觀。
另一方面, 由於信任是任何健康企業文化的核心, 企業需要明白人工智能也有潛在道德方面的風險, 因此在其營運以及開發和使用人工智能的過程中, 應秉持良好的數據道德標準, 顧及所有相關持份者的權利、自由及利益(即採取多方持份者參與的方式),以減低私隱風險及道德方面的風險。不少相關調查指出63%的受訪者至少適度擔心隱私問題, 67%的人則擔心網路安全問題, 例如在使用人工智能的企業中, 透過對員工社交媒體、短訊和電子郵件內容的自然語言處理來預測人員流動率和參與度。
總括而言, 大家在發揮人工智能的潛能之餘, 定必需要關注所帶來資料保障風險與其潛在的道德方面的影響, 因為當個人的個人資料被人工智能系統分析, 他們的權利、自由及利益亦可能因人工智能系統所作的自動化決策而受到影響, 一旦人工智能被不當使用, 或會對人權(包括私隱權)、人類尊嚴、個人自主及公平造成損害, 使用人工智能的機構可能因此而失去持分者包括客户及員工的信任。