鍾麗玲:員工忽視AI風險私隱面臨挑戰

當人工智能的浪潮席捲而來,它不僅帶來效率提升的曙光,也悄然伴隨著潛藏的陰影,其中最令人擔憂的莫過於個人資料私隱風險。香港個人資料私隱專員鍾麗玲女士,多次就此議題發聲,點出員工在日常工作中使用AI時,因缺乏警覺與適當指引,可能導致的私隱危機。這不僅是技術問題,更是人為意識與管理缺失的交織,需要我們嚴肅看待。

擁抱AI的雙面刃:便利與風險並存

人工智能,尤其是生成式AI,如今已深入職場的各個角落。從撰寫郵件、分析數據到生成報告,AI展現出驚人的能力,幫助員工提高工作效率。然而,硬幣的另一面是,員工在使用這些工具時,往往習慣性地輸入大量的工作資料,包括客戶數據、公司內部文件甚至是敏感的專案細節。

鍾麗玲專員指出,許多員工在使用AI時,並未充分意識到輸入的資料可能會被AI模型收集、儲存甚至用於訓練,進而產生資料外洩的風險。這種「不留意」的行為,就像是在一個不設防的空間裡,隨意地展示個人或公司的機密資訊,極易被不法分子利用,或導致資料被不當處理。

缺乏適切引導的盲區

員工之所以容易忽略AI使用風險,很大程度上源於機構缺乏適切的引導和清晰的內部政策。許多企業雖然意識到AI的潛力,卻未能同步建立起一套完善的使用規範,告訴員工「什麼可以用AI做」、「什麼資料不能輸入AI」、「使用AI時需要注意哪些事項」。

這種「引導真空」使得員工在使用AI時,只能憑藉個人經驗或網路資訊摸索,容易誤觸地雷。例如,有時裝設計機構為了分析客戶喜好,將所有客戶資料輸入AI系統,卻未意識到其中包含的個人身份信息並非分析所必需,增加了資料外洩的風險。這說明,即使機構有意識地應用AI,若缺乏細緻的使用指引,仍可能產生私隱漏洞。

私隱公署的角色與期許

面對日益嚴峻的AI私隱挑戰,個人資料私隱專員公署積極行動,扮演著重要的引導者和監督者角色。鍾麗玲專員表示,公署有權介入AI相關的私隱事故調查,並非只是「紙老虎」。然而,公署更期望透過教育和指引,協助機構防患於未然。

公署近期發布了《僱員使用生成式AI的指引清單》,這份清單猶如一份「AI安全使用說明書」,旨在協助機構制定內部政策,明確員工使用生成式AI的範圍、個人資料保障原則、合法合乎道德的使用方式、數據安全要求以及違反指引的後果。這份指引清單內容涵蓋五大範疇,期望能幫助企業「執藥」般按自身情況制定合適的內部政策。

鍾麗玲專員認為,儘管循規審查暫時未發現有違反《個人資料(私隱)條例》的嚴重情況,但這並不代表可以掉以輕心。特別是中小企業,相較於大型機構,可能更缺乏內部的管治架構來檢視和緩減AI使用風險,這部分機構更需要參考公署的指引,及早建立防線。

國際借鏡:前車之鑑

私隱專員鍾麗玲在提及員工不當使用AI的風險時,也引用了國際上的實際案例,例如韓國某科技巨擘員工將公司內部程式碼輸入AI聊天機器人,以及荷蘭某診所職員未經授權將病人醫療資料輸入AI,最終都導致了嚴重的資料外洩事件。這些案例敲響了警鐘,顯示員工的無心之失或安全意識不足,足以對機構的資料安全和聲譽造成毀滅性的打擊。

這些前車之鑑告訴我們,在AI普及的時代,不能只看到其帶來的便利和效益,更必須正視潛在的風險。而降低這些風險的關鍵,在於提升員工的私隱意識,並提供清晰、可操作的使用指引。

構建安全防線:機構的責任

機構在應對員工使用AI帶來的私隱風險方面,責無旁貸。首先,機構需要建立一個全面的AI使用政策,明確界定員工可以使用哪些AI工具、在什麼情況下使用,以及嚴禁輸入哪些類型的資料。這份政策應該廣泛地傳達給所有員工,並提供相關的培訓,確保員工理解並遵守。

其次,機構應該定期對員工進行私隱及數據安全意識的培訓,特別是針對AI使用方面。透過案例分析、情景模擬等方式,讓員工深刻認識到不當使用AI可能帶來的後果。

再者,機構應考慮引入技術措施,例如數據過濾或監控工具,以偵測和防止敏感資料被輸入到未經批准的AI系統中。當然,這些技術措施的應用本身也需要符合私隱條例的要求。

最後,機構應該建立應急預案,一旦發生因AI使用不當導致的資料外洩事故,能夠迅速啟動應急響應,最大程度地降低損失,並及時向受影響的個人和監管機構通報。

迎向智能未來:意識與規範同行

人工智能的發展勢不可擋,它將持續改變我們的工作和生活方式。要安全、負責任地擁抱智能未來,個人資料私隱是必須堅守的底線。私隱專員鍾麗玲的提醒,為我們敲響了警鐘:員工的AI使用風險不容忽視,而缺乏適切引導是導致風險升高的關鍵因素。

機構必須積極行動起來,提升員工的私隱意識,制定並執行嚴格的AI使用規範。這不僅是為了遵守法規,更是為了保護個人資料、維護機構聲譽、實現可持續發展的必然選擇。當每一個員工都能成為守護私隱的堅實一環,AI的巨大潛力才能在安全的軌道上得到充分釋放,真正造福於社會。