就提供生成式AI產品服務
網信辦:禁非法披露個資
【本報綜合報道】據新華社北京十一日消息:為促進生成式人工智能技術健康發展和規範應用,國家互聯網信息辦公室四月十一日就《生成式人工智能服務管理辦法(徵求意見稿)》向社會公開徵求意見。徵求意見稿提出,提供生成式人工智能產品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗,禁止非法獲取、披露、利用個人信息和隱私、商業秘密。
不得留存用戶信息
徵求意見稿指出,生成式人工智能是指基於算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。提供生成式人工智能服務應當按照《中華人民共和國網絡安全法》規定,要求用戶提供真實身份信息。提供者應當明確並公開其服務的適用人群、場合、用途,採取適當措施防範用戶過分依賴或沉迷生成內容。
徵求意見稿要求,提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。提供者應當建立用戶投訴接收處理機制,及時處置個人關於更正、刪除、屏蔽其個人信息的請求。
籲謹慎用ChatGPT
另據紅星新聞消息,ChatGPT最近很火,而它背後潛藏的風險也引起了支付行業的特別關注。獲悉,中國支付清算協會已在其官網發出倡議,希望大家謹慎使用ChatGPT等工具。
中國支付清算協會表示,近期,ChatGPT等工具引起各方廣泛關注,已有部分企業員工使用ChatGPT等工具開展工作。
跨境數據洩露風險
但是,此類智能化工具已暴露出跨境數據洩露等風險。為有效應對風險、保護客戶隱私、維護數據安全,提升支付清算行業的數據安全管理水平,中國支付清算協會向行業發出倡議——支付行業從業人員要遵守所在地區的網絡使用規定,正確認識ChatGPT等工具的機遇和風險,全面評估使用ChatGPT等工具處理工作內容的風險,依法合規使用ChatGPT等工具。
特別是不上傳關鍵敏感信息。支付行業從業人員在使用ChatGPT等工具時,要嚴格遵守國家及行業相關法律法規要求,不上傳國家及金融行業涉密文件及數據、本公司非公開的材料及數據、客戶資料、支付清算基礎設施或系統的核心代碼等。
協會還倡議會員單位加強內部管理和引導。會員單位要進一步健全信息安全內控管理制度,開展有針對性的數據風險防控工作,加強宣傳和引導,提升員工的風險防範和數據保護意識,切實維護國家金融及支付清算行業安全。