專家:發展大模型 需建安全底線
【中新社上海七日電】勿以惡小而為之,勿以善小而不為。對於正在飛速發展的人工智能,人類也期待它為善去惡。正在上海舉辦的2023世界人工智能大會(WAIC)上,業界關注大模型的發展,同時擔心人工智能的安全。
監管發展需兩兼顧
“大模型要監管和發展兼顧,我們不能盲目發展,讓大模型變成脫繮的野馬。”復旦大學教授、上海市數據科學重點實驗室主任蕭仰華在一場分論壇上說。大模型的影響已顯現,比如對隱私的侵犯,“我們還是要建立大模型發展的安全底線、倫理標準和一些規範。”另一方面,不能因為有隱私方面的顧慮而放棄對大模型的應用,“從某種程度上說,大模型是一種先進生產力,是個人和企業都要積極擁抱的。我們要正視隱私問題,但也要積極應用大模型。”
如何在應用的同時保護用戶隱私?他表示,需要建立系統性的防範體系。
一方面,用戶要意識到:在使用大模型過程當中,數據有可能被服務方收集。另一方面,提供大模型服務的廠商要提升服務的規範性,在用戶完全授權的情況下,在合理範圍內收集用戶數據。
蕭仰華說,大模型,尤其是生成式大模型發展起來後,給隱私保護帶來前所未有的挑戰。
但在大模型領域,可以“用魔法打敗魔法”。蕭仰華表示,可以利用大模型自身的能力來保護隱私,“其實大模型的能力很強,可以識別出語料當中哪些內容是可能侵犯隱私的,我們已經有那麼多大模型,可以把它用在保護隱私的場景。”
人工智能為善去惡
“即使通用人工智能真正‘上善若水’,人與人工智能是否可以和諧共生,最終取決於人如何行為,而不是人工智能。”中國科學院自動化研究所研究員曾毅說。他將“人工智能與人類”“人類與螞蟻”作了類比,“未來,當我們的人工智能是人類,就像人類是現在的螞蟻時,如果人類還在破壞環境、危及其他生命(體),‘超級智能’為什麼要給人類生存的權利?”
他說這是一個開放性的問題,是一個科學問題,更是一個社會問題。最開始的人工智能,當它沒有接觸任何人類數據時,它是無善無惡的算法。當它接觸到社會和人類的數據時,它變得有善有惡,這時候它還不能明辨善惡。當它與人類價值觀“校準”、與環境價值觀“校準”時,它變得知善知惡。“我們最終希望的是人工智能可以為善去惡。”他說。