AI晉快車道 平衡發展與安全
【中新社北京電】在本周北京舉行的“2023中國互聯網大會”上,以ChatGPT為代表的人工智能(AI)帶來怎樣的風險,以及如何管控這些風險,成為與會者熱議的話題。對於AI發展前景,北京智源人工智能研究院院長、北京大學計算機學院教授黃鐵軍表示,今天ChatGPT有強大的智能,影響深遠,未來三年,除語言外,大模型正在迅速擴展視覺、聽覺、具身、行動等通用智能,影響將更大。
未來廿年具身智能
黃鐵軍預測,未來十年,智力革命已打響,就像工業革命解放體力,就像電力革命解決能源流通,全新生態將構建,開源開放生態終將勝利。ChatGPT是數據驅動的靜態智能,未來二十年是時空環境驅動的具身智能,智能載體將是類腦的脈衝神經網絡,有望像生物大腦一樣湧現出更強的智能。
由於大語言模型的智能“湧現”,科學家尚不可解釋其機理,黃鐵軍認為,“只要AI超過人類,人類想進行管控是不可能的”,因此不少業界專家反對訓練GPT-5。
北京市通信管理局副局長王暉認為,人工智能在賦能產業過程中,帶來的風險挑戰有數據安全問題、算法安全問題、應用安全問題和行業安全問題。
中國電信集團網絡和信息安全管理部總經理谷紅勛表示,隨着AI尤其大模型廣泛應用,網絡攻擊、數據洩露等風險日益凸顯,過度採集、歧視性算法,濫用深度偽造等問題可能會帶來影響社會經濟運行的嚴重問題。
探索防範AI風險
AI風險問題已引起國際社會的關注。據媒體報道,當地時間七月廿一日,美國七家領先的人工智能公司,包括亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和OpenAI承諾接受白宮要求,幫助實現人工智能技術安全、可靠和透明的發展。
近日,聯合國安理會首次就人工智能問題舉行會議,來自15個成員國的外交官和人工智能領域的專家參與這次會議,中方提出五項原則。
大模型在中國得到快速發展。根據五月份發佈的《中國人工智能大模型地圖研究報告》,中國10億參數規模以上的大模型已發佈79個,研發的大模型數量排名全球第二,僅次於美國。
中國互聯網協會常務副秘書長陳家春表示,中國大模型發展活躍且快速,具體表現為計算能力不斷提高、數據量不斷增加、應用場景不斷拓展以及研究方向不斷深入。
中國從監管層到產業界,都高度關注防範AI風險方面並做出探索。七月十三日,中國出台首份生成式人工智能監管發展文件《生成式人工智能服務管理暫行辦法》,提出堅持發展和安全並重、促進創新和依法治理相結合的原則。
AI越強風險越增
奇安信集團副總裁張卓表示,從《辦法》可以看出,數據安全和隱私保護貫穿於生成式人工智能數據的標注、模型預訓練、模型訓練、提供服務等各個環節,避免監管盲區導致的安全風險。
中國國內啟明星辰、天融信、深信服等公司嘗試把大語言模型用於網絡安全。有些公司專門訓練網絡安全領域垂直的大模型,有些公司把大語言模型用於產品形態中。如何管控大模型帶來的風險現在還沒有答案。“人工智能面臨失控風險,但不用它是不可能的,如何控制AI的使用,確實是一個問題。”國家計算機網絡入侵防範中心主任張玉清說。
黃鐵軍表示,AI越來越強,風險與日俱增。如何構建安全的AI,現在還沒有完整準確的答案。面對AI越來越強的智能程度,人類面臨全新的挑戰。