人工智能安全風險雙刃劍
迄今,AI人工智能為人類生活和工作帶來很多便利,同時造成很多安全風險,當中包括國家、社會、資訊、演算法、網路和數據安全風險。在專題研討會上,中國人民公安大學信息網絡安全學院副教授蘆天亮以“人工智能安全與深度偽造技術”為題,向與會者講解上述各種安全風險等情況。
本報記者 關詠賢 報道
“第三次戰爭革命”
據蘆天亮介紹,新世紀以來,算法、算力、數據和應用場景共同作用,激發新輪人工智慧發展浪潮,人工智能技術與產業發展呈現加速態勢,當中深度學習模型於二○一六年提出,為人工智能提供核心演算法;雲計算及高性能AI晶片等,為人工智能提供超強算力;大數據技術,為人工智能提供海量數據;人臉識別、無人駕駛、機器翻譯等為人工智能落地提供豐富的應用場景。
國家安全風險包括軍事和政治安全風險,其中軍事可研發AI致命式自主武器,構建新型軍事打擊力量;人工智能自主武器是繼火藥和核武器之後的第三次戰爭革命。目前,主要國家均加大人工智慧在軍事領域的投入。
影響公眾投票意向
AI可用於影響公眾政治意識形態,如在二○一六年美國總統大選中,劍橋分析公司收集臉書上超過五千萬用戶的行為模式、性格特徵、價值觀取向、成長經歷,有針對性地推送資訊和競選廣告,亦不乏虛假消息,這些信息間接影響美國選民的投票。
合成音像以假亂真
社會安全風險包括社會就業和高技術犯罪風險,人工智能產業化推進將令部分現有就業崗位減少甚至消失,導致結構性失業。至於高技術犯罪,人工智能帶來的高技術犯罪問題凸顯,因運用AI合成圖像、音視頻等已達到以假亂真程度,可被不法分子用來實施電信網路詐騙活動。
資訊安全風險中,智能推薦可以根據每個人的興趣愛好推薦相關內容,一旦被不法分子利用,將虛假信息、涉黃涉恐、違規言論等不良信息內容向定向受眾傳播,更加具有針對和隱蔽性,在擴大負面影響的同時亦減少被舉報的可能。
修改標誌造成意外
演算法安全風險,人工智慧系統容易受到精心設計的對抗樣本攻擊的影響,可能導致系統出現誤判或漏判等錯誤結果,通過精心構造的交通標誌對自動駕駛進行攻擊,如一個經過稍加修改的實體停車標誌,能夠令一個實時目標檢測系統將其誤識別為限速標誌,從而可能造成交通事故。同時,可通過數據污染攻擊,讓人工智慧人臉識別系統將一人的照片誤認為另一人的攻擊形式。
提升網路攻擊能力
網路安全風險,人工智能可提升網路攻擊能力,對現有網路安全防護體系構成威脅與挑戰,其中人工智慧可大幅提高電腦病毒編寫與傳播的自動化程度,並通過插入一部分對抗性樣本,繞過殺毒軟體的檢測。同時,人工智能被駭客用來挖掘軟體的漏洞,以及利用人工智能進行智慧化的網絡攻防武器的設計開發並發起全自動化的攻擊。
數據安全風險,人工智能演算法能夠獲取並記錄訓練數據和運行時採集數據的細節,逆向攻擊是利用機器學習系統提供一些應用程式編程接口來獲取系統模型的初步信息,進而通過這些初步信息對模型逆向分析,從而獲取模型內部的訓練數據和運行時採集的數據。