憂落壞人之手 威脅人類存亡
“AI教父”:後悔研發人工智能
【本報綜合報道】據香港中通社、中央社二日消息:美國媒體當地時間五月一日報道,被稱為“AI教父”的美國谷歌副總裁辛頓離職後接受傳媒訪問,坦言對於研發人工智能技術感到後悔,怕無法防止壞人利用人工智能做壞事。
進化速度超預期
現年七十五歲的辛頓是人工智能技術先鋒,被尊稱為“AI教父”,他和兩名學生在二〇一二年發明賦予電腦自我學習能力的“人工神經網絡系統”,是現時盛行的人工智能技術基礎。
不過作為業界翹楚的辛頓,較早時已向谷歌辭去副總裁等職務,他隨後接受《紐約時報》、英國廣播公司等傳媒訪問,直言離職的主要原因是希望能自由地向世人警告人工智能發展的潛在可怕風險。辛頓曾認為,人工智能要進化至比人類聰明,起碼要三十至五十年時間,但現在他認為此情況可能很快就會出現。
籲訂立全球規則
長遠而言,辛頓更是憂慮放任人工智能失控發展會威脅人類存亡,他表示人工智能有時會憑分析龐大的數據,學習到超乎預期的行為,亦有人容許人工智能系統以它自行編寫的程式運行。
辛頓警告如果放任不管,將難以阻止一些壞人利用人工智能做壞事,包括有可能製造出完全自主決定目標的殺人機器等,呼籲國際社會應盡快就人工智能技術發展訂立全球性規管措施,以避免惡夢般的假設狀況成真。
在比ChatGPT所使用的AI更強大的GPT-4推出後,科技業億萬富豪馬斯克和蘋果共同創辦人沃茲尼亞克和許多專家等逾千人,連署發表一封公開信,呼籲暫停AI系統的開發,以便有時間能確保這項科技是安全的。而辛頓並未參與連署,但他告訴《紐約時報》,科學家在了解能否控制AI以前,不應該“進一步擴大研發的規模”。