中科院探索可自主進化通用人工智能
“紫東太初”全模態大模型發佈
【中新社北京十六日電】從中國科學院自動化研究所獲悉,在十六日舉行的“人工智能框架生態峰會二○二三”上,中科院自動化所所長徐波研究員正式發佈“紫東太初”全模態大模型,持續探索可自主進化的通用人工智能。
因應數字經濟時代
“紫東太初”全模態大模型是在千億參數多模態大模型“紫東太初”1.0基礎上升級打造的2.0版本,研究突破認知增強的多模態關聯等關鍵技術,具備全模態理解能力、生成能力以及關聯能力,面向數字經濟時代加速通用人工智能的實現。
當天會上,徐波首次對外實時展示“紫東太初”大模型在音樂理解與生成、三維場景導航、信號理解、多模態對話等方面的全新功能,並且邀請現場觀眾與大模型即時互動。該大模型不僅可以透過《月光曲》暢談貝多芬的故事,也可以在三維場景裡實現精準定位,還能夠通過圖像與聲音的結合完成場景分析。
據中科院自動化所介紹,該所自二○一九年起即堅持以“圖——音——文”多模態技術為核心,確立多模態大模型佈局。二○二一年九月成功打造“紫東太初”1.0多模態大模型,助推人工智能從“一專一能”邁向“多專多能”,向發展通用人工智能邁出堅實的第一步。
以此為基礎,針對邁入數字經濟時代的新需求與新趨勢,“紫東太初”2.0在語音、圖像和文本之外,加入視頻、傳感信號、3D點雲等更多模態,大模型多模態認知能力大幅提升,可理解三維場景、傳感信號等數字物聯時代的重要信息,完成音樂、圖片和視頻等數據之間的跨模態對齊,能處理音樂視頻分析、三維導航等多模態關聯應用需求,並可實現音樂、視頻等多模態內容理解和生成。
從1.0到2.0,“紫東太初”大模型打通感知、認知乃至決策的交互屏障,使人工智能進一步感知世界、認知世界,從而延伸出更強大的通用能力。
展現產業應用前景
目前,“紫東太初”大模型已展現出廣闊的產業應用前景,在神經外科手術導航、短視頻內容審核、法律諮詢、醫療多模態鑒別診斷、交通違規圖像研讀等領域已開始一系列引領性、示範性應用。
徐波表示,以“紫東太初”大模型為基礎,中科院自動化所將持續探索與類腦智能、博弈智能等技術路徑的相互融合,最終實現可自主進化的通用人工智能,並將探索在更多領域發揮賦能價值,為促進中國數字經濟快速發展貢獻力量。