top top top
第B03版:要聞 上一版3  4下一版  
      本版標題導航
美加州爆槍擊兩警殉職
研究:越來越多人不看新聞
美專家稱機器人“有知覺”遭停職
中國發佈《猴痘診療指南》
世衛研擬猴痘列“緊急事件”
超級月亮
     [ 設為首頁 ] | | [ 返回主頁 ] |
今日日期:     版面導航
當前報紙日期:
2022 6月16日 星期
 
3上一篇  下一篇4  
  放大 縮小 默认        

美專家稱機器人“有知覺”遭停職

    AI爭議浮檯面

    美專家稱機器人“有知覺”遭停職

    【本報訊】據中央社三藩市十四日消息:谷歌(Google)內部針對AI(人工智能)技術是否具有人類意識的爭論曝光,讓AI伴隨的野心與風險浮上檯面。

    谷歌駁斥“有知覺”

    谷歌這家矽谷巨頭上周將一名工程師停職,因為他認為公司的AI系統LaMDA似乎“有知覺”,谷歌已經正式駁斥這種說法。

    多位AI專家告訴法新社,他們也對LaMDA有意識的說法高度懷疑,但人類的本質和野心很容易模糊問題。

    美國華盛頓大學語言學教授班德說:“問題在於……當我們遇到屬於我們語言的字串時,就會加以理解。”“我們在做的是想像一個不存在的頭腦。”

    機器人模擬人溝通

    LaMDA是一個使用先進模型、功能強大的系統,能夠用文字聊天來模擬人類溝通。

    根據谷歌的解釋,該系統建立在一個模型上,模型觀察單字之間的關係,然後預測接下來會出現在句子或段落中的單字。

    北卡羅來納大學教堂山分校電腦科學助理教授斯里瓦斯塔瓦說:“它在某種程度上仍然只是模式匹配。”“當然,你可以找到一些真正有意義的對話,可以生成一些非常有創意的文字,但在許多情況下它會迅速轉移。”

    “對話中時有創意”

    儘管如此,確定它們有沒有意識還是棘手問題,這通常得使用圖靈測試這樣的基準測試。

    加拿大多倫多大學哲學教授金威爾說:“對於二○二二年我們這裡的任何AI來說,這實際上是一個相當容易通過的測試。”“更嚴格的測試是上下文測試,當前系統似乎會被上下文測試中的常識知識或背景想法等難倒,那是演算法很難處理的東西。”

    AI議題或喜或憂

    AI在科技界內外仍然是微妙議題,可能讓人驚訝,卻也讓人有些不舒服。

    谷歌在聲明中迅速且堅定地淡化LaMDA是不是有自我意識的問題,“這些系統模仿了數百萬個句子中的交流類型,並且可以重複任何奇異的話題”。

3上一篇  下一篇4