Advertisement

不,谷歌的人工智能沒有意識

不,谷歌的人工智能沒有意識

根據周六《華盛頓郵報》的一篇社論,一名谷歌工程師表示,在與尚未發布的名為 LaMDA 的高級人工智能係統進行了數百次交互後,他相信該軟件已經達到了一定程度的認知度。

在採訪和公開聲明中,AI 社區中的許多人都駁斥了這位工程師的說法,而有些人則指出,他的故事突出了技術如何引導人們為其賦予人類特徵。 但是,谷歌的人工智能可以有意識的信念可以說凸顯了我們對這項技術可以做什麼的恐懼和期望。

LaMDA 代表對話應用程序的語言模型,是幾個大型 AI 系統之一,這些系統已經在來自 Internet 的大量文本上進行了訓練,並且可以響應書面提示。 本質上,他們的任務是尋找模式並預測接下來應該出現哪個或哪些單詞。 這些系統越來越擅長以令人信服的人類方式回答問題和寫作——谷歌自己在去年 5 月的一篇博客文章中介紹了 LaMDA,稱其“涉及看似無限多的主題。”但結果也可以荒謬、怪異、煩人、容易分心。

據報導,工程師 Blake Lemoine 告訴華盛頓郵報,他與穀歌分享了 Lambda 有意識的證據,但該公司不同意。 谷歌週一在一份聲明中表示,其團隊,包括倫理學家和技術專家,“布萊克審查了對我們人工智能原則的擔憂,並告知他證據不支持他的說法。”

6 月 6 日,Lemoine 在 Medium 上發帖稱,谷歌已將他帶薪行政休假,“與我在公司內部提出的對 AI 道德問題的調查有關”,他可能“很快”被解僱。 (他提到了瑪格麗特·米切爾(Margaret Mitchell)的經歷,她曾是谷歌道德人工智能團隊的負責人,直到谷歌在 2021 年初就當時的聯合領導人蒂姆尼特·格布魯 (Timnit Gebru) 的 2020 年底離職直言不諱後解雇了她。格布魯在內部爭吵後被解僱,其中包括一次在一篇論文中,公司的 AI 領導層要求她不要在會議上查看演示文稿,或者刪除她的名字。)

谷歌發言人證實 Lemoine 仍在休行政假,據《華盛頓郵報》報導,他因違反公司保密政策而獲准休假。

Lemoine 週一無法發表評論。

對隱藏的大數據進行訓練的強大計算程序的不斷出現引起了人們對管理該技術開發和使用的道德規範的擔憂,並且有時會根據可能發生的情況而不是當前可能發生的情況來看待發展。

上週末,人工智能社區對 Lemoine 實驗的反應在社交媒體上反彈,並普遍得出相同的結論:谷歌的人工智能甚至還沒有接近意識。 Mozilla Trusted AI 高級研究員 Abiba Bihani 唧唧喳喳 週日,“我們已經進入了‘這個有意識的神經網絡’的新時代,這一次需要大量的精力來反駁它。”
Uber 出售的 Geometric Intelligence 的創始人兼首席執行官加里·馬庫斯(Gary Marcus),以及《重啟人工智能:構建我們可以信任的人工智能》等書籍的作者,將 LaMDA 的想法描述為有意識的 “高蹺上的廢話” 在一條推文中,他很快寫了一篇博文,指出所有這些人工智能係統都是通過從大量語言數據庫中提取來執行模式匹配的。
Blake Lemoine 於 2022 年 6 月 9 日星期四在加利福尼亞州舊金山的金門公園合影留念。

Marcus 週一在接受 CNN Business 採訪時表示,將 LaMDA 等系統視為自動完成程序的“美化版”,您可以使用它來預測短信中的下一個單詞。 如果你寫“我真的很餓,所以我想去”,他可能會建議將“餐廳”作為下一個詞。 但這是使用統計數據做出的預測。

“沒有人應該認為自動完成,即使是類固醇,也是有意識的,”他說。

分佈式人工智能研究所 (DAIR) 的創始人兼首席執行官 Gebru 在接受采訪時表示,Lemoine 是許多聲稱有意識的人工智能或通用人工智能的公司的受害者——這種想法指的是可以像人類一樣執行的人工智能。任務並以有意義的方式與我們互動 – 不遠。
谷歌給了教授 60,000 美元,但他拒絕了,這就是為什麼
例如,OpenAI 的聯合創始人兼首席科學家 Ilya Sutskiver 指出, 唧唧喳喳 2 月,“今天的大型神經網絡可能有些自覺”。 上週,谷歌研究副總裁兼同事 Blaise Aguera Y Arcas 在《經濟學人》的一篇文章中寫道,當他去年開始使用 LaMDA 時,我覺得我在談論一些聰明的事情。 (這篇文章現在包括一位編輯的說明,指出 Lemoine 此後“據報導在接受《華盛頓郵報》採訪時聲稱谷歌的聊天機器人 LaMDA 已經變得“有意識”後被放假。)

“發生的事情是,有一場使用更多數據、更多計算的競賽,說你創造了這個你都知道的通用東西,回答你所有的問題或其他什麼,這就是你一直在演奏的鼓,”Gebru說。 “所以,當這個人將其發揮到極致時,你有什麼驚訝?”

谷歌在聲明中指出,LaMDA 已經經歷了 11 次“對人工智能原則的傑出審查”,以及在質量、安全性和提供基於事實的數據的能力方面的“嚴格研究和測試”。當然,一些在更廣泛的人工智能社區正在考慮這種可能性。長期人工智能是有意識的或普遍的,但通過體現現有的對話模型來這樣做是沒有意義的,這些對話模型是無意識的,“該公司表示。

“數百名研究人員和工程師與 lambda 進行了對話,我們不知道還有其他人提供如此廣泛的斷言或像 Blake 那樣體現 lambda,”谷歌說。

Leave a Reply

Your email address will not be published.