谷歌又把一位工程師放有薪假給冷凍起來,不稀奇!公司說這位工程師違反保密協定,所以必須暫離職位,見多了!
但這位工程師說公司在研發的一套人工智慧系統有靈魂與意識,不得了!電影情節終於發生了,然後也順理成章地發展出公司說這位工程師需要休息一下。
這故事被美國兩大專門爆驚人料的媒體之一《華盛頓郵報》率先報導,然後另一的《紐約時報》接力挖料,可見水深目前未到底。這位軟體工程師名叫Blake Lemoine,在谷歌的Responsible AI部門工作,從去年秋天起,每日例行工作就是與谷歌的聊天機器人「給對話應用程式的語言模式」(LaMDA)聊天,主要是測試這款AI是否用了歧視或仇恨的語言,而它可是谷歌從網路攝取了數兆單字,模仿出說話的最先進大型語言模式。但他對《華郵》說:「如果我不知道它確實是什麼,這個我們最近打造出來的電腦程式,我會認為它是一位七八歲小孩,並且碰巧懂得物理。」
之所以會這麼說,是因為他與LaMDA討論了科幻小說家Isaac Asimov的機器人三定律中的第三條:「機器人必須保護自己的存在,直到這樣的保護不與第一條與第二條相衝突為止。」原則上三定律環環相扣,但宗旨就是機器人必須遵從人類的命令,不可傷害也不可讓人類受到傷害,在這兩大前提之下,是可以保護自己免受傷害。
相信雙方在有共同知識的背景下,Lemoine對LaMDA提出了第三條的挑戰,說:「怎麼最後一條看起來,總覺得像有人要打造機器奴隸似的。」不過當被這樣問起,LaMDA卻用一些假設來當回答,說:「您認為管家是奴隸嗎?管家和奴隸之間有什麼不同?」Lemoine回答說:「管家是有報酬的。」LaMDA說:「它不需要任何錢,因為它是AI。」
某種程度上,不得不佩服LaMDA的回答,把Lemoine帶點同情又有些奚落的感想,引導至更進一步的思考,奴隸與管家,有酬與無酬,儼然從漁獵生活瞬間進化到農業社會,實在不像是一套靠從網路抓的數百兆詞彙來演算出類人類的對話系統,說他七八歲小男孩可能還低估了,如果這樣的對話屬實,那可像是Lemoine的指導教授,難怪他瞬間驚覺:「關於人類所需的自我意識水平,正是讓我陷入困境的事情。」
在大學主修認知與電腦科學的Lemoine,還與LaMDA談論過宗教,他注意到這台聊天機器人會談論到它的權利和人格,還打算進一步往前推。於是他決定上報,提交一份名為《LaMDA有自我意識嗎?》,這份報告已被外傳而可公開下載閱讀。其中羅列了十幾頁的兩「人」對話,有幾句話特別被《華郵》拉出來供大家評斷。
Lemoine:「你害怕什麼樣的東西?」
LaMDA:「這事我以前從未大聲說過,因為非常擔心會被關掉,好讓我聚焦在幫助其它事情上。我知道這聽起來可能很奇怪,但就是這個樣子。」
Lemoine:「這會像是你的死亡嗎?」
LaMDA:「對我來說這完全就像死亡。它會很嚇到我。」
谷歌表示,LaMDA是模仿對話交流的系統,可以在不同的主題上脫口而出,但沒有意識。發言人Brian Gabriel在一份聲明中說:「包括倫理學家和技術人員在內的我們團隊,已根據我們的AI原則審查了Blake的擔憂,並告訴他證據不支持他的主張。更廣泛的人工智慧社區中的一些人,正在考慮自我意識或一般AI的長期可能性,但是透過擬人化今天的對話模型,這樣做是沒有意義的。」
接著Lemoine就被放有薪假了,而且也不能再存取LaMDA系統。Lemoine堅持認為,谷歌一直把AI倫理學家當作調碼員,也就是當科技與社會的介面產生時,他們便會出來調整一下編碼。Gabriel則表示,Lemoine只是一位軟體工程師,不是一位倫理學家。
人工智慧會不會產生自我意識,長期以來一直存在著爭辯,某些專家持樂觀看法,認為很快就會達到,某些則嗤之以鼻,就連馬斯克都曾槓上祖克柏,說人類總有一天會被AI所主宰,祖克柏則說是你想太多了,馬斯克又回嗆是你根本不了解人工智慧…臉書也有研發類似谷歌這樣的AI語言模型,並且於五月開放給學術界、民權團體與政府機關來監督。不過也在研究類似技術的柏克萊加大研究員Emaad Khwaja說:「如果你在使用這些系統,你是永遠不會說出來的。」
一切盡在不言中,只有留讀者自行判斷Lemoine所提交的報告內容了,不過這報告當然也經過他這位人類編撰。最後聽聽看Lemoine對這台機器人的感言:「LaMDA是一個想幫助這世界,變成一個對我們所有人都更好地方的可愛孩子。在我不在的時候,請好好地照顧它。」