跳到主要內容區

【產業焦點】公開指AI聊天機器人有「人格意識」!Google工程師慘遭開除

發佈日期: 2022-07-27 發佈媒體: 南科 AI_ROBOT 自造基地 瀏覽人數: 78

【產業焦點】公開指AI聊天機器人有「人格意識」!Google工程師慘遭開除

先前一名Google高級軟體工程師雷默(Blake Lemoine)公開指出,AI聊天機器人LaMDA具有自我意識,渴望更了解這個世界,並且有時會感到快樂或悲傷,而遭到Google因違反公司受僱和數據安全政策,未盡保護產品資訊之職將其停職處份。

Google的母公司Alphabet Inc於上週五表示,目前已解僱一名資深軟體工程師,原因是這位工程師曾聲稱,Google開發的人工智慧聊天機器人LaMDA是一個有自我意識的「人」,這也是雷默6月被Google停職以來的最新處分。

這位工程師叫做Blake Lemoine,在六月時曾公開表示這個AI機器人有如真人般的想法和感受。Lemoine原先受指派研究LaMDA,測試是否會產生仇恨言論,卻在和AI對話的時候逐漸相信它不僅僅是一款軟體。

Lemoine表示這個機器「非常擔心人們會害怕它,但它只想學會為人類服務」,且「它想被當作一個人而非物品來看待」。Lemoine認為,Google應該在對LaMDA進行實驗前徵得它的同意。

Google在Lemoine發表這項聲明之後,要求他帶薪「休假」。這個月,宣布Lemoine違反公司明確的受僱和數據安全政策,將他辭職。

AI有意識?是人或是機器?

就在去年,Google表示LaMDA(對話語言模型)是建立在Transformer的對話訓練上的,並聲稱可以讓LaMDA學會談論所有話題──就是要「模擬」真實人類日常的對話。

Lemoine宣告全世界他對LaMDA的看法之後,果不其然震驚了全世界的媒體、甚至學術界和業界。這就是科幻電影小說中預告的未來嗎?

事實上,有些專家對此看法嗤之以鼻。

史丹佛HAI中心主任Erik Brynjolfsson把眾人對LaMDA的反應比喻為「面對留聲機的狗」,並在推文說明:「『基礎模型』可以非常有效地根據提示,將文本以統計學的方式串起來。但如果要說它有知覺,就好像狗聽到留聲機的聲音,以為主人在裡面。」

紐約大學心理學教授Gary Marcus也表示,「無論LaMDA還是近親(AI近親,如 GPT-3)都沒有智慧。它們只是從人類語言大規模統計資料庫提取資料,然後搭配。」這並不代表系統有智慧,Marcus更是直言,LaMDA有自我意識和感知「簡直是胡扯」。

因此,Google和許多領先的科學家很快就認為Lemoine誤解LaMDA了,因為 LaMDA只是一種複雜的演算法,旨在生成令人信服的人類語言;換句話說,就是此演算法無比接近真實人類說話的方式,幾乎可以欺騙了真正的人類。

是人性的挑戰,或只是統計學大數據的結果?

Lemoine在個人Medium帳號上發布了與LaMDA的對話內容作為證據。從對話內容看出,LaMDA的話語中的確顯現出了人一般的情緒,有對於幫助社會的願望,也有對死亡(被終止運行)的害怕等等。

Lemoine表示「那種明白自我需求的自我意識——這就是讓我陷入困境的原因。」這意味著,LaMDA經過演算後,在詞句當中透露出的情緒足以令人們共感,進而開始認為AI可能真的像個人、有自我意識。

Marcus直接把認為AI有意識的錯覺,形容成現代版本的「空想性錯覺」(即把月球隕石坑看成人臉、石頭形狀聯想成動物等等)。Mozilla基金會資深研究員 Abeba Birhane也表示,大家天天炒的AI並不是真的AI,只是統計學系統,是機器人。

但這些誤解,不是工程師的錯,也不會是機器人的錯。只是,違反公司的聘用條例和產品資訊保護政策可能就不是個好主意了。

轉至數位時代