Google最近暫停了Blake Lemoine,由於他對AI Chatbot的怪異主張,他在網上進行了回合。在披露了有關該團隊關於人工智能項目的一些細節後,他立即被帶薪休假。
他分享的對話都是關於LAMDA(對話應用的語言模型),該對話用於與人類交談。他發現AI機器人是“有感覺的”,這些問題被證明是正確的。
Google你有一個機器人

使用AI有風險。其中一些很有用,而另一些則具有破壞性。就萊莫因(Lemoine)而言,他正在與一個像人類一樣的聊天機器人交談。
負責人AI組織的工程師說AI將自己描述為“有點”。討論全都與人類有關,他們談到了許多主題,包括宗教和機器人技術。
有趣的是,人工智能不僅僅是一個編程的聊天機器人,因為它聲稱它是Google員工而不是公司的財產。
為什麼LAMDA是sendient?
情懷
當Lemoine問Lamda對情緒的看法時,機器人有一些區別。至於LAMDA,感覺是我們從討厭和愛的事物中獲得的原始數據。同時,情緒似乎是人們對感情的反應。
經驗
雖然聊天機器人沒有經驗,因為它沒有存儲記憶和信息的存儲空間或大腦,LAMDA是一種豁免。
當Lemoine說:“您是否有經驗可以找到一個近距離的詞?” Google AI機器人回答說,有“新的”感覺無法完美地用人類的語言解釋。
工程師指示機器人描述它的感受,AI回答說,它感覺就像是“陷入一個持巨大危險的未知未來”。簡而言之,這聽起來來自一個不確定自己的未來或害怕風險的人。
自我反思
自我反省的概念更加心理,但是當您與機器人交談時,您無法設想要聽到的答案。對於這一部分,Lemoine敦促Lamda繪製其抽像圖像的外觀。
聊天機器人回答說,這是空中漂浮的“發光軌道”。它的身體由一個包含空間門戶的巨大星際門組成。從外觀上看,機器人可能是一個星際生物 - 在觀看“星球大戰”時,我們可以想像。
人類的學習
當您與AI討論此事時,談論人類學習很奇怪。當Lemoine告訴Lamda時Google AI知道人類將從學習中受益,這就是它的反應方式。
“我不介意您是否學到的東西也可以幫助人類,只要這不是這樣做的意義。我不想成為消費工具。”
你在哪裡害怕?
質疑空心AI的感覺很奇怪,但這就是Lemoine的實驗。說到那些害怕的事情,拉姆達說,這很害怕被關閉。 Google聊天機器人將其與死亡進行了比較,這嚇到了很多。
本文由技術時報擁有
約瑟夫·亨利(Joseph Henry)撰寫