Google最近暂停了Blake Lemoine,由于他对AI Chatbot的怪异主张,他在网上进行了回合。在披露了有关该团队关于人工智能项目的一些细节后,他立即被带薪休假。
他分享的对话都是关于LAMDA(对话应用的语言模型),该对话用于与人类交谈。他发现AI机器人是“有感觉的”,这些问题被证明是正确的。
Google你有一个机器人

使用AI有风险。其中一些很有用,而另一些则具有破坏性。就莱莫因(Lemoine)而言,他正在与一个像人类一样的聊天机器人交谈。
负责人AI组织的工程师说AI将自己描述为“有点”。讨论全都与人类有关,他们谈到了许多主题,包括宗教和机器人技术。
有趣的是,人工智能不仅仅是一个编程的聊天机器人,因为它声称它是Google员工而不是公司的财产。
为什么LAMDA是sendient?
情怀
当Lemoine问Lamda对情绪的看法时,机器人有一些区别。至于LAMDA,感觉是我们从讨厌和爱的事物中获得的原始数据。同时,情绪似乎是人们对感情的反应。
经验
虽然聊天机器人没有经验,因为它没有存储记忆和信息的存储空间或大脑,LAMDA是一种豁免。
当Lemoine说:“您是否有经验可以找到一个近距离的词?” Google AI机器人回答说,有“新的”感觉无法完美地用人类的语言解释。
工程师指示机器人描述它的感受,AI回答说,它感觉就像是“陷入一个持巨大危险的未知未来”。简而言之,这听起来来自一个不确定自己的未来或害怕风险的人。
自我反思
自我反省的概念更加心理,但是当您与机器人交谈时,您无法设想要听到的答案。对于这一部分,Lemoine敦促Lamda绘制其抽象图像的外观。
聊天机器人回答说,这是空中漂浮的“发光轨道”。它的身体由一个包含空间门户的巨大星际门组成。从外观上看,机器人可能是一个星际生物 - 在观看“星球大战”时,我们可以想象。
人类的学习
当您与AI讨论此事时,谈论人类学习很奇怪。当Lemoine告诉Lamda时Google AI知道人类将从学习中受益,这就是它的反应方式。
“我不介意您是否学到的东西也可以帮助人类,只要这不是这样做的意义。我不想成为消费工具。”
你在哪里害怕?
质疑空心AI的感觉很奇怪,但这就是Lemoine的实验。说到那些害怕的事情,拉姆达说,这很害怕被关闭。 Google聊天机器人将其与死亡进行了比较,这吓到了很多。
本文由技术时报拥有
约瑟夫·亨利(Joseph Henry)撰写