你是否应该接受这份工作,放弃一切,开始职业转变,离开你的伴侣去别处开始新的生活?面对艰难的选择,我们可能很快就会有新的反应:寻求建议人工智能(人工智能)。这就是我们正在努力的方向深度思维,Alphabet 的 AI 分支。母公司为谷歌已经在一个版本上工作了几个月“生活教练» 其人工智能工具。后者可能能够像心理学家或亲密的朋友一样回答有关用户生活的特别私密和个人的问题。
根据纽约时报与 DeepMind 签订合同的 Scale AI 公司的大约 100 名研究人员将测试该项目以及其他 20 项任务。我们的同事举了一个例子,一位互联网用户必须向他最好的朋友之一宣布,他将无法参加他的婚礼,因为他无法支付到达庆祝活动地点的机票。然后,人工智能会建议以不同的方式呈现这个坏消息,以便更好地接受。
道德和法律风险
除了回答某些个人问题的能力之外,这个生活教练版本还包括从制定预算到运动训练计划等其他功能。
这些可能性让一些研究人员感到担忧,他们指出,除了用户某些反应的危险性之外,用户思维还可能失去自主权。聊天机器人,容易产生幻觉。这些工具确实可以给出非常令人信服的答案,但同时却是完全错误的,甚至是有害的。
几个月前,一家支持饮食失调受害者的美国非政府组织不得不撤回其名为 Tessa 的对话机器人。该系统给出了不适当的饮食建议,甚至对提出质疑的人的健康有害。去年 12 月,谷歌内部的专家还警告称,此类工具会给用户的福祉带来许多风险。我们的同事报告说,互联网用户尤其可能会对聊天机器人投入过多的感情。纽约时报。
我们如何确保建议的保密性和质量?
考虑到人工智能的竞争,这一正在开发中的新功能并不令人意外,它必须克服几个挑战:首先,如何确保您为寻求建议而提供的所有个人元素不会最终出现在公共广场或其他谈话中?诗人谷歌的生成人工智能工具目前建议其用户不要泄露个人信息。
那么,如何才能保证AI给出的建议是好建议呢? Christian Guttmann,Pegasystems 的人工智能专家监护人,例如建议建立一个“建立人类和人工智能系统之间关系的负责任的方法。”目标是“确保向某人提供的建议是安全、合理的,并且与专业人士的建议一致»,他向我们的同事汇报。
从通用工具到个性化工具
另一个重大挑战:从技术上讲,建立这样一个系统将特别复杂,强调财富。到目前为止,Bard 与 ChatGPT 一样,能够以维基百科的风格对大量主题给出一般性答案。但创造独特的、个性化的互动将特别困难。能够给予“生活建议”,这些工具除了能够提供相关且符合道德的回应之外,还应适应每个人的情况。
出于所有这些原因,谷歌不会部署此类工具。它可能仅限于某些特定功能(例如制定预算),而不是提供更加雄心勃勃的生活指导工具。根据纽约时报目前,谷歌尚未决定其发布策略。如果这个工具真的最终投放市场,这将构成这家数字巨头方法的改变。山景公司实际上建议巴德用户不要请求“医疗、法律、财务或其他专业建议»。
被质疑的是纽约时报,DeepMind 则坚持其当前对该项目的评估流程,并宣称这是一个“开发安全有用技术的重要一步»。
来源 : 纽约时报