人工智能代理作为 2025 年值得关注的技术而受到关注。虽然微软、谷歌和 Slack 已经推出了随着 Operator 预览版的推出,OpenAI 将自己推到了对话的前沿,Operator 是其第一个可以使用浏览器独立执行任务的 AI 代理。
这家硅谷公司的一份声明称操作员“可以查看网页并通过键入、单击和滚动来与其交互。”因此,它可以“被要求处理各种重复的浏览器任务,例如填写表格、订购杂货,甚至创建表情包。”
该版本是一个研究预览版,OpenAI 将从中收集修改反馈。目前仅适用于美国的 Pro 用户 该公司计划扩展到 Plus、Team 和 Enterprise 用户并集成将来会进入 ChatGPT。
根据《欧洲新闻》的报道,人工智能代理“由计算机使用代理(CUA)提供支持,这是一种结合了通过强化学习增强视觉能力和高级推理能力。”
OpenAI 认为,“使用与人类日常交互相同的界面和工具的能力扩大了人工智能的效用,帮助人们节省日常任务的时间,同时为企业开辟新的参与机会。”
该公司表示正在与以下公司合作、Instacart、OpenTable、Priceline、StubHub、Thumbtack、Uber 等,“确保 Operator 在尊重既定规范的同时满足现实世界的需求。”
它还预见了 Operator 在提高公共部门应用程序工作流程效率方面的用途,并已在加利福尼亚州斯托克顿市进行了试点部署。
保护措施包括关闭人工智能训练数据收集的选项
对于某些人来说,Operator 可能听起来像是天网- 通用人工智能正在走向敌对的自我意识。 OpenAI 说不用担心;他们有“三层保障措施来防止滥用并确保用户牢牢控制。”
确保用户始终处于控制之中的措施包括接管模式,将代理权移交给用户以进入(并承诺不看)和任务限制,以使其远离银行账户和其他高安全性在线环境。
OpenAI 内置了“针对可能试图通过隐藏提示、恶意代码或恶意代码误导操作员的敌对网站的防御措施”。”。其中包括即时注入检测、专用监控模型以及自动和人工审核流程。 “我们知道不良行为者可能会试图滥用这项技术。这就是为什么我们设计 Operator 来拒绝有害请求。”
最后,OpenAI 列出了一项安全措施,即选择退出数据收集以进行进一步的处理。。 “在 ChatGPT 设置中关闭‘为每个人改进模型’意味着 Operator 中的数据也不会用于训练我们的模型,”它说。 “用户可以在运营商设置的隐私部分下一键删除所有浏览数据并注销所有网站。”
对于那些焦虑不安的人,OpenAI 承诺“早期的用户反馈将在提高其准确性、可靠性和安全性方面发挥至关重要的作用,帮助我们为每个人打造更好的 Operator。”然而与此同时,“它仍在学习、发展,并且可能会犯错误。”
从世界到人工智能救援的人格证明
当我们被要求治疗时的新人工智能代理是一个精致的婴儿,它的父亲继续在两端吹奏他的风笛,向一个吹乐观的吉格舞,向另一个吹紧急的推销。
与他的另一项事业,Altman 将虹膜生物识别和数字 ID 方案定位为区分真人与 OpenAI 刚刚发布的人工智能代理的唯一合乎逻辑的方法。
当然,这并不影响 Operator 声称的有用性。在一个博客功能从 1 月初开始,World 介绍了“人工智能代理和人类证明”(PoH)(World 为这一概念选择了一个可疑的短语))。它提供了一些关于奥特曼如何让他的两项事业相互竞争的见解,以及他打算如何让它们融合的见解。
世界希望将人工智能代理与数字身份“角色”联系起来
公式是这样的:使用人工智能来证明你的背后有一个真正的人类将允许人工智能进一步发展,这在一个听起来要么像技术乌托邦梦想,要么像恐怖场景的世界中黑客帝国– 最终将能够为每个人做几乎所有事情。
来自 TechCrunch 的报告引号World 首席产品官蒂亚戈·萨达 (Tiago Sada) 表示,该项目“现在希望创建工具,将某些人工智能代理与人们的在线角色联系起来,让其他用户验证代理是否代表个人行事。”
换句话说,将人工智能代理与个人的数字身份联系起来——在这种情况下,。
Sada 表示,“将你的‘身份证明’委托给代理人并让它代表你行事的想法实际上非常重要”,并指出“在某些应用程序中,无论是真人使用它还是代表他们行事的代理人都并不重要。你只需要知道有人支持这种互动。”
从上面看,奥特曼的愿景似乎在三个层面上运作。在地面层面,有福传:和乌托邦式的承诺。较低的大气层引发了当前两大科技怪兽之间的战斗:侵蚀现实的人工智能和维持现实的人工智能。
而在平流层之上的是木偶师,他们在精心设计的舞蹈中控制双方,引导我们走向一个结局,在这个结局中,有血有肉的人的角色仍然不明确。
文章主题
|||||||









