谷歌开发了专门针对医疗环境的语言模型,医学-PaLM 2。基于帕LM 2,驱动的语言模型聊天机器人巴德,旨在协助医疗保健专业人员的日常生活。例如,Med-PaLM 2 可以回答有关医学、健康甚至手术的问题,并像医生一样解读患者的 X 光片以做出诊断。
生成式人工智能从接受过训练的数据中获取专业知识。事实上,谷歌已经给语言模型浇了水堆积如山的医疗信息。得益于这种基于机器学习的方法,Med-PaLM 2 的目标是比 PaLM 2 等通用模型更高效,GPT-4 d'OpenAI谷歌相信,来自 Meta 的 LLaMA 或 LLaMA 可以回答与医学相关的问题。
另请阅读:为什么谷歌警告其员工有关巴德的事情
谷歌已经在测试 Med-PaLM 2
满怀信心,这家搜索巨头开始从 2023 年 4 月起测试 Med-PaLM 2,《华尔街日报》报道。显然,基于人工智能模型的聊天机器人已经提供给一些机构使用,其中包括在多个州设有设施的梅奥诊所研究医院。该诊所特别打算依靠谷歌的人工智能来开发“一个新的内部研究工具”能够查看患者的医疗记录以获取信息。
在《华尔街日报》查阅的一封内部电子邮件中,谷歌认为人工智能首先必须能够在医生严重短缺的国家。这位医疗助理就会来补充专业人员的工作,并回答一些病人的问题。这可能是谷歌的长期目标。目前,其聊天机器人仍仅限于少数医院。请注意,ChatGPT 的创建者 OpenAI 和微软已经提到了类似的想法。这两家公司在人工智能竞赛中很早就成立,他们相信语言模型可以干预医生短缺的地区。
个人资料问题
不出所料,谷歌的倡议引发了有关个人数据的许多问题以及对私人生活的尊重。事实上,众所周知,语言模型会吸收对话者传达的数据。这些数据有时是敏感的,然后会在他们的信息语料库中找到......并且可能在与另一用户交换期间有时会出现。这就是为什么许多公司,如苹果或三星,建议员工不要使用人工智能协助他们的工作。
为了让医院放心,谷歌明确表示数据将继续由医院控制。传送给人工智能的信息将被加密。此外,山景城巨头不会有无法访问它。所有数据将由医院保存。它们不会用于训练语言模型。
现阶段,Med-PaLM 2 似乎尚未完全开发。与近几个月出现的其他语言模型一样,谷歌的人工智能偶尔会缺乏精度,并提供与查询无关的信息。看来Med-PaLM 2也有“产生幻觉”的倾向,即沉着地生成错误信息。据一些接受采访的专业人士表示,因此人工智能需要进行其他测试才能诊断患者并推荐适当的治疗方法。这就是谷歌寄希望于逐步部署的原因。
谷歌的加速
尽管有许多与人工智能相关的研究项目和进步,但谷歌最终还是出于谨慎而在人工智能领域落后了一些。这种不情愿让更大胆的竞争对手在人工智能竞赛中取得了领先地位。这家山景城巨头并没有完全放弃其审慎原则,但似乎已经决定加快步伐。谷歌特别部署了 Bard,这是聊天GPT,在许多国家宣布由人工智能驱动的新搜索引擎到来之前。 Med-PaLM 2 已经在测试中,是这一攻势的一部分。
来源 : 华尔街日报