谷歌開發了專門針對醫療環境的語言模型,醫學-PaLM 2。基於帕LM 2,驅動的語言模型聊天機器人巴德,旨在協助醫療保健專業人員的日常生活。例如,Med-PaLM 2 可以回答有關醫學、健康甚至手術的問題,並像醫生一樣解讀患者的 X 光片以做出診斷。
生成式人工智慧從接受過訓練的資料中獲取專業知識。事實上,Google已經為語言模型澆了水堆積如山的醫療資訊。由於採用這種基於機器學習的方法,Med-PaLM 2 的目標是比 PaLM 2 等通用模型更有效率,GPT-4 d'OpenAI谷歌相信,來自 Meta 的 LLaMA 或 LLaMA 可以回答與醫學相關的問題。
另請閱讀:為什麼谷歌警告其員工巴德的事情
谷歌已經在測試 Med-PaLM 2
滿懷信心,這家搜尋巨頭開始從 2023 年 4 月起測試 Med-PaLM 2,《華爾街日報》報道。顯然,基於人工智慧模型的聊天機器人已經提供給一些機構使用,其中包括在多個州設有設施的梅奧診所研究醫院。該診所特別打算依賴谷歌的人工智慧來開發“一個新的內部研究工具”能夠查看患者的醫療記錄以獲取資訊。
在《華爾街日報》查閱的一封內部電子郵件中,Google認為人工智慧首先必須能夠在醫生嚴重短缺的國家。這位醫療助理就會來補充專業人員的工作,並回答一些病人的問題。這可能是谷歌的長期目標。目前,其聊天機器人仍僅限於少數醫院。請注意,ChatGPT 的創建者 OpenAI 和微軟已經提到了類似的想法。這兩家公司在人工智慧競賽中很早就成立,他們相信語言模式可以介入醫生短缺的地區。
個人資料問題
不出所料,谷歌的倡議引發了有關個人資料的許多問題以及對私人生活的尊重。事實上,眾所周知,語言模型會吸收對話者傳達的數據。這些數據有時是敏感的,然後會在他們的資訊語料庫中找到......並且可能在與另一用戶交換期間有時會出現。這就是為什麼許多公司,如蘋果或三星,建議員工不要使用人工智慧協助他們的工作。
為了讓醫院放心,Google明確表示數據將繼續由醫院控制。傳送給人工智慧的訊息將會加密。此外,山景城巨頭也不會有無法訪問它。所有數據將由醫院保存。它們不會用於訓練語言模型。
現階段,Med-PaLM 2 似乎尚未完全開發。與近幾個月出現的其他語言模型一樣,Google的人工智慧偶爾會缺乏精確度,並提供與查詢無關的資訊。看來Med-PaLM 2也有「產生幻覺」的傾向,即沉著地產生錯誤訊息。根據一些受訪的專業人士表示,因此人工智慧需要進行其他測試才能診斷患者並建議適當的治療方法。這就是Google寄望於逐步部署的原因。
谷歌的加速
儘管有許多與人工智慧相關的研究項目和進步,但谷歌最終還是出於謹慎而在人工智慧領域落後了一些。這種不情願讓更大膽的競爭對手在人工智慧競賽中取得了領先地位。這家山景城巨頭並沒有完全放棄其審慎原則,但似乎已經決定加快步伐。谷歌特別部署了 Bard,這是聊天GPT,在許多國家宣布由人工智慧驅動的新搜尋引擎到來之前。 Med-PaLM 2 已經在測試中,是這一攻勢的一部分。
來源 : 華爾街日報