這本書由哈佛大學電腦科學家兼博士 Isaac Kohane 博士在記者 Carey Goldberg 和微軟研究副總裁 Peter Lee 的幫助下共同撰寫,重點關注人工智慧的影響關於醫學。
作為他研究的一部分,生物醫學研究人員測試了GPT-4,GPT 語言模型的最新更新,為 ChatGPT 提供支援。 3 月宣布,GPT-4 僅供付費訂閱者使用聊天GPT Plus目前。這位醫生指出,他已經「提前接觸」人工智慧來進行實驗。
ChatGPT已通過醫療執照
為了測試人工智慧的極限,Isaac Kohane 向美國醫療執照考試提出了 ChatGPT 4 問題,該計畫可導致獲得醫療執照在美國。這個三步驟計劃賦予了在美國土地上從事醫療職業的權利。它評估涵蓋大多數醫學學科的知識,從生物化學到診斷推理。所有美國醫學院都會在學生學習期間組織考試。第一階段大約需要兩年學習完成,第二階段需要四年學習,第三階段需要成為醫生。
第一個觀察結果:GPT-4 設法正確回應程序中90%的問題。該語言模型比先前版本的人工智慧 GPT-3.5 有效得多。二月測試,AI獲得了60%的平均分,還算及格。具體來說,機器人獲得的分數在52.4%到75%之間。 GPT-4 更新顯著改善了聊天機器人的結果。哈佛醫學院生物醫學資訊學系主任補充道,他甚至比一些醫生做得更好。
正如研究人員在他的書中所解釋的那樣,ChatGPT 也因其附加功能而脫穎而出。在測試過程中,聊天機器人的表現非常出色,這要歸功於他作為翻譯的才華。他能夠翻譯一位用葡萄牙語說話的患者提供的資訊。 AI也以清晰易懂的解釋回應患者。對話機器人能夠幫助醫生與患者溝通,避免使用技術術語等。
ChatGPT 可以模仿醫生
然而,ChatGPT 4 與其前身一樣,無法理解醫療資訊和概念。它只是根據可用數據生成答案。對於《醫學中的人工智慧革命》一書的作者來說,聊天機器人可以模仿醫生成功診斷的方式。
為了得出這個結論,艾薩克·科哈內(Isaac Kohane)醫生向生成人工智慧提交了幾個案例,其中包括他幾年前遇到的一個嬰兒的案例。根據超音波和荷爾蒙水平等少量訊息,聊天機器人診斷出先天性腎上腺增生症,這是一種罕見的內分泌疾病。書的作者透過案例得出了同樣的結論。
不幸的是,ChatGPT 是離絕對正確還很遠。在 Kohane 進行的實驗中,ChatGPT 出現了許多計算錯誤或近似值,其後果顯然是災難性的。就像所有生成式人工智慧一樣,聊天機器人有時可以以令人驚訝的沉著說出任何話。 ChatGPT 有時會開始“產生幻覺”,也就是說,如果缺乏數據,就會發明答案。 GPT-4 也不例外,儘管 OpenAI 聲稱透過該模型降低了產生幻覺的風險。
現階段,我們不應該只相信人工智慧所說的一切。如果您向聊天機器人詢問與健康相關的問題,我們建議您在線上並與您的醫生確認所有答案的準確性。 Isaac Kohane 博士在他的書中建議使用…GPT-4 來驗證 GPT-4。透過開啟新的對話,語言模型將以新的視角評估其推理並識別可能的錯誤。
“幾乎在任何方面,從診斷到醫療記錄再到臨床試驗,影響都將如此廣泛和深遠,我們相信我們現在必須開始努力以最大限度地發揮影響力”,我們可以在《醫學中的AI革命》中讀到。
Isaac Kohane 博士總結道,透過採取預防措施,ChatGPT 可以充當醫生的助手。在書中,他想像了衛生專業人員如何使用對話代理人來確定患者所患的疾病。在醫生(無論是專家還是一年級住院醫師)手中,ChatGPT 都是一個非常寶貴的工具...只要他們保持批判性思維。
來源 : 商業內幕