當護士被迫遵循護士的指示時演算法,即使他們知道這是一個錯誤......這就是華爾街日報6月15日,關於這些人工智慧工具誰幫助醫療部門的護理人員。除了行政和醫療監控之外,該軟體除了作為輔助診斷或治療的工具外,還可以在護理單位監控患者病情突然變化並發出警報。但在美國的某些醫院,演算法會接管護理人員的決定,我們的同事解釋說,報告了衛生專業人員被迫遵循演算法指示的情況,即使他們確信這是一個錯誤。一切都取決於相關醫療結構的內部規則,這將使自己能夠或不能擺脫此類人工智慧的建議。
因為決策支援和遵循的指示之間的界限有時很脆弱,就像在加利福尼亞州瓦列霍呼叫中心工作的護士辛西婭·吉爾茨(Cynthia Girtz)所經歷的那樣,這種結構為患者提供建議並指導他們接受醫療服務。一天下午,後者接到一位前網球選手的電話,他抱怨咳嗽,胸痛和發燒。根據報告的症狀,護理師在下拉式選單中輸入條目並遵循軟體回應,這些回應指示治療步驟以及要諮詢哪些醫生或服務。對於這位前運動員,辛西婭·吉爾茨選擇了咳嗽/感冒和流感標籤,並邀請他在幾個小時後與醫生進行電話預約。我們的同事報告說,只有當病人咳血時,才能選擇邀請您快速諮詢醫生或急診室。
難以規避的人工智慧建議
結果,這名患者被診斷為肺炎、急性呼吸衰竭和腎衰竭,但為時已晚,他在接到電話後幾天就去世了。護士和她的雇主被起訴,理由是護理人員應該推翻演算法。該公司被命令向該家庭支付約 300 萬美元。然而,後者宣稱演算法建議只是「呼叫分類指南,而非強制性指南」。她補充說,護士應該根據每個病人的需求來客製化它們。
然而,另一位護理師 Melissa 解釋說,這些人工智慧工具的建議在實踐中很難規避畢比,接受我們同事的訪問。後者仍在美國的一個腫瘤科工作,她說有一天她收到警報,告訴她一名患者患有敗血症。後者以十五年的經驗,深知這是一個錯誤:「J當我看到一位病人時,我就知道他有這種感染。我知道事實並非如此»,她向我們的同事吐露心聲。該患者的白血球數升高,但這並不是由於敗血症。這是另一種疾病的結果—患者患有白血病。
然而,該護士解釋說,該醫院的內部規則要求,如果報告敗血症,則必須遵守協議。梅麗莎·畢比本可以不遵循軟體的說明,但她必須獲得醫生的批准才能這樣做。一旦出現失誤,她就會受到紀律處分。因此,她遵照命令,採集了病人的血液,儘管這可能會使病人進一步受到感染。
“醫院管理者需要明白,有很多事情是演算法無法看到的”
在接下來的幾個小時裡,護士的診斷被證明是正確的,但演算法是錯誤的。 “我並不妖魔化技巧。但當我知道該做什麼卻做不到時,我會感到道德上的困擾»,她向我們的同事吐露心聲。受訪的專家和護理人員一致認為:問題並非來自人工智慧。相反,這項技術促進了醫學的進步,特別是透過分析海量數據,它改進了某些病理的診斷。但它的使用卻帶來了問題。我們的同事寫道,雖然它應該僅限於幫助患者評估、診斷和治療,但有時在未經培訓且缺乏靈活性的情況下實施。一些護理人員甚至聲稱他們迫於醫院管理部門的壓力,“邀請» 遵循演算法的建議......沒有其他可能的選擇。
另請閱讀:當人工智慧被用來縮短住院時間
問題:演算法出錯的情況並不少見。我們的同事引用了 2023 年 6 月初發表的一項研究,顯示,在美國護理工會(全國護理師聯合會)調查的 1,042 名註冊護理師中,有四分之一的人選擇了演算法推薦的選擇«根據患者的臨床判斷和實踐範圍,不符合患者的最佳利益」。難道這些護理人員沒有遵循人工智慧的建議嗎?其中三分之一的人解釋說,他們必須獲得醫生或主管的授權才能不遵循建議。另有三分之一的人表示,他們不能偏離它,他們被迫應用演算法所說的內容。只有 17% 的人表示他們可以推翻該決定,而無需批准。對於賓夕法尼亞大學教授肯里克·卡托(Kenrick Cato)來說,“我醫院管理人員需要了解演算法在臨床環境中無法看到的許多東西」。對於後者,“我'人工智慧必須用作臨床決策輔助;它不應該取代專家。 »
來源 : 華爾街日報