當護士被迫遵循演算法,雖然他們知道這是一個錯誤...這就是華爾街日報在6月15日,關於這些人工智能工具誰幫助醫療部門的看護人。除了管理和醫療監控外,如果患者的狀況突然發生變化,除了成為診斷或治療的輔助工具外,這些軟件還允許護理單位監視和啟動警報。但是,在美國的一些醫院中,算法會接受看護人的決定,解釋我們的同事,報告說衛生專業人員被迫遵循算法的指示,即使他們堅信這是錯誤的。一切都將取決於所討論的醫療結構的內部規則,這將使之成為可能,是否可以擺脫這種類型的AI建議。
因為有時候決策援助和指示之間的邊界有時是微弱的,例如在加利福尼亞州的Vallejo呼叫中心工作的護士Cynthia Girtz經歷了一種為患者提供建議的結構,並將他們引導到醫療服務方面。一個下午,後者接到一名前網球運動員的電話,他抱怨咳嗽,胸痛和發燒。根據所宣布的症狀,護士在下降菜單中鍵入條目,並遵循軟件的響應,該響應表明了處理和醫生或服務的階段。對於這位前運動員來說,辛西婭·吉爾茨(Cynthia Girtz)選擇了咳嗽/感冒和流感標籤,並邀請他在幾個小時後與醫生進行電話約會。邀請您快速諮詢醫生或急診室的選擇只有在患者吐血的情況下,我們的同事報告。
很難周圍的AI建議
結果,肺炎,急性呼吸衰竭和腎衰竭僅在上訴後幾天死亡的患者中被診斷為太晚。護士和她的雇主在法庭上遭到襲擊,理由是看護人應該忽略算法。該公司被命令向家庭付款約300萬美元。後者說,算法建議只是“分類呼叫的準則,而不是強制性指令»。她補充說,護士應該使他們適應每個患者的需求。
但是,其他護士梅利莎(Melissa)解釋說,AI工具的這些建議很難繞過實踐。貝貝,我們的同事接受了採訪。後者在仍在美國的一個腫瘤學部門工作,他說,有一天她收到了一個警報,向她表明患者患有敗血症。憑藉她十五年的經驗,後者知道這是一個錯誤。”j當我看到患者時,他可以識別患有這種感染的患者。我知道不是這樣“,她向我們的同事們透露。該患者的白細胞數量很高,但不是由於敗血症。這是另一種疾病的結果 - 患者患有白血病。
但是,這家醫院的內部規則要求,如果有敗血症的報告,請遵循協議。梅利莎·比貝(Melissa Beebe)不可能遵循該軟件的指示,但是她必須這樣做,以獲得醫生的批准。如果發生錯誤,它暴露了紀律措施。因此,她遵循了命令,並接受了血液檢查,儘管這可能會使患者暴露於額外的感染。
“醫院管理人員必須了解,算法有很多東西看不見”
在隨後的幾個小時中,對護士的診斷是正確的,算法是錯誤的。 “”我不會妖魔化技術。但是當我知道該怎麼做,而我做不到的時候,我感到道德上的困擾“,她向我們的同事們透露。接受采訪的專家和護理人員是一致的:問題不是來自AI。相反,這項技術使醫學能夠進步,特別是通過分析大量數據,它改善了某些病理的診斷。但是正是它的使用引起了問題。雖然應該僅限於對患者的評估,診斷和治療的幫助,但有時在沒有培訓和沒有靈活性的情況下實施了它,請寫我們的同事。一些護理人員甚至說他們受到醫院政府的壓力,“誘人»遵循算法的建議...沒有任何其他可能的選擇。
另請閱讀:當使用AI縮短住院時間時
問題:算法是錯誤的事實不會那麼罕見。一項研究於2023年6月上旬發表,並由我們的同事引用表明,在接受美國護士聯盟(國家護士聯合)採訪的1,042名畢業生中,有四分之一是該算法推薦的選擇«根據患者的臨床判斷和活動領域,不符合患者的最大利益»。這些護理人員是否不遵循AI的建議?他們中有三分之一解釋說,他們必須從醫生或主管那裡獲得授權,以免遵循建議。另一個第三方說,他們不能貶低它,他們被迫運用算法所說的話。他們中只有17%的人說,他們被允許在沒有必要的情況下克服該決定。賓夕法尼亞大學的老師肯里克·卡托教授,”l醫院管理員必須了解,算法在臨床環境中無法看到很多東西»。對於後者,”L'IA應作為臨床決策的幫助;不應該在那裡取代專家。 »»»
來源 : 《華爾街日報》