ซอฟต์แวร์วินิจฉัยหรือแจ้งเตือนมีการใช้มานานหลายปีในโรงพยาบาล แต่เมื่อเร็ว ๆ นี้ คำแนะนำของอัลกอริทึมมีความสำคัญมากกว่าคำแนะนำของผู้ดูแล ซึ่งบางคนทำงานในโรงพยาบาลในสหรัฐอเมริกาต่างตื่นตระหนก
เมื่อพยาบาลถูกบังคับให้ปฏิบัติตามคำแนะนำของกอัลกอริทึมแม้ว่าพวกเขาจะรู้ว่ามันเป็นข้อผิดพลาด... นี่คือสิ่งที่วารสารวอลล์สตรีทเมื่อวันที่ 15 มิถุนายน เกี่ยวกับเรื่องเหล่านี้เครื่องมือปัญญาประดิษฐ์ที่ช่วยผู้ดูแลในภาคการแพทย์ นอกเหนือจากการตรวจสอบด้านการบริหารและการแพทย์แล้ว ซอฟต์แวร์นี้ยังช่วยให้หน่วยดูแลสามารถตรวจสอบและออกการแจ้งเตือนหากอาการของผู้ป่วยเปลี่ยนแปลงกะทันหัน นอกเหนือจากการเป็นเครื่องมือในการช่วยวินิจฉัยหรือการรักษา แต่ในโรงพยาบาลบางแห่งในสหรัฐอเมริกา อัลกอริธึมจะเข้าควบคุมการตัดสินใจของผู้ดูแล อธิบายเพื่อนร่วมงานของเรา และรายงานกรณีของผู้เชี่ยวชาญด้านสุขภาพที่ถูกบังคับให้ปฏิบัติตามคำแนะนำของอัลกอริธึม แม้ว่าพวกเขาจะเชื่อว่านี่เป็นข้อผิดพลาดก็ตาม ทุกอย่างจะขึ้นอยู่กับกฎภายในของโครงสร้างทางการแพทย์ที่เป็นปัญหา ซึ่งจะทำให้เป็นไปได้หรือไม่ที่จะหลุดพ้นจากคำแนะนำของ AI ประเภทนี้
เนื่องจากเส้นแบ่งระหว่างการสนับสนุนการตัดสินใจและคำแนะนำในการปฏิบัติตามบางครั้งก็ไม่ชัดเจน เหมือนกับที่ Cynthia Girtz พยาบาลที่ทำงานให้กับศูนย์บริการทางโทรศัพท์ในวัลเลโฮ แคลิฟอร์เนีย มีประสบการณ์ โครงสร้างที่ให้คำแนะนำผู้ป่วยและนำพวกเขาไปรับบริการทางการแพทย์ บ่ายวันหนึ่ง ฝ่ายหลังได้รับโทรศัพท์จากอดีตนักเทนนิสคนหนึ่งซึ่งบ่นว่ามีอาการไออาการเจ็บหน้าอกและมีไข้ จากอาการที่รายงาน พยาบาลจะพิมพ์รายการลงในเมนูแบบเลื่อนลงและปฏิบัติตามการตอบสนองของซอฟต์แวร์ ซึ่งระบุขั้นตอนการรักษา และแพทย์หรือบริการที่ควรปรึกษา สำหรับอดีตนักกีฬา Cynthia Girtz เลือกแท็บอาการไอ/หวัดและไข้หวัดใหญ่ และเชิญให้เขานัดหมายทางโทรศัพท์กับแพทย์ในอีกไม่กี่ชั่วโมงต่อมา ทางเลือกที่เชิญชวนให้คุณปรึกษาแพทย์หรือห้องฉุกเฉินอย่างรวดเร็วจะเป็นไปได้ก็ต่อเมื่อผู้ป่วยไอเป็นเลือด เพื่อนร่วมงานของเรารายงาน
คำแนะนำ AI ที่หลีกเลี่ยงได้ยาก
เป็นผลให้ไม่ได้รับการวินิจฉัยโรคปอดบวม ภาวะหายใจล้มเหลวเฉียบพลัน และไตวาย จนกระทั่งสายเกินไปในผู้ป่วยรายนี้ที่เสียชีวิตไม่กี่วันหลังการโทร พยาบาลและนายจ้างของเธอถูกฟ้องโดยอ้างว่าผู้ดูแลควรลบล้างอัลกอริทึม บริษัทได้รับคำสั่งให้จ่ายเงินให้กับครอบครัวประมาณ 3 ล้านเหรียญสหรัฐ อย่างไรก็ตาม ฝ่ายหลังได้ประกาศว่าคำแนะนำอัลกอริทึมเป็นเพียง “แนวทางสำหรับการโทรแบบ Triaging ไม่ใช่แนวทางบังคับ- พยาบาลได้รับการคาดหวังให้ปรับแต่งให้เหมาะกับความต้องการของผู้ป่วยแต่ละราย เธอกล่าวเสริม
อย่างไรก็ตาม คำแนะนำเกี่ยวกับเครื่องมือ AI เหล่านี้คงเป็นเรื่องยากที่จะหลีกเลี่ยงในทางปฏิบัติ Melissa พยาบาลอีกคนอธิบายบีบี,สัมภาษณ์โดยเพื่อนร่วมงานของเรา ฝ่ายหลังซึ่งทำงานในหน่วยเนื้องอกวิทยาที่ยังอยู่ในสหรัฐอเมริกา บอกว่าวันหนึ่งเธอได้รับการแจ้งเตือนว่ามีผู้ป่วยคนหนึ่งกำลังทุกข์ทรมานจากภาวะติดเชื้อ ด้วยประสบการณ์สิบห้าปีของเธอ คนหลังรู้ดีว่ามันเป็นความผิดพลาด: “เจฉันรู้จักคนไข้ที่ติดเชื้อนี้เมื่อฉันเห็นคนไข้รายหนึ่ง ฉันรู้ว่านั่นไม่เป็นเช่นนั้น» เธอสารภาพกับเพื่อนร่วมงานของเรา ผู้ป่วยมีจำนวนเม็ดเลือดขาวเพิ่มขึ้น แต่ไม่ได้เกิดจากการติดเชื้อ มันเป็นผลมาจากการเจ็บป่วยอื่น – ผู้ป่วยเป็นมะเร็งเม็ดเลือดขาว
อย่างไรก็ตาม กฎภายในของโรงพยาบาลแห่งนี้กำหนดให้หากมีการรายงานภาวะติดเชื้อ จะต้องปฏิบัติตามระเบียบการ พยาบาลอธิบาย Melissa Beebe ไม่สามารถทำตามคำแนะนำของซอฟต์แวร์ได้ แต่เธอต้องได้รับการอนุมัติจากแพทย์จึงจะทำเช่นนั้นได้ และในกรณีที่เกิดข้อผิดพลาดเธอก็จะถูกลงโทษทางวินัย ดังนั้นเธอจึงปฏิบัติตามคำสั่ง และนำเลือดของผู้ป่วยไป แม้ว่าอาจทำให้ผู้ป่วยติดเชื้อต่อไปได้ก็ตาม
“ผู้บริหารโรงพยาบาลต้องเข้าใจว่ามีหลายสิ่งที่อัลกอริทึมไม่สามารถมองเห็นได้”
หลายชั่วโมงต่อมา การวินิจฉัยของพยาบาลปรากฏว่าถูกต้อง อัลกอริธึมผิดพลาด -ฉันไม่ทำลายเทคโนโลยี แต่ฉันรู้สึกลำบากใจเมื่อรู้ว่าต้องทำอะไรแต่ทำไม่ได้» เธอสารภาพกับเพื่อนร่วมงานของเรา ผู้เชี่ยวชาญและผู้ดูแลที่สัมภาษณ์มีมติเป็นเอกฉันท์ว่าปัญหาไม่ได้มาจาก AI ในทางตรงกันข้าม เทคโนโลยีนี้ได้ก่อให้เกิดความก้าวหน้าทางการแพทย์ โดยเฉพาะอย่างยิ่งจากการวิเคราะห์ด้วยข้อมูลจำนวนมหาศาล ทำให้การวินิจฉัยโรคบางอย่างดีขึ้น แต่การใช้งานต่างหากที่ก่อให้เกิดปัญหา แม้ว่าควรจะจำกัดอยู่เพียงการให้ความช่วยเหลือในการประเมิน การวินิจฉัย และการรักษาผู้ป่วย แต่บางครั้งก็นำไปใช้โดยไม่ได้รับการฝึกอบรมและไม่มีความยืดหยุ่น เขียนถึงเพื่อนร่วมงานของเรา ผู้ดูแลบางคนถึงกับอ้างว่าพวกเขาอยู่ภายใต้แรงกดดันจากฝ่ายบริหารของโรงพยาบาล “เชิญชวน» เพื่อปฏิบัติตามคำแนะนำของอัลกอริธึม…โดยไม่มีทางเลือกอื่นที่เป็นไปได้
อ่านเพิ่มเติม:เมื่อใช้ AI เพื่อลดระยะเวลาในการอยู่โรงพยาบาล
ปัญหา: การที่อัลกอริทึมทำผิดพลาดนั้นไม่ใช่เรื่องยากนัก การศึกษาที่เผยแพร่เมื่อต้นเดือนมิถุนายน 2023 และเพื่อนร่วมงานของเราอ้างอิงแสดงให้เห็นว่าสำหรับหนึ่งในสี่ของพยาบาลวิชาชีพ 1,042 คนที่สำรวจโดยสหภาพพยาบาลอเมริกัน (National Nurses United) ตัวเลือกที่แนะนำโดยอัลกอริทึม-ไม่ได้อยู่ในความสนใจสูงสุดของผู้ป่วย โดยพิจารณาจากวิจารณญาณทางคลินิกและขอบเขตการปฏิบัติของพวกเขา- ผู้ดูแลเหล่านี้จะไม่ทำตามคำแนะนำของ AI ได้หรือไม่? หนึ่งในสามอธิบายว่าต้องได้รับอนุญาตจากแพทย์หรือหัวหน้างานไม่ปฏิบัติตามคำแนะนำ อีกสามคนกล่าวว่าพวกเขาไม่สามารถเบี่ยงเบนไปจากมันได้ พวกเขาถูกบังคับให้ใช้สิ่งที่อัลกอริทึมกล่าว มีเพียง 17% เท่านั้นที่บอกว่าพวกเขาได้รับอนุญาตให้แทนที่การตัดสินใจดังกล่าว โดยไม่ต้องมีการอนุมัติสำหรับศาสตราจารย์ Kenrick Cato ศาสตราจารย์แห่งมหาวิทยาลัยเพนซิลวาเนีย “ลผู้บริหารโรงพยาบาลต้องเข้าใจว่ามีหลายสิ่งที่อัลกอริทึมไม่สามารถมองเห็นได้ในสถานพยาบาล- สำหรับประการหลังนี้ “ฉันต้องใช้ AI เป็นตัวช่วยในการตัดสินใจทางคลินิก ไม่ควรอยู่ที่นั่นเพื่อทดแทนผู้เชี่ยวชาญ -
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : วารสารวอลล์สตรีท