ด้วยการเพิ่มขึ้นของปัญญาประดิษฐ์ (AI)(AGI) ซึ่งหมายถึงจุดที่เครื่องจักรมีความชาญฉลาดอย่างยิ่งในพื้นที่ส่วนใหญ่และมีประสิทธิภาพเหนือกว่ามนุษย์ ยังคงเป็นการคาดเดา
ผู้นำด้านเทคโนโลยี Sam Altman และ Elon Musk คาดการณ์ว่า AGI อาจมาถึงภายในปี 2568-2571 แต่ข้อเท็จจริงแตกต่างออกไป ความเสี่ยงที่แท้จริงในปี 2568 คือมนุษย์อาจใช้เครื่องมือ AI ในปัจจุบันในทางที่ผิด แทนที่จะมีเครื่องจักรอัจฉริยะ
การใช้เครื่องมือ AI ในทางที่ผิดโดยไม่ได้ตั้งใจ
การนำ AI มาใช้ในหลายสาขาทำให้เกิดผลกระทบที่คาดไม่ถึง โดยเฉพาะอย่างยิ่งในสาขากฎหมาย ทนายความที่ใช้ AI มากเกินไปถูกคว่ำบาตรเนื่องจากนำเสนอเอกสารที่ผิดกฎหมายซึ่งจัดทำโดยแชทบอท นี่คือตัวอย่างบางส่วนที่มีสายรวมอยู่ในรายงาน:
- ทนายความ Steven Schwartz และ Peter LoDuca ถูกคว่ำบาตรฐานส่งการอ้างอิงอันเป็นเท็จจาก ChatGPT ในนิวยอร์กด้วยค่าปรับ 5,000 ดอลลาร์
- Chong Ke ถูกลงโทษจากการเพิ่มคดีปลอมหลายคดีในการยื่นฟ้องทางกฎหมายในบริติชโคลัมเบีย
- ทนายความโคโลราโดZachariah Crabill ได้รับการอนุมัติสำหรับการระบุความผิดพลาดในคดีศาลหลายคดีให้กับนักศึกษาฝึกงานที่สร้างโดย AI
กรณีดังกล่าวเตือนถึงอันตรายประการหนึ่งของความไว้วางใจแบบไร้เหตุผลใน AI โดยไม่มีการตรวจสอบ ซึ่งอาจนำมาซึ่งความเสียหายต่อชื่อเสียงหรือบทลงโทษทางกฎหมาย นี่คือเหตุผลที่เราต้องระมัดระวังเกี่ยวกับข้อมูลที่ผลิตโดย AI
การใช้ในทางที่ผิดโดยเจตนา: ภาวะที่กลืนไม่เข้าคายไม่ออกของ Deepfake
เครื่องมือ AI ยังได้รับการติดอาวุธเพื่อวัตถุประสงค์ที่ไม่สุจริต ของปลอมที่ไม่พึงประสงค์เหมือนกับของทางเพศของ Taylor Swift ที่สร้างขึ้นโดยใช้เครื่องมือ Designer AI ของ Microsoft ได้แพร่หลายมากขึ้น
แม้จะมีกลไกการป้องกัน แต่ช่องโหว่ เช่น การสะกดชื่อผิด ก็สามารถข้ามข้อจำกัดได้
เครื่องมือโอเพ่นซอร์ส deepfake ทำให้แย่ลงไปอีก การใช้ในทางที่ผิดดังกล่าวส่งผลกระทบต่อแต่ละบุคคล แต่ยังสร้างความไม่ไว้วางใจในสังคมด้วย ดังนั้นจึงทำให้ควบคุมและต่อสู้กับเนื้อหาปลอมได้ยาก
'เงินปันผลของคนโกหก': บิดเบือนการรับรู้
เนื้อหาที่สร้างโดย AI ทำให้เส้นแบ่งระหว่างความเป็นจริงและนิยายไม่ชัดเจน จึงทำให้เกิดปรากฏการณ์ที่เรียกว่า "เงินปันผลของผู้โกหก" วิธีนี้ทำให้ผู้คนสามารถมองข้ามหลักฐานที่แท้จริงว่าเป็นของปลอม ซึ่งจะบ่อนทำลายความรับผิดชอบ ตัวอย่างได้แก่:
- Tesla โต้แย้งว่าวิดีโอปี 2016 ของ Elon Muskเกินจริงเรื่องความปลอดภัยของ Tesla Autopilotอาจเป็นของปลอมก็ได้
- นักการเมืองอินเดียคนหนึ่งอ้างว่าคลิปเสียงมีการปรับแต่งแม้ว่าจะตรวจสอบความถูกต้องแล้วก็ตาม
- จำเลยจลาจลเมื่อวันที่ 6 มกราคมอ้างว่าวิดีโอที่กล่าวหาเป็น Deepfake ที่สร้างโดย AI
เมื่อเสียง วิดีโอ และข้อความที่สร้างโดย AI มีความสมจริงมากขึ้น ความสามารถในการแยกแยะความจริงจากการประดิษฐ์ก็จะยากขึ้นเรื่อยๆ
ผลิตภัณฑ์ AI ที่น่าสงสัยเป็นวิธีการแสวงหาผลประโยชน์
บริษัทที่ใช้ประโยชน์จาก AI เกินจริงมักขายผลิตภัณฑ์ที่ใช้งานไม่ได้ซึ่งใช้ประกอบการตัดสินใจที่สำคัญเกี่ยวกับชีวิตของผู้คน Retorio แพลตฟอร์มการจ้างงานอ้างว่าสามารถระบุความเหมาะสมในงานของผู้สมัครได้โดยการสัมภาษณ์พวกเขาผ่านวิดีโอ
อย่างไรก็ตาม การวิจัยแสดงให้เห็นว่าระบบมีแนวโน้มที่จะถูกบิดเบือน รวมถึงการเปลี่ยนแปลงพื้นหลังหรือกระจก
ในเนเธอร์แลนด์ หน่วยงานด้านภาษีของเนเธอร์แลนด์ใช้ AI ในลักษณะที่ส่งผลให้ผู้ปกครองหลายพันคนถูกกล่าวหาอย่างผิดๆ ว่าฉ้อโกงสวัสดิการ และเรียกร้องให้จ่ายเงินคืนที่สูงเกินไป เรื่องอื้อฉาวนี้ร้ายแรงมากจนทำให้นายกรัฐมนตรีและคณะรัฐมนตรีต้องลาออก
การลดความเสี่ยงด้าน AI ในปี 2568
ความเสี่ยงที่สำคัญที่สุดในปี 2568 เกิดขึ้นจากไม่ใช่มาจากปัญญาอันชาญฉลาดอันธพาล ประกอบด้วย:
- การพึ่งพา AI มากเกินไปในกรณีที่ล้มเหลว (เช่น ข้อผิดพลาดทางกฎหมาย)
- การใช้ในทางที่ผิดโดยเจตนา (เช่น Deepfakes และข้อมูลที่ไม่ถูกต้อง)
- ระบบ AI ที่ออกแบบมาไม่ดีซึ่งก่อให้เกิดอันตรายต่อผู้คน
รัฐบาล บริษัท และสังคมต้องให้ความสำคัญกับข้อกังวลเร่งด่วนเหล่านี้ก่อน ตราบใดที่ความเป็นไปได้ของ AGI ยังห่างไกล การมุ่งเน้นไปที่ความเสี่ยง AI ที่เป็นรูปธรรมในปัจจุบันจะเป็นการป้องกันอันตรายในโลกแห่งความเป็นจริง