เรารู้ว่าปัญญาประดิษฐ์ (AI) ไม่สามารถคิดแบบเดียวกับบุคคลได้ แต่การวิจัยใหม่ได้เปิดเผยว่าความแตกต่างนี้อาจส่งผลกระทบต่อการตัดสินใจของ AI ซึ่งนำไปสู่การทำให้มนุษย์ในโลกแห่งความเป็นจริงอาจไม่ได้เตรียมตัวไว้
การศึกษาตีพิมพ์ ก.พ. 2568 ในวารสารการทำธุรกรรมเกี่ยวกับการวิจัยการเรียนรู้ของเครื่องจักรตรวจสอบว่าแบบจำลองภาษาขนาดใหญ่ (LLMs) สามารถสร้างการเปรียบเทียบได้อย่างไร
พวกเขาพบว่าทั้งในการเปรียบเทียบแบบง่าย ๆ และปัญหาเมทริกซ์ดิจิตอล-ซึ่งงานคือการทำเมทริกซ์ให้เสร็จสมบูรณ์โดยการระบุตัวเลขที่ขาดหายไป-มนุษย์ทำงานได้ดี แต่ประสิทธิภาพของ AI ลดลงอย่างรวดเร็ว
ในขณะที่การทดสอบความทนทานของมนุษย์และโมเดล AI เกี่ยวกับปัญหาการเปรียบเทียบแบบอิงเรื่องราวการศึกษาพบว่าแบบจำลองนั้นมีความอ่อนไหวต่อผลกระทบการสั่งซื้อ-ความแตกต่างในการตอบสนองเนื่องจากลำดับของการรักษาในการทดลอง-และอาจมีแนวโน้มที่จะถอดความ
การศึกษาสรุปว่าแบบจำลอง AI ขาดความสามารถในการเรียนรู้แบบ“ เป็นศูนย์” ซึ่งผู้เรียนสังเกตตัวอย่างจากชั้นเรียนที่ไม่ได้อยู่ในระหว่างการฝึกอบรมและทำการคาดการณ์เกี่ยวกับชั้นเรียนที่พวกเขาอยู่ตามคำถาม
ที่เกี่ยวข้อง:
ผู้เขียนร่วมของการศึกษามาร์ธาเลวิสผู้ช่วยศาสตราจารย์ของ Neurosymbolic AI ที่ University of Amsterdam ได้ยกตัวอย่างว่า AI ไม่สามารถใช้เหตุผลเชิงเปรียบเทียบได้อย่างไรรวมถึงมนุษย์ในปัญหาสตริงจดหมาย
"การเปรียบเทียบสตริงตัวอักษรมีรูปแบบของ 'ถ้า ABCD ไปที่ ABCE, IJKL ไปที่อะไร?' มนุษย์ส่วนใหญ่จะตอบ 'ijkm' และ [AI] มีแนวโน้มที่จะให้คำตอบนี้ด้วย "ลูอิสบอกกับวิทยาศาสตร์การใช้ชีวิต "แต่ปัญหาอื่นอาจเป็น 'ถ้า ABBCD ไปที่ ABCD IJKKL ไปที่อะไร? มนุษย์มักจะตอบว่า' ijkl '-รูปแบบคือการลบองค์ประกอบซ้ำ แต่ GPT-4 มีแนวโน้มที่จะได้รับปัญหา [เช่นนี้] ผิด"
ทำไมมันถึงสำคัญที่ AI ไม่สามารถคิดเหมือนมนุษย์ได้
ลูอิสกล่าวว่าในขณะที่เราสามารถนามธรรมจากรูปแบบเฉพาะไปจนถึงกฎทั่วไปมากขึ้น LLMS ไม่มีความสามารถนั้น "พวกเขาทำได้ดีในการระบุและการจับคู่รูปแบบ แต่ไม่ใช่การสรุปจากรูปแบบเหล่านั้น"
แอปพลิเคชั่น AI ส่วนใหญ่พึ่งพาปริมาณในระดับหนึ่ง - ยิ่งมีข้อมูลการฝึกอบรมมากเท่าไหร่ก็ยิ่งมีการระบุรูปแบบมากขึ้น แต่ลูอิสเน้นการจับคู่รูปแบบและนามธรรมไม่ใช่สิ่งเดียวกัน “ มันน้อยลงเกี่ยวกับสิ่งที่อยู่ในข้อมูลและอื่น ๆ เกี่ยวกับวิธีการใช้ข้อมูล” เธอกล่าวเสริม
เพื่อให้ความรู้สึกถึงความหมาย AI ถูกนำมาใช้มากขึ้นในขอบเขตทางกฎหมายสำหรับการวิจัยการวิเคราะห์กฎหมายกรณีและคำแนะนำการพิจารณาคดี แต่ด้วยความสามารถที่ต่ำกว่าในการสร้างการเปรียบเทียบอาจไม่สามารถรับรู้ได้ว่าแบบอย่างทางกฎหมายใช้กับกรณีที่แตกต่างกันเล็กน้อยเมื่อเกิดขึ้น
เนื่องจากการขาดความแข็งแกร่งนี้อาจส่งผลกระทบต่อผลลัพธ์ในโลกแห่งความเป็นจริงการศึกษาชี้ให้เห็นว่าสิ่งนี้ทำหน้าที่เป็นหลักฐานว่าเราจำเป็นต้องประเมินระบบ AI อย่างรอบคอบไม่เพียง แต่เพื่อความแม่นยำ แต่ยังเพื่อความแข็งแกร่งในความสามารถทางปัญญาของพวกเขา