นอกเหนือจากความก้าวหน้าทางเหนือของผึ้งนักฆ่าในปี 1980 ไม่มีอะไรที่จะทำให้เกิดความกลัวในหัวใจของนักเขียนพาดหัวเช่นเดียวกับการปีนของปัญญาประดิษฐ์
นับตั้งแต่คอมพิวเตอร์ Deep Blue พ่ายแพ้แชมป์หมากรุกโลก Garry Kasparov ในปี 1997 มนุษย์ได้เผชิญหน้ากับโอกาสที่อำนาจสูงสุดของพวกเขาเหนือเครื่องจักรเป็นเพียงชั่วคราว แต่ก่อนหน้านี้มันเป็นเรื่องง่ายที่จะแสดงให้เห็นว่า AI ล้มเหลวอย่างน่าสังเวชในอาณาจักรแห่งความเชี่ยวชาญของมนุษย์มากมายตั้งแต่การวินิจฉัยโรคไปจนถึงการถอดเสียง
แต่ประมาณหนึ่งทศวรรษที่ผ่านมาสมองคอมพิวเตอร์ - ที่รู้จักกันในชื่อ Neural Networks - ได้รับการเพิ่มไอคิวจากวิธีการใหม่ที่เรียกว่าการเรียนรู้อย่างลึกซึ้ง- ทันใดนั้นคอมพิวเตอร์ก็เข้าหาความสามารถของมนุษย์ในการระบุภาพการอ่านสัญญาณและการปรับปรุงภาพถ่าย - ไม่ต้องพูดถึงการแปลงคำพูดเป็นข้อความรวมถึงนักพิมพ์ดีดส่วนใหญ่
ความสามารถเหล่านั้นมีข้อ จำกัด สำหรับสิ่งหนึ่งที่เห็นได้ชัดว่าการเรียนรู้ระบบประสาทที่ประสบความสำเร็จนั้นประสบความสำเร็จนั้นง่ายต่อการหลอก สติกเกอร์ขนาดเล็กสองสามตัววางไว้บนป้ายหยุดทำให้คอมพิวเตอร์ AI คิดว่าป้ายบอกว่า "ขีด จำกัด ความเร็ว 80" ตัวอย่างเช่น และคอมพิวเตอร์อัจฉริยะเหล่านั้นจำเป็นต้องได้รับการฝึกฝนอย่างกว้างขวางในงานโดยดูตัวอย่างมากมายของสิ่งที่พวกเขาควรมองหา การเรียนรู้อย่างลึกซึ้งจึงให้ผลลัพธ์ที่ยอดเยี่ยมสำหรับงานที่เน้นอย่างแคบ แต่ไม่สามารถปรับความเชี่ยวชาญนั้นได้ดีกับเวทีอื่น ๆ คุณจะไม่ (หรือไม่ควร) จ้างให้เขียนคอลัมน์นิตยสารให้คุณเช่น
แต่ชาติล่าสุดของ AI ได้เริ่มคุกคามความปลอดภัยในการทำงานไม่เพียง แต่สำหรับนักเขียนเท่านั้น แต่ยังมีผู้เชี่ยวชาญด้านอื่น ๆ อีกมากมาย
“ ตอนนี้เราอยู่ในยุคใหม่ของ AI” Melanie Mitchell นักวิทยาศาสตร์คอมพิวเตอร์ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ที่สถาบันซานตาเฟในนิวเม็กซิโกกล่าว “ เราอยู่นอกเหนือการปฏิวัติการเรียนรู้อย่างลึกซึ้งในปี 2010 และตอนนี้เราอยู่ในยุคของ AI กำเนิดของปี 2020”
ระบบ AI แบบกำเนิดสามารถผลิตสิ่งต่าง ๆ ที่ดูได้อย่างปลอดภัยภายในจังหวัดของความสามารถในการสร้างสรรค์ของมนุษย์ ระบบ AI สามารถตอบคำถามด้วยทักษะและความรู้ทางภาษาของมนุษย์ที่ดูเหมือนจะเขียนบทกวีและบทความและบทสรุปทางกฎหมายผลิตงานศิลปะที่มีคุณภาพสิ่งพิมพ์และแม้แต่สร้างวิดีโอตามความต้องการของทุกสิ่งที่คุณอาจต้องการอธิบาย
ความสามารถเหล่านี้จำนวนมากเกิดจากการพัฒนาแบบจำลองภาษาขนาดใหญ่ย่อเหมือน LLM เช่น CHATGPT และรุ่นอื่น ๆ ที่คล้ายกัน พวกเขามีขนาดใหญ่เพราะพวกเขาได้รับการฝึกฝนเกี่ยวกับข้อมูลจำนวนมาก - โดยพื้นฐานแล้วทุกอย่างบนอินเทอร์เน็ตรวมถึงสำเนาหนังสือที่พิมพ์นับไม่ถ้วน ขนาดใหญ่ยังสามารถอ้างถึงสิ่งต่าง ๆ จำนวนมากที่พวกเขาสามารถ "เรียนรู้" ในการอ่านของพวกเขา - ไม่ใช่แค่คำพูด แต่ยังรวมถึงคำศัพท์วลีสัญลักษณ์และสมการทางคณิตศาสตร์
โดยการระบุรูปแบบในการรวมโมเลกุลภาษาศาสตร์ดังกล่าว LLM สามารถทำนายได้ว่าคำสั่งใดควรประกอบเพื่อแต่งประโยคหรือตอบสนองต่อการสืบค้น โดยทั่วไป LLM คำนวณความน่าจะเป็นของคำที่ควรทำตามคำอื่น ๆ นักวิจารณ์บางสิ่งบางอย่างได้เย้ยหยันว่า "การแก้ไขอัตโนมัติบนสเตียรอยด์"
ถึงกระนั้น LLM ก็แสดงความสามารถที่น่าทึ่งเช่นการเขียนข้อความในรูปแบบของผู้เขียนที่ได้รับการแก้ปริศนาและถอดรหัสจากบริบทไม่ว่า "บิล" หมายถึงใบแจ้งหนี้กฎหมายที่เสนอหรือเป็ด
“ สิ่งเหล่านี้ดูฉลาดจริงๆ” มิทเชลกล่าวในเดือนนี้ในเดนเวอร์ในการประชุมประจำปีของสมาคมอเมริกันเพื่อความก้าวหน้าทางวิทยาศาสตร์
การมาถึงของ LLMS ได้ชักนำให้เกิดฮิสทีเรียมวลชนในหมู่ผู้เชี่ยวชาญบางคนในสาขาที่กังวลว่าดำเนินการ AMOK, LLMS สามารถเพิ่มการว่างงานของมนุษย์ทำลายอารยธรรมและนำคอลัมนิสต์นิตยสารออกจากธุรกิจ แต่ผู้เชี่ยวชาญคนอื่น ๆ ยืนยันว่าความกลัวดังกล่าวมีอยู่มากเกินไปอย่างน้อยก็ในตอนนี้
หัวใจสำคัญของการอภิปรายคือ LLMS เข้าใจสิ่งที่พวกเขาพูดและทำจริง ๆ แทนที่จะเป็นแค่ดูเหมือนจะ นักวิจัยบางคนแนะนำว่า LLMS เข้าใจสามารถให้เหตุผลเช่นคน (เรื่องใหญ่) หรือแม้กระทั่งบรรลุรูปแบบของจิตสำนึก แต่มิทเชลและคนอื่น ๆ ยืนยันว่า LLMS ยังไม่เข้าใจโลกจริงๆ (อย่างน้อยก็ไม่ได้อยู่ในแง่ใด ๆ ที่สอดคล้องกับความเข้าใจของมนุษย์)
“ ฉันคิดว่าสิ่งที่น่าทึ่งจริงๆเกี่ยวกับผู้คนคือเราสามารถสรุปแนวคิดของเราต่อสถานการณ์ใหม่ผ่านการเปรียบเทียบและอุปมาอุปมัย”
Melanie Mitchell
ในกระดาษใหม่โพสต์ออนไลน์ที่ arxiv.org, Mitchell และผู้เขียนร่วม Martha Lewis แห่งมหาวิทยาลัยบริสตอลในอังกฤษแสดงให้เห็นว่า LLMs ยังคงไม่ตรงกับมนุษย์ในความสามารถในการปรับทักษะให้เข้ากับสถานการณ์ใหม่ พิจารณาปัญหาสตริงตัวอักษรนี้: คุณเริ่มต้นด้วย ABCD และสตริงถัดไปคือ ABCE ถ้าคุณเริ่มต้นด้วย ijkl สตริงควรจะมาต่อไป?
มนุษย์มักจะพูดว่าสายที่สองควรจบลงด้วย m และทำเช่นนั้น พวกเขาได้รับการฝึกฝนมาอย่างดีเกี่ยวกับตัวอักษรภาษาอังกฤษ
แต่สมมติว่าคุณก่อให้เกิดปัญหาด้วยตัวอักษร“ counterfactual” ที่แตกต่างกันบางทีตัวอักษรเดียวกันในลำดับที่แตกต่างกันเช่น aucdefghijklmnopqrstb vwxy z หรือใช้สัญลักษณ์แทนตัวอักษร มนุษย์ยังคงดีมากในการแก้ปัญหาสตริงจดหมาย แต่มักจะล้มเหลว พวกเขาไม่สามารถสรุปแนวคิดที่ใช้กับตัวอักษรที่พวกเขารู้จักกับตัวอักษรอื่น
“ ในขณะที่มนุษย์มีประสิทธิภาพสูงทั้งปัญหาดั้งเดิมและต่อต้านการต่อต้านการทำงานของรุ่น GPT ทั้งหมดที่เราทดสอบลดลงในเวอร์ชันที่ไม่ค่อยดีขึ้น” Mitchell และ Lewis รายงานในบทความของพวกเขา
งานอื่น ๆ ที่คล้ายกันยังแสดงให้เห็นว่า LLMS ไม่ได้มีความสามารถในการดำเนินการอย่างแม่นยำในสถานการณ์ที่ไม่พบในการฝึกอบรม ดังนั้นมิตเชลล์ยืนยันว่าพวกเขาไม่ได้แสดงสิ่งที่มนุษย์มองว่าเป็น "ความเข้าใจ" ของโลก
“ การมีความน่าเชื่อถือและทำสิ่งที่ถูกต้องในสถานการณ์ใหม่คือในใจของฉันแกนหลักของความเข้าใจที่หมายถึงจริง” มิทเชลกล่าวในการประชุม AAAS
เธอกล่าวว่าความเข้าใจของมนุษย์นั้นขึ้นอยู่กับ“ แนวคิด” - โดยทั่วไปรูปแบบทางจิตของสิ่งต่าง ๆ เช่นหมวดหมู่สถานการณ์และเหตุการณ์ต่างๆ แนวคิดอนุญาตให้ผู้คนอนุมานสาเหตุและผลกระทบและทำนายผลลัพธ์ที่เป็นไปได้ของการกระทำที่แตกต่างกัน - แม้ในสถานการณ์ที่ไม่เคยพบมาก่อน
“ สิ่งที่น่าทึ่งเกี่ยวกับผู้คนฉันคิดว่าเราสามารถสรุปแนวคิดของเราต่อสถานการณ์ใหม่ผ่านการเปรียบเทียบและอุปมาอุปมัย” มิทเชลกล่าว
เธอไม่ปฏิเสธว่า AI อาจจะถึงระดับความเข้าใจที่ชาญฉลาดในระดับเดียวกัน แต่ความเข้าใจของเครื่องอาจแตกต่างจากความเข้าใจของมนุษย์ ไม่มีใครรู้ว่าเทคโนโลยีประเภทใดที่อาจบรรลุความเข้าใจนั้นและธรรมชาติของความเข้าใจดังกล่าวอาจเป็นอย่างไร
ถ้ามันกลายเป็นอะไรที่เหมือนกับความเข้าใจของมนุษย์มันอาจจะไม่ได้ขึ้นอยู่กับ LLM
ท้ายที่สุด LLMs เรียนรู้ไปในทิศทางตรงกันข้ามจากมนุษย์ LLMS เริ่มเรียนรู้ภาษาและพยายามที่จะแนวคิดที่เป็นนามธรรม ทารกมนุษย์เรียนรู้แนวคิดก่อนและต่อมาได้รับภาษาเพื่ออธิบายพวกเขา
LLMS กำลังทำมันย้อนหลัง กล่าวอีกนัยหนึ่งบางทีการอ่านอินเทอร์เน็ตอาจไม่ใช่กลยุทธ์ที่ถูกต้องสำหรับการรับสติปัญญาประดิษฐ์หรืออย่างอื่น