ปัญญาประดิษฐ์ (AI) หมายถึงเทคโนโลยีใด ๆ ที่แสดงแง่มุมของความฉลาดของมนุษย์และเป็นสาขาที่โดดเด่นในด้านวิทยาศาสตร์คอมพิวเตอร์มานานหลายทศวรรษ งาน AI สามารถรวมอะไรก็ได้ตั้งแต่การเลือกวัตถุในฉากภาพไปจนถึงการรู้วิธีการวางกรอบประโยคหรือแม้แต่ทำนายการเคลื่อนไหวของราคาหุ้น
นักวิทยาศาสตร์พยายามสร้าง AI ตั้งแต่รุ่งอรุณแห่งยุคคอมพิวเตอร์- ที่แนวทางชั้นนำสำหรับศตวรรษที่ผ่านมาส่วนใหญ่เกี่ยวข้องกับการสร้างฐานข้อมูลขนาดใหญ่ของข้อเท็จจริงและกฎและจากนั้นรับโปรแกรมคอมพิวเตอร์ที่ใช้ตรรกะเพื่อวาดสิ่งเหล่านี้เพื่อทำการตัดสินใจ แต่ศตวรรษนี้ได้เห็นการเปลี่ยนแปลงด้วยวิธีการใหม่ที่ทำให้คอมพิวเตอร์เรียนรู้ข้อเท็จจริงและกฎของตนเองโดยการวิเคราะห์ข้อมูล สิ่งนี้นำไปสู่ความก้าวหน้าที่สำคัญในสนาม
ในช่วงทศวรรษที่ผ่านมาเครื่องจักรได้แสดงความสามารถ "เหนือมนุษย์" ในทุกสิ่งพบมะเร็งเต้านมในภาพทางการแพทย์เพื่อเล่นเกมบอร์ดที่มีเล่ห์เหลี่ยมอย่างมีเล่ห์เหลี่ยมและไป- และแม้กระทั่งทำนายโครงสร้างของโปรตีน-
เนื่องจาก Chatbot Chatbot chatgpt รุ่นใหญ่ (LLM) chatgpฉันทามติที่เพิ่มขึ้นว่าเราจะอยู่ในจุดที่ทำซ้ำความฉลาดทั่วไปมากขึ้นคล้ายกับที่เห็นในมนุษย์ - รู้จักกันในชื่อหน่วยสืบราชการลับทั่วไป (AGI) “ มันไม่สามารถเน้นย้ำว่าการเปลี่ยนแปลงครั้งนี้เป็นอย่างไรสำหรับสนาม” Sara Hooker หัวหน้า Cohere For AI ซึ่งเป็นห้องปฏิบัติการวิจัยที่ไม่แสวงหาผลกำไรที่สร้างโดย บริษัท AI Cohere กล่าว
AI ทำงานอย่างไร?
ในขณะที่นักวิทยาศาสตร์สามารถใช้วิธีการหลายวิธีในการสร้างระบบ AI การเรียนรู้ของเครื่องจักรเป็นสิ่งที่ใช้กันอย่างแพร่หลายมากที่สุดในปัจจุบัน สิ่งนี้เกี่ยวข้องกับการใช้คอมพิวเตอร์วิเคราะห์ข้อมูลเพื่อระบุรูปแบบที่สามารถใช้ในการทำนาย
กระบวนการเรียนรู้ถูกควบคุมโดยอัลกอริทึม- ลำดับของคำแนะนำที่เขียนโดยมนุษย์ที่บอกคอมพิวเตอร์วิธีการวิเคราะห์ข้อมูล - และผลลัพธ์ของกระบวนการนี้เป็นแบบจำลองทางสถิติที่เข้ารหัสรูปแบบที่ค้นพบทั้งหมด สิ่งนี้สามารถป้อนด้วยข้อมูลใหม่เพื่อสร้างการคาดการณ์
มีอัลกอริทึมการเรียนรู้ของเครื่องหลายชนิด แต่มีอยู่ แต่เครือข่ายประสาทเป็นหนึ่งในผู้ที่ใช้กันอย่างแพร่หลายในปัจจุบัน นี่คือคอลเลกชันของอัลกอริทึมการเรียนรู้ของเครื่องสมองมนุษย์และพวกเขาเรียนรู้โดยการปรับความแข็งแกร่งของการเชื่อมต่อระหว่างเครือข่ายของ "เซลล์ประสาทเทียม" ขณะที่พวกเขาลากผ่านข้อมูลการฝึกอบรมของพวกเขา นี่คือสถาปัตยกรรมที่บริการ AI ที่ได้รับความนิยมมากที่สุดในปัจจุบันเช่นเครื่องกำเนิดข้อความและรูปภาพใช้
การวิจัยที่ทันสมัยที่สุดในปัจจุบันเกี่ยวข้องกับการเรียนรู้อย่างลึกซึ้งซึ่งหมายถึงการใช้เครือข่ายประสาทขนาดใหญ่มากกับเซลล์ประสาทเทียมหลายชั้น แนวคิดนี้มีมาตั้งแต่ปี 1980 - แต่ข้อมูลขนาดใหญ่และข้อกำหนดการคำนวณ จำกัด แอปพลิเคชัน จำกัด จากนั้นในปี 2012นักวิจัยค้นพบชิปคอมพิวเตอร์พิเศษที่รู้จักกันในชื่อหน่วยประมวลผลกราฟิก (GPU) เร่งการเรียนรู้อย่างลึกซึ้ง การเรียนรู้อย่างลึกซึ้งนับตั้งแต่เป็นมาตรฐานทองคำในการวิจัย
“ เครือข่ายประสาทลึกเป็นประเภทของการเรียนรู้ของเครื่องเกี่ยวกับสเตียรอยด์” Hooker กล่าว "พวกเขาเป็นทั้งรุ่นที่มีราคาแพงที่สุดในการคำนวณ แต่โดยทั่วไปแล้วยังมีขนาดใหญ่มีประสิทธิภาพและแสดงออก"
อย่างไรก็ตามเครือข่ายประสาททั้งหมดไม่เหมือนกันการกำหนดค่าที่แตกต่างกันหรือ "สถาปัตยกรรม" ตามที่ทราบว่าเหมาะสมกับงานที่แตกต่างกัน เครือข่ายประสาท Convolutional มีรูปแบบของการเชื่อมต่อที่ได้รับแรงบันดาลใจจากเยื่อหุ้มสมองภาพสัตว์และ Excel ในงานภาพ เครือข่ายประสาทที่เกิดขึ้นอีกซึ่งมีรูปแบบของหน่วยความจำภายในมีความเชี่ยวชาญในการประมวลผลข้อมูลตามลำดับ
อัลกอริทึมสามารถทำได้ได้รับการฝึกฝนแตกต่างกันขึ้นอยู่กับแอปพลิเคชัน วิธีการที่พบบ่อยที่สุดเรียกว่า "การเรียนรู้ภายใต้การดูแล" และเกี่ยวข้องกับมนุษย์ที่กำหนดฉลากให้กับข้อมูลแต่ละชิ้นเพื่อเป็นแนวทางในกระบวนการเรียนรู้รูปแบบ ตัวอย่างเช่นคุณจะเพิ่มฉลาก "แมว" ลงในรูปภาพของแมว
ใน "การเรียนรู้ที่ไม่ได้รับการดูแล" ข้อมูลการฝึกอบรมนั้นไม่มีป้ายกำกับและเครื่องจะต้องทำสิ่งต่าง ๆ ด้วยตัวเอง สิ่งนี้ต้องใช้ข้อมูลมากขึ้นและอาจเป็นเรื่องยากที่จะทำงาน - แต่เนื่องจากกระบวนการเรียนรู้ไม่ได้ถูก จำกัด โดยอคติของมนุษย์จึงสามารถนำไปสู่โมเดลที่สมบูรณ์และมีประสิทธิภาพยิ่งขึ้น การพัฒนาล่าสุดจำนวนมากใน LLM ได้ใช้วิธีการนี้
วิธีการฝึกอบรมที่สำคัญครั้งสุดท้ายคือ "การเรียนรู้เสริมแรง" ซึ่งช่วยให้ AI เรียนรู้โดยการลองผิดลองถูก สิ่งนี้ใช้กันมากที่สุดในการฝึกอบรมระบบ AI หรือหุ่นยนต์เล่นเกม-รวมถึงหุ่นยนต์มนุษย์เช่นรูปที่ 01หรือสิ่งเหล่านี้หุ่นยนต์ขนาดเล็กเล่นฟุตบอล- และเกี่ยวข้องกับการพยายามทำภารกิจซ้ำ ๆ และอัปเดตชุดของกฎภายในเพื่อตอบสนองต่อข้อเสนอแนะเชิงบวกหรือเชิงลบ วิธีการนี้ขับเคลื่อน Googleใจลึกโมเดลอัลฟาโกที่ทำลายพื้นดิน
AI Generative คืออะไร?
แม้จะมีการเรียนรู้อย่างลึกซึ้งในการให้คะแนนความสำเร็จครั้งสำคัญในช่วงทศวรรษที่ผ่านมา นี่เป็นหนึ่งในหลายระบบ AI ที่ใช้การเรียนรู้อย่างลึกซึ้งและเครือข่ายประสาทเพื่อสร้างเอาต์พุตตามอินพุตของผู้ใช้รวมถึงข้อความ-ภาพ-เสียงและแม้กระทั่งวิดีโอ-
เครื่องกำเนิดข้อความเช่น CHATGPT ทำงานโดยใช้ชุดย่อยของ AI ที่รู้จักกันในชื่อ"การประมวลผลภาษาธรรมชาติ"(NLP) การกำเนิดของความก้าวหน้านี้สามารถสืบย้อนไปถึงสถาปัตยกรรมการเรียนรู้เชิงลึกแบบใหม่ที่แนะนำโดยนักวิทยาศาสตร์ของ Googleในปี 2560เรียกว่า "หม้อแปลง"
อัลกอริทึมของหม้อแปลงมีความเชี่ยวชาญในการดำเนินการเรียนรู้ที่ไม่ได้รับการดูแลเกี่ยวกับคอลเลกชันขนาดใหญ่ของข้อมูลลำดับ - โดยเฉพาะอย่างยิ่งชิ้นขนาดใหญ่ของข้อความที่เขียน พวกเขาทำได้ดีในการทำเช่นนี้เพราะพวกเขาสามารถติดตามความสัมพันธ์ระหว่างจุดข้อมูลที่ห่างไกลได้ดีกว่าวิธีการก่อนหน้านี้ซึ่งช่วยให้พวกเขาเข้าใจบริบทของสิ่งที่พวกเขากำลังดูได้ดีขึ้น
“ สิ่งที่ฉันพูดบานพับต่อไปในสิ่งที่ฉันพูดก่อนหน้านี้ - ภาษาของเราเชื่อมต่อกันทันเวลา” Hooker กล่าว "นั่นเป็นหนึ่งในความก้าวหน้าที่สำคัญความสามารถในการมองเห็นคำเหล่านี้โดยรวม"
LLMS เรียนรู้โดยการปิดบังคำต่อไปในประโยคก่อนที่จะพยายามเดาว่ามันขึ้นอยู่กับสิ่งที่มาก่อน ข้อมูลการฝึกอบรมมีคำตอบอยู่แล้วดังนั้นวิธีการไม่จำเป็นต้องมีการติดฉลากของมนุษย์ทำให้เป็นไปได้ที่จะเพียงแค่ขูดข้อมูลรีมจากอินเทอร์เน็ตและป้อนเข้าไปในอัลกอริทึม Transformers ยังสามารถดำเนินการหลายกรณีของเกมการฝึกอบรมนี้ในแบบคู่ขนานซึ่งช่วยให้พวกเขาสามารถผ่านข้อมูลได้เร็วขึ้นมาก
ด้วยการฝึกอบรมเกี่ยวกับข้อมูลจำนวนมหาศาลหม้อแปลงสามารถสร้างรูปแบบภาษามนุษย์ที่ซับซ้อนอย่างยิ่ง - ดังนั้นชื่อเล่น "โมเดลภาษาขนาดใหญ่" พวกเขายังสามารถวิเคราะห์และสร้างข้อความที่ซับซ้อนและยาวคล้ายกับข้อความที่มนุษย์สามารถสร้างได้ ไม่ใช่แค่ภาษาที่ Transformers ปฏิวัติ สถาปัตยกรรมเดียวกันยังสามารถได้รับการฝึกฝนเกี่ยวกับข้อมูลข้อความและภาพในแบบคู่ขนานส่งผลให้แบบจำลองเช่นการแพร่กระจายที่เสถียรและ Dall-E ซึ่งสร้างภาพความละเอียดสูงจากคำอธิบายที่เขียนง่าย ๆ
Transformers ยังมีบทบาทสำคัญใน Google Deepmind'sAlphafold 2แบบจำลองซึ่งสามารถสร้างโครงสร้างโปรตีนจากลำดับของกรดอะมิโน ความสามารถในการผลิตข้อมูลดั้งเดิมแทนที่จะวิเคราะห์ข้อมูลที่มีอยู่เป็นเพียงเหตุผลว่าทำไมโมเดลเหล่านี้จึงเป็นที่รู้จักกันในชื่อ "Generative AI"
แคบ AI กับหน่วยสืบราชการลับทั่วไป (AGI): ความแตกต่างคืออะไร?
ผู้คนรู้สึกตื่นเต้นเกี่ยวกับ LLMs เนื่องจากความกว้างของงานที่พวกเขาสามารถแสดงได้ ระบบการเรียนรู้ของเครื่องส่วนใหญ่ได้รับการฝึกฝนเพื่อแก้ปัญหาเฉพาะเช่นการตรวจจับใบหน้าในฟีดวิดีโอหรือแปลจากภาษาหนึ่งไปยังอีกภาษาหนึ่ง แบบจำลองเหล่านี้เรียกว่า "AI แคบ" เพราะพวกเขาสามารถจัดการกับงานเฉพาะที่พวกเขาได้รับการฝึกฝน
ระบบการเรียนรู้ของเครื่องส่วนใหญ่ได้รับการฝึกฝนให้แก้ปัญหาเฉพาะ - เช่นการตรวจจับใบหน้าในฟีดวิดีโอหรือแปลจากภาษาหนึ่งไปยังอีกภาษาหนึ่ง - ไปสู่ระดับเหนือมนุษย์ในการที่พวกเขาเร็วกว่าและทำงานได้ดีกว่ามนุษย์ แต่ LLMS เช่น CHATGPT แสดงถึงการเปลี่ยนแปลงขั้นตอนในความสามารถของ AI เนื่องจากรุ่นเดียวสามารถทำงานได้หลากหลาย พวกเขาสามารถตอบคำถามเกี่ยวกับหัวข้อที่หลากหลายสรุปเอกสารแปลระหว่างภาษาและรหัสเขียน
ความสามารถในการสรุปสิ่งที่พวกเขาได้เรียนรู้ที่จะแก้ปัญหาที่แตกต่างกันมากมายนำไปสู่การเก็งกำไรLLMs อาจเป็นก้าวไปสู่ AGI รวมถึงนักวิทยาศาสตร์ DeepMind ในบทความที่ตีพิมพ์เมื่อปีที่แล้ว agi หมายถึงกAI ในอนาคตสมมุติความสามารถในการเรียนรู้งานเกี่ยวกับความรู้ความเข้าใจใด ๆ ที่มนุษย์สามารถให้เหตุผลอย่างเป็นนามธรรมเกี่ยวกับปัญหาและปรับตัวเข้ากับสถานการณ์ใหม่โดยไม่ต้องฝึกอบรมเฉพาะ
ผู้ที่ชื่นชอบ AI คาดการณ์ว่า AGI จะประสบความสำเร็จแล้วความก้าวหน้าทางเทคโนโลยีจะเร่งความเร็วอย่างรวดเร็ว - จุดผันที่รู้จักกันในชื่อ "ความเป็นเอกเทศ" หลังจากนั้นการพัฒนาจะได้รับการตระหนักถึงแบบทวีคูณ นอกจากนี้ยังมีรับรู้ถึงความเสี่ยงที่มีอยู่ตั้งแต่ตลาดเศรษฐกิจและแรงงานขนาดใหญ่หยุดชะงักไปจนถึงศักยภาพของ AI ที่จะค้นพบเชื้อโรคหรืออาวุธใหม่
แต่ยังคงมีการถกเถียงกันว่า LLMS จะเป็นสารตั้งต้นของ AGI หรือเพียงแค่สถาปัตยกรรมเดียวในกเครือข่ายที่กว้างขึ้นหรือระบบนิเวศของสถาปัตยกรรม AIที่จำเป็นสำหรับ AGI บางคนบอกว่า LLMs อยู่ห่างจากการจำลองแบบหลายไมล์การใช้เหตุผลของมนุษย์และความสามารถทางปัญญา ตามที่ผู้ว่าจดจำข้อมูลจำนวนมหาศาลซึ่งพวกเขารวมตัวกันใหม่ในรูปแบบที่ให้ความประทับใจที่ผิดพลาดจากความเข้าใจที่ลึกซึ้งยิ่งขึ้น หมายความว่าพวกเขาถูก จำกัด ด้วยข้อมูลการฝึกอบรมและไม่แตกต่างจากเครื่องมือ AI แคบ ๆ อื่น ๆ
อย่างไรก็ตามมันเป็น LLM บางอย่างที่แสดงถึงการเปลี่ยนแปลงของแผ่นดินไหวในวิธีที่นักวิทยาศาสตร์เข้าใกล้การพัฒนา AI Hooker กล่าว แทนที่จะเป็นรูปแบบการฝึกอบรมเกี่ยวกับงานที่เฉพาะเจาะจงการวิจัยที่ทันสมัยในขณะนี้ใช้แบบจำลองที่ผ่านการฝึกอบรมมาก่อนและมีความสามารถโดยทั่วไปและปรับให้เข้ากับกรณีการใช้งานเฉพาะ สิ่งนี้ทำให้พวกเขาถูกเรียกว่า "โมเดลพื้นฐาน"
“ ผู้คนกำลังย้ายจากรุ่นพิเศษที่ทำสิ่งเดียวกับโมเดลพื้นฐานซึ่งทำทุกอย่าง” Hooker กล่าวเสริม "พวกเขาเป็นนางแบบที่ทุกอย่างถูกสร้างขึ้น"
AI ใช้อย่างไรในโลกแห่งความเป็นจริง?
เทคโนโลยีเช่นการเรียนรู้ของเครื่องมีอยู่ทั่วไป อัลกอริทึมคำแนะนำที่ขับเคลื่อนด้วย AI ตัดสินใจว่าคุณดูอะไรใน Netflix หรือ YouTube-ในขณะที่รูปแบบการแปลทำให้สามารถแปลงเว็บเพจจากภาษาต่างประเทศเป็นของคุณเองได้ทันที ธนาคารของคุณอาจใช้โมเดล AI เพื่อตรวจจับกิจกรรมที่ผิดปกติในบัญชีของคุณซึ่งอาจแนะนำการฉ้อโกงและกล้องวงจรปิดและรถยนต์ที่ขับเคลื่อนด้วยตนเองใช้แบบจำลองการมองเห็นคอมพิวเตอร์เพื่อระบุผู้คนและวัตถุจากฟีดวิดีโอ
แต่เครื่องมือและบริการ AI ที่เกิดขึ้นได้เริ่มคืบคลานเข้าสู่โลกแห่งความเป็นจริงนอกเหนือจากแชทบอทแปลกใหม่เช่น Chatgpt นักพัฒนา AI ที่สำคัญส่วนใหญ่ตอนนี้มี chatbot ที่สามารถตอบคำถามของผู้ใช้ในหัวข้อต่าง ๆ วิเคราะห์และสรุปเอกสารและแปลระหว่างภาษา โมเดลเหล่านี้ยังถูกรวมเข้ากับเครื่องมือค้นหาเช่นราศีเมถุนเข้าสู่การค้นหาของ Google-และ บริษัท ต่างๆกำลังสร้างผู้ช่วยดิจิตอล AI ที่ช่วยให้โปรแกรมเมอร์เขียนรหัสเช่นGitHub Copilot- พวกเขายังสามารถเป็นเครื่องมือเพิ่มประสิทธิภาพสำหรับผู้ที่ใช้โปรแกรมประมวลผลคำหรือลูกค้าอีเมล
เครื่องมือ AI สไตล์แชทบอทเป็นบริการ AI ที่พบได้บ่อยที่สุด แต่ถึงแม้จะมีประสิทธิภาพที่น่าประทับใจ LLM ก็ยังห่างไกลจากความสมบูรณ์แบบ พวกเขาคาดเดาทางสถิติเกี่ยวกับคำที่ควรทำตามพรอมต์โดยเฉพาะ แม้ว่าพวกเขามักจะให้ผลลัพธ์ที่บ่งบอกถึงความเข้าใจ แต่พวกเขายังสามารถสร้างคำตอบที่น่าเชื่อถือ แต่ผิด - ที่รู้จักกันในชื่อ "ภาพหลอน-
ในขณะที่ AI Generative กำลังกลายเป็นเรื่องธรรมดามากขึ้น แต่ก็ยังห่างไกลจากที่ชัดเจนว่าเครื่องมือเหล่านี้จะพิสูจน์ได้ว่ามีประโยชน์มากที่สุดอย่างไร และด้วยวิธีการใหม่ของเทคโนโลยีมีเหตุผลที่จะต้องระมัดระวังเกี่ยวกับความรวดเร็วของการเปิดตัว Hooker กล่าว “ มันผิดปกติมากสำหรับบางสิ่งบางอย่างที่จะอยู่ที่ชายแดนของความเป็นไปได้ทางเทคนิค แต่ในเวลาเดียวกันนำไปใช้อย่างกว้างขวาง” เธอกล่าวเสริม "นั่นนำมาซึ่งความเสี่ยงและความท้าทายของตัวเอง"