หนอนตัวเล็ก ๆCaenorhabditis elegansมีสมองเกี่ยวกับความกว้างของเส้นผมมนุษย์ ทว่าอวัยวะที่มีบิตตี้ของสัตว์นี้มีพิกัดและคำนวณการเคลื่อนไหวที่ซับซ้อนเป็นหนอนหาอาหารสำหรับอาหาร “ เมื่อฉันดู [C. elegans] และพิจารณาสมองของมันฉันรู้สึกประทับใจกับความสง่างามและประสิทธิภาพที่ลึกซึ้ง” Daniela Rus นักวิทยาศาสตร์คอมพิวเตอร์ของ MIT กล่าว รุสหลงใหลในสมองของหนอนจนเธอได้ร่วมก่อตั้ง บริษัท Liquid AI เพื่อสร้างปัญญาประดิษฐ์รูปแบบใหม่ที่ได้รับแรงบันดาลใจจากมัน
รุสเป็นส่วนหนึ่งของคลื่นของนักวิจัยที่คิดว่าการทำให้ AI แบบดั้งเดิมมีลักษณะเหมือนสมองมากขึ้นสามารถสร้างเทคโนโลยีที่ผอมเพรียวและอาจฉลาดขึ้น “ เพื่อปรับปรุง AI อย่างแท้จริงเราจำเป็นต้อง…รวมข้อมูลเชิงลึกจากประสาทวิทยาศาสตร์” Kanaka Rajan นักประสาทวิทยาเชิงคอมพิวเตอร์ที่มหาวิทยาลัยฮาร์วาร์ดกล่าว
เช่นอาจจะไม่แทนที่คอมพิวเตอร์ทั่วไปหรือโมเดล AI แบบดั้งเดิมอย่างสมบูรณ์ Mike Davies ผู้กำกับห้องปฏิบัติการคอมพิวเตอร์ Neuromorphic ที่ Intel ในซานตาคลาร่ารัฐแคลิฟอร์เนียเขาเห็นอนาคตที่ระบบหลายประเภทอยู่ร่วมกัน

การเลียนแบบสมองไม่ใช่ความคิดใหม่ ในปี 1950 นักประสาทวิทยา Frank Rosenblatt คิดค้นขึ้น- เครื่องจักรเป็นแบบจำลองที่ง่ายขึ้นอย่างมากของวิธีที่เซลล์ประสาทของสมองสื่อสารกับเซลล์ประสาทเทียมที่เชื่อมต่อกันชั้นเดียวแต่ละชั้นทำหน้าที่ทางคณิตศาสตร์เดียว
ทศวรรษต่อมาการออกแบบขั้นพื้นฐานของ Perceptron ช่วยสร้างแรงบันดาลใจให้กับการเรียนรู้อย่างลึกล้ำเทคนิคการคำนวณที่ตระหนักถึงรูปแบบที่ซับซ้อนในข้อมูลโดยใช้เลเยอร์บนชั้นของเซลล์ประสาทเทียมซ้อน เซลล์ประสาทเหล่านี้ส่งผ่านข้อมูลอินพุตไปพร้อมกันเพื่อสร้างเอาต์พุต แต่วิธีการนี้ไม่สามารถจับคู่ความสามารถของสมองในการปรับตัวให้เข้ากับสถานการณ์ใหม่หรือเรียนรู้จากประสบการณ์เดียว แต่โมเดล AI ส่วนใหญ่ในปัจจุบันจะกินข้อมูลและพลังงานจำนวนมากเพื่อเรียนรู้ที่จะทำงานที่น่าประทับใจเช่นการชี้นำรถยนต์ที่ขับเคลื่อนด้วยตนเอง
“ มันใหญ่กว่าใหญ่กว่าและใหญ่กว่า” Subutai Ahmad ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของ Numenta ซึ่งเป็น บริษัท ที่มองหาเครือข่ายสมองมนุษย์เพื่อประสิทธิภาพ โมเดล AI แบบดั้งเดิมนั้น“ กำลังดุร้ายและไม่มีประสิทธิภาพ”
ในเดือนมกราคมการบริหารของทรัมป์ประกาศ Stargate ซึ่งเป็นแผนการที่จะรับเงิน 500 พันล้านดอลลาร์ในศูนย์ข้อมูลใหม่เพื่อสนับสนุนโมเดล AI ที่หิวโหยพลังงาน แต่แบบจำลองที่ออกโดย บริษัท จีน Deepseek กำลังทำเทรนด์นั้นความสามารถของ Chatbots ที่ทำซ้ำด้วยข้อมูลและพลังงานที่น้อยลง ไม่ว่าจะเป็นกำลังเดรัจฉานหรือประสิทธิภาพที่จะชนะนั้นไม่ชัดเจน
ในขณะเดียวกันผู้เชี่ยวชาญด้านคอมพิวเตอร์ของ Neuromorphic ได้สร้างฮาร์ดแวร์สถาปัตยกรรมและอัลกอริธึมที่มีความคิดในสมองมากขึ้น “ ผู้คนกำลังนำเสนอแนวคิดใหม่ ๆ และการใช้งานฮาร์ดแวร์ใหม่ตลอดเวลา” แคทเธอรีนชูแมนนักวิทยาศาสตร์คอมพิวเตอร์จากมหาวิทยาลัยเทนเนสซี, Knoxville กล่าว ความก้าวหน้าเหล่านี้ส่วนใหญ่ช่วยในการวิจัยสมองและการพัฒนาเซ็นเซอร์และยังไม่ได้เป็นส่วนหนึ่งของ AI กระแสหลัก อย่างน้อยก็ยังไม่ได้
นี่คือระบบ neuromorphic สี่ระบบที่มีศักยภาพในการปรับปรุง AI
ทำให้เซลล์ประสาทเทียมมีชีวิตมากขึ้น
มีหลายส่วน พวกเขาจะได้รับสัญญาณจากสิ่งแวดล้อมอย่างต่อเนื่องโดยมีประจุไฟฟ้าของพวกเขาผันผวนจนกว่าจะข้ามเกณฑ์และไฟที่เฉพาะเจาะจง กิจกรรมนี้ส่งแรงกระตุ้นไฟฟ้าข้ามเซลล์และเซลล์ประสาทที่อยู่ใกล้เคียง วิศวกรคอมพิวเตอร์ของ Neuromorphic ได้จัดการเลียนแบบรูปแบบนี้ในเซลล์ประสาทเทียม เซลล์ประสาทเหล่านี้ซึ่งเป็นส่วนหนึ่งของเครือข่ายประสาทแบบ spiking จำลองสัญญาณของสมองจริงสร้าง spikes แบบไม่ต่อเนื่องที่นำข้อมูลผ่านเครือข่าย เครือข่ายดังกล่าวอาจถูกสร้างแบบจำลองในซอฟต์แวร์หรือฮาร์ดแวร์ที่สร้างขึ้น
Spikes ไม่ได้สร้างแบบจำลองในเครือข่ายการเรียนรู้เชิงลึกของ AI แบบดั้งเดิม ในแบบจำลองเหล่านั้นแต่ละเซลล์ประสาทเทียมแต่ละตัวคือ“ ลูกบอลเล็ก ๆ ที่มีการประมวลผลข้อมูลประเภทหนึ่ง” Mihai Petrovici นักวิจัยด้านคอมพิวเตอร์ของ Neuromorphic ที่มหาวิทยาลัยเบิร์นในสวิตเซอร์แลนด์กล่าว แต่ละ“ ลูกบอลเล็ก ๆ ” เหล่านี้เชื่อมโยงกับคนอื่น ๆ ผ่านการเชื่อมต่อที่เรียกว่าพารามิเตอร์ โดยปกติแล้วอินพุตทุกครั้งในเครือข่ายจะกระตุ้นให้พารามิเตอร์ทุกพารามิเตอร์เปิดใช้งานในครั้งเดียวซึ่งไม่มีประสิทธิภาพ Deepseek แบ่งเครือข่ายการเรียนรู้ลึกของ AI ดั้งเดิมออกเป็นส่วนเล็ก ๆ ที่สามารถเปิดใช้งานแยกกันซึ่งมีประสิทธิภาพมากขึ้น
แต่สมองที่แท้จริงและเครือข่าย spiking เทียมบรรลุประสิทธิภาพแตกต่างกันเล็กน้อย แต่ละเซลล์ประสาทไม่ได้เชื่อมต่อกับเซลล์อื่น ๆ นอกจากนี้เฉพาะในกรณีที่สัญญาณไฟฟ้าถึงเกณฑ์เฉพาะจะทำไฟเซลล์ประสาทและส่งข้อมูลไปยังการเชื่อมต่อ เครือข่ายเปิดใช้งานกระจัดกระจายมากกว่าทั้งหมดในครั้งเดียว
การเปรียบเทียบเครือข่าย
เครือข่ายการเรียนรู้เชิงลึกทั่วไปมีความหนาแน่นสูงโดยมีการเชื่อมต่อระหว่างกันระหว่าง "เซลล์ประสาท" ที่เหมือนกันทั้งหมด เครือข่ายสมองนั้นกระจัดกระจายและเซลล์ประสาทของพวกเขาสามารถรับบทบาทที่แตกต่างกันได้ นักประสาทวิทยายังคงใช้งานได้ว่าเครือข่ายสมองที่ซับซ้อนมีการจัดระเบียบจริงอย่างไร

ที่สำคัญสมองและเครือข่าย spiking รวมหน่วยความจำและการประมวลผล การเชื่อมต่อ“ ที่เป็นตัวแทนของหน่วยความจำยังเป็นองค์ประกอบที่ทำการคำนวณด้วย” Petrovici กล่าว ฮาร์ดแวร์คอมพิวเตอร์กระแสหลัก - ซึ่งทำงาน AI ส่วนใหญ่ - แยกหน่วยความจำและการประมวลผล การประมวลผล AI มักจะเกิดขึ้นในหน่วยประมวลผลกราฟิกหรือ GPU ส่วนประกอบฮาร์ดแวร์ที่แตกต่างกันเช่นหน่วยความจำการเข้าถึงแบบสุ่มหรือ RAM จัดการกับที่เก็บข้อมูล สิ่งนี้ทำให้สถาปัตยกรรมคอมพิวเตอร์ง่ายขึ้น แต่การซิปข้อมูลไปมาระหว่างส่วนประกอบเหล่านี้จะทำให้พลังงานเพิ่มขึ้นและทำให้การคำนวณช้าลง
ชิปคอมพิวเตอร์ NeuromorphicBrainscales-2 ผสมผสานคุณสมบัติที่มีประสิทธิภาพเหล่านี้- มันมีเซลล์ประสาทที่เชื่อมต่ออย่างเบาบางที่สร้างขึ้นในฮาร์ดแวร์และการเชื่อมต่อระบบประสาทเก็บความทรงจำและทำการคำนวณ
Brainscales-2 ได้รับการพัฒนาเป็นส่วนหนึ่งของโครงการสมองมนุษย์ความพยายาม 10 ปีในการทำความเข้าใจสมองมนุษย์โดยการสร้างแบบจำลองในคอมพิวเตอร์ แต่นักวิจัยบางคนดูว่าเทคโนโลยีที่พัฒนาจากโครงการอาจทำให้ AI มีประสิทธิภาพมากขึ้นอย่างไร ตัวอย่างเช่น Petrovici ฝึก AIs ที่แตกต่างกันเพื่อเล่นวิดีโอเกม“ Pong” เครือข่าย spiking ที่ทำงานบนฮาร์ดแวร์ Brainscales-2 ใช้พลังงานหนึ่งพันของพลังงานเป็นการจำลองเครือข่ายเดียวกันที่ทำงานบน CPU แต่การทดสอบที่แท้จริงคือการเปรียบเทียบการตั้งค่า neuromorphic กับเครือข่ายการเรียนรู้เชิงลึกที่ทำงานบน GPU การฝึกอบรมระบบ spiking เพื่อรับรู้การเขียนด้วยลายมือใช้พลังงานหนึ่งร้อยพลังงานของระบบทั่วไปทีมพบ
สำหรับฮาร์ดแวร์เครือข่ายประสาทที่จะเป็นผู้เล่นตัวจริงใน AI Realm จะต้องมีการปรับขนาดและกระจาย จากนั้นอาจเป็น“ มีประโยชน์ในการคำนวณในวงกว้างมากขึ้น” Schuman กล่าว
การเชื่อมต่อเซลล์ประสาท spiking หลายพันล้าน
ทีมวิชาการที่ทำงานเกี่ยวกับ Brainscales-2 ไม่มีแผนที่จะขยายชิป แต่ บริษัท เทคโนโลยีที่ใหญ่ที่สุดในโลกบางแห่งเช่น Intel และ IBM ทำ
ในปี 2023 IBM ได้แนะนำมันชิป Northpole Neuromorphicซึ่งรวมหน่วยความจำและการประมวลผลเพื่อประหยัดพลังงาน และในปี 2024 Intel ประกาศเปิดตัว Hala Point“ ระบบประสาทที่ใหญ่ที่สุดในโลกในขณะนี้” นักวิทยาศาสตร์คอมพิวเตอร์ Craig Vineyard จาก Sandia National Laboratories ในนิวเม็กซิโกกล่าว
แม้จะมียอดเยี่ยมที่น่าประทับใจ แต่ก็ไม่มีอะไรเกี่ยวกับระบบที่โดดเด่นด้วยสายตา Vineyard กล่าว Hala Point พอดีกับกล่องขนาดกระเป๋า แต่มันมีชิป Neuromorphic ของ Intel 1,152 แห่งสำหรับเซลล์ประสาทอิเล็กทรอนิกส์ทั้งหมด 1.15 พันล้านเซลล์-จำนวนเซลล์ประสาทที่มีจำนวนเท่ากันในสมองนกฮูก
เช่นเดียวกับ Brainscales-2 ชิป Loihi 2 แต่ละตัวมีรุ่นฮาร์ดแวร์ของเครือข่ายประสาท spiking เครือข่ายทางกายภาพยังใช้ Sparsity และรวมหน่วยความจำและการประมวลผล คอมพิวเตอร์ neuromorphic นี้มี“ ลักษณะการคำนวณที่แตกต่างกันโดยพื้นฐาน” กว่าเครื่องดิจิตอลทั่วไป Schuman กล่าว

คุณสมบัติเหล่านี้ปรับปรุงประสิทธิภาพของ Hala Point เมื่อเทียบกับฮาร์ดแวร์คอมพิวเตอร์ทั่วไป “ ประสิทธิภาพที่เราได้รับนั้นมีความสำคัญเกินกว่าที่คุณจะทำได้ด้วยเทคโนโลยี GPU” เดวีส์กล่าว
ในปี 2024 เดวีส์และทีมนักวิจัยแสดงให้เห็นว่าฮาร์ดแวร์ Loihi 2 สามารถประหยัดพลังงานได้แม้ในขณะที่ใช้อัลกอริทึมการเรียนรู้เชิงลึกทั่วไป นักวิจัยใช้งานการประมวลผลเสียงและวิดีโอหลายอย่างและปรับเปลี่ยนอัลกอริทึมการเรียนรู้อย่างลึกซึ้งเพื่อให้พวกเขาสามารถทำงานบนฮาร์ดแวร์ Spiking ใหม่ได้ กระบวนการนี้“ แนะนำ Sparsity ในกิจกรรมของเครือข่าย” Davies กล่าว
เครือข่ายการเรียนรู้เชิงลึกที่ทำงานบนคอมพิวเตอร์ดิจิตอลทั่วไปจะประมวลผลทุกเฟรมของเสียงหรือวิดีโอเป็นสิ่งใหม่อย่างสมบูรณ์ แต่ฮาร์ดแวร์ Spiking ยังคงรักษา“ ความรู้บางอย่างเกี่ยวกับสิ่งที่เห็นมาก่อน” เดวีส์กล่าว เมื่อส่วนหนึ่งของสตรีมเสียงหรือวิดีโอยังคงเหมือนเดิมจากเฟรมหนึ่งไปยังอีกเฟรมถัดไประบบไม่จำเป็นต้องเริ่มต้นใหม่จากศูนย์ มันสามารถ“ ทำให้เครือข่ายไม่ได้ใช้งานมากที่สุดเท่าที่จะเป็นไปได้เมื่อไม่มีอะไรน่าสนใจเปลี่ยนแปลง” ในงานวิดีโอหนึ่งทีมทดสอบแล้วชิป Loihi 2 ที่ใช้อัลกอริทึมการเรียนรู้เชิงลึกเวอร์ชัน“ sparsified”ใช้พลังงาน 1/150thของ GPU ที่ใช้อัลกอริทึมเวอร์ชันปกติ
การทดสอบเสียงและวิดีโอแสดงให้เห็นว่าสถาปัตยกรรมประเภทหนึ่งสามารถทำงานได้ดีในการใช้อัลกอริทึมการเรียนรู้อย่างลึกซึ้ง แต่นักพัฒนาสามารถกำหนดค่าเครือข่ายประสาทเทียมใหม่ภายใน Loihi 2 และ Brainscales-2 ได้หลายวิธีโดยมาพร้อมกับสถาปัตยกรรมใหม่ที่ใช้ฮาร์ดแวร์แตกต่างกัน พวกเขายังสามารถใช้อัลกอริทึมประเภทต่าง ๆ โดยใช้สถาปัตยกรรมเหล่านี้
ยังไม่ชัดเจนว่าอัลกอริทึมและสถาปัตยกรรมจะใช้ประโยชน์จากฮาร์ดแวร์นี้ได้ดีที่สุดหรือให้การประหยัดพลังงานสูงสุด แต่นักวิจัยกำลังคืบหน้า มีการแนะนำกระดาษมกราคม 2025วิธีใหม่ในการจำลองเซลล์ประสาทในเครือข่าย spikingรวมถึงรูปร่างของสไปค์และเวลา วิธีการนี้ทำให้ระบบ Spiking ประหยัดพลังงานใช้เทคนิคการเรียนรู้อย่างใดอย่างหนึ่งที่ทำให้ AI หลักประสบความสำเร็จอย่างมาก
ฮาร์ดแวร์ Neuromorphic อาจเหมาะที่สุดสำหรับอัลกอริทึมที่ยังไม่ได้คิดค้น “ นั่นเป็นสิ่งที่น่าตื่นเต้นที่สุด” เจมส์แอมโนนนักประสาทวิทยาของ Sandia National Labs กล่าว เทคโนโลยีมีศักยภาพมากมายเขากล่าว มันสามารถทำให้อนาคตของการคำนวณ“ ประหยัดพลังงานและมีความสามารถมากขึ้น”
การออกแบบ 'สมอง' ที่ปรับตัวได้
นักประสาทวิทยายอมรับว่าหนึ่งในคุณสมบัติที่สำคัญที่สุดของสมองที่มีชีวิตคือความสามารถในการเรียนรู้ในระหว่างการเดินทาง และไม่ต้องใช้สมองขนาดใหญ่ในการทำเช่นนี้C. elegansหนึ่งในสัตว์ตัวแรกที่มีการแมปสมองอย่างสมบูรณ์มีเซลล์ประสาท 302 เซลล์และประมาณ 7,000 synapses ที่ช่วยให้มันเรียนรู้อย่างต่อเนื่องและมีประสิทธิภาพในขณะที่มันสำรวจโลกของมัน
Ramin Hasani ศึกษาวิธีการC. elegansเรียนรู้เป็นส่วนหนึ่งของงานบัณฑิตของเขาในปี 2560 และกำลังทำงานเพื่อจำลองสิ่งที่นักวิทยาศาสตร์รู้เกี่ยวกับสมองของหนอนในซอฟต์แวร์คอมพิวเตอร์ รุสค้นพบเกี่ยวกับงานนี้ขณะออกไปทำงานกับที่ปรึกษาของ Hasani ในการประชุมวิชาการ ในเวลานั้นเธอได้ฝึกอบรมแบบจำลอง AI ด้วยเซลล์ประสาทเทียมหลายแสนตัวและพารามิเตอร์ครึ่งล้านเพื่อใช้งานรถยนต์ที่ขับเคลื่อนด้วยตนเอง

หากหนอนไม่ต้องการเครือข่ายขนาดใหญ่ที่จะเรียนรู้รุสก็รู้ตัวบางทีโมเดล AI อาจทำกับรุ่นที่เล็กกว่าได้เช่นกัน
เธอเชิญ Hasani และเพื่อนร่วมงานคนหนึ่งของเขาให้ย้ายไปที่ MIT นักวิจัยร่วมกันทำงานในชุดของโครงการเพื่อให้รถยนต์ขับรถและโดรน“ สมอง” เหมือนหนอนมากขึ้นซึ่งเป็นโครงการที่เล็กและปรับตัวได้ ผลลัพธ์ที่ได้คืออัลกอริทึม AI ที่ทีมเรียกว่าเครือข่ายประสาทเหลว
“ คุณสามารถนึกถึงสิ่งนี้เหมือนรสชาติใหม่ของ AI” ราจันนักประสาทวิทยาฮาร์วาร์ดกล่าว
เครือข่ายการเรียนรู้เชิงลึกมาตรฐานแม้จะมีขนาดที่น่าประทับใจ แต่ก็เรียนรู้เฉพาะในช่วงการฝึกอบรมของการพัฒนา เมื่อการฝึกอบรมเสร็จสมบูรณ์พารามิเตอร์ของเครือข่ายจะไม่สามารถเปลี่ยนแปลงได้ “ โมเดลยังคงแช่แข็ง” รุสกล่าว เครือข่ายประสาทเหลวตามชื่อที่แนะนำนั้นเป็นของเหลวมากขึ้น แม้ว่าพวกเขาจะรวมเทคนิคเดียวกันกับการเรียนรู้อย่างลึกซึ้งมาตรฐาน แต่เครือข่ายใหม่เหล่านี้สามารถเปลี่ยนและเปลี่ยนพารามิเตอร์ของพวกเขาได้ตลอดเวลา รุสบอกว่าพวกเขา“ เรียนรู้และปรับตัว…ตามปัจจัยที่พวกเขาเห็นเหมือนระบบชีวภาพ”
ในการออกแบบอัลกอริทึมใหม่นี้ Hasani และทีมงานของเขาได้เขียนสมการทางคณิตศาสตร์ที่เลียนแบบว่าเซลล์ประสาทของหนอนเปิดใช้งานเพื่อตอบสนองต่อข้อมูลที่เปลี่ยนแปลงตลอดเวลา สมการเหล่านี้ควบคุมพฤติกรรมของเครือข่ายประสาทเหลว
สมการดังกล่าวเป็นเรื่องยากที่จะแก้ไขได้ แต่ทีมพบวิธีที่จะโดยประมาณโซลูชันทำให้เป็นไปได้ที่จะเรียกใช้เครือข่ายแบบเรียลไทม์ วิธีแก้ปัญหานี้“ น่าทึ่ง” Rajan กล่าว
ในปี 2023 RUS, Hasani และเพื่อนร่วมงานของพวกเขาแสดงให้เห็นว่าเครือข่ายประสาทเหลวสามารถทำได้ปรับให้เข้ากับสถานการณ์ใหม่ได้ดีกว่ารุ่น AI ทั่วไปที่มีขนาดใหญ่กว่ามากทีมฝึกอบรมเครือข่ายประสาทเหลวสองประเภทและเครือข่ายการเรียนรู้เชิงลึกทั่วไปสี่ประเภทเพื่อนำร่องเสียงพึมพำไปยังวัตถุต่าง ๆ ในป่า เมื่อการฝึกอบรมเสร็จสมบูรณ์พวกเขาวางหนึ่งในวัตถุการฝึกอบรม - เก้าอี้สีแดง - ในสภาพแวดล้อมที่แตกต่างกันอย่างสิ้นเชิงรวมถึงลานและสนามหญ้าข้างอาคาร เครือข่ายของเหลวที่เล็กที่สุดที่มีเซลล์ประสาทเทียมเพียง 34 ตัวและพารามิเตอร์ประมาณ 12,000 ตัวมีประสิทธิภาพสูงกว่าเครือข่าย AI มาตรฐานที่ใหญ่ที่สุดที่พวกเขาทดสอบซึ่งมีพารามิเตอร์ประมาณ 250,000 พารามิเตอร์
ทีมเริ่มต้น บริษัท Liquid AI ในเวลาเดียวกันและได้ทำงานร่วมกับหน่วยงานโครงการวิจัยขั้นสูงของกองทัพสหรัฐฯเพื่อทดสอบแบบจำลองการบินของพวกเขาเครื่องบินจริง
บริษัท ยังได้ปรับขนาดแบบจำลองเพื่อแข่งขันโดยตรงกับการเรียนรู้อย่างลึกซึ้งเป็นประจำ ในเดือนมกราคมได้ประกาศ LFM-7B ซึ่งเป็นเครือข่ายนิวรัลเหลว 7 พันล้านพารามิเตอร์ที่สร้างคำตอบสำหรับการแจ้งเตือน ทีมรายงานว่าเครือข่ายมีประสิทธิภาพสูงกว่าแบบจำลองภาษาทั่วไปที่มีขนาดเท่ากัน
“ ฉันตื่นเต้นกับ Liquid AI เพราะฉันเชื่อว่ามันสามารถเปลี่ยนอนาคตของ AI และคอมพิวเตอร์ได้” Rus กล่าว
วิธีการนี้ไม่จำเป็นต้องใช้พลังงานน้อยกว่า AI กระแสหลัก การปรับตัวอย่างต่อเนื่องทำให้มัน“ เข้มข้นในการคำนวณ” Rajan กล่าว แต่วิธีการ“ แสดงให้เห็นถึงขั้นตอนสำคัญต่อ AI ที่สมจริงยิ่งขึ้น” ที่เลียนแบบสมองอย่างใกล้ชิดยิ่งขึ้น

การสร้างโครงสร้างสมองของมนุษย์
ในขณะที่รุสกำลังทำงานกับพิมพ์เขียวของสมองหนอนคนอื่น ๆ กำลังได้รับแรงบันดาลใจจากภูมิภาคที่เฉพาะเจาะจงของสมองมนุษย์ - Neocortex แผ่นเนื้อเยื่อที่ย่นย่นที่ครอบคลุมพื้นผิวของสมอง
“ Neocortex เป็นโรงไฟฟ้าของสมองสำหรับการคิดที่สูงขึ้น” Rajan กล่าว “ มันเป็นที่ข้อมูลทางประสาทสัมผัสการตัดสินใจและการให้เหตุผลเชิงนามธรรมมาบรรจบกัน”
ส่วนนี้ของสมองมีเซลล์แนวนอนบาง ๆ หกชั้นซึ่งจัดเป็นโครงสร้างแนวตั้งหลายหมื่นเส้นที่เรียกว่าเสาเยื่อหุ้มสมอง แต่ละคอลัมน์มีเซลล์ประสาทประมาณ 50,000 ถึง 100,000 เซลล์จัดเรียงในหลายร้อย minicolumns แนวตั้ง
Minicolumns เหล่านี้เป็นตัวขับเคลื่อนหลักของหน่วยสืบราชการลับนักประสาทวิทยาและนักวิทยาศาสตร์คอมพิวเตอร์เจฟฟ์ฮอว์กินส์ระบุ ในส่วนอื่น ๆ ของสมองกริดและเซลล์วางช่วยสัตว์- ฮอว์กินส์ตั้งทฤษฎีว่าเซลล์เหล่านี้มีอยู่ใน minicolumns ที่พวกเขาติดตามและจำลองความรู้สึกและแนวคิดทั้งหมดของเรา- ตัวอย่างเช่นเมื่อปลายนิ้วเคลื่อนไหวเขากล่าวว่าคอลัมน์เหล่านี้สร้างแบบจำลองของสิ่งที่มันสัมผัส มันเหมือนกันกับดวงตาของเราและสิ่งที่เราเห็นฮอว์กินส์อธิบายในหนังสือเล่ม 2021 ของเขาสมองหนึ่งพัน-
“ มันเป็นความคิดที่กล้าหาญ” ราจันกล่าว ประสาทวิทยาศาสตร์ในปัจจุบันถือว่าความฉลาดนั้นเกี่ยวข้องกับการมีปฏิสัมพันธ์ของระบบสมองที่แตกต่างกันมากมายไม่ใช่แค่เซลล์การทำแผนที่เหล่านี้เธอกล่าว
แม้ว่าทฤษฎีของฮอว์กินส์ยังไม่ได้รับการยอมรับอย่างกว้างขวางในชุมชนประสาทวิทยาศาสตร์“ มันสร้างความสนใจอย่างมาก” เธอกล่าว ซึ่งรวมถึงความตื่นเต้นเกี่ยวกับการใช้งานที่มีศักยภาพสำหรับการคำนวณ neuromorphic
ฮอว์กินส์พัฒนาทฤษฎีของเขาที่ Numenta ซึ่งเป็น บริษัท ที่เขาร่วมก่อตั้งขึ้นในปี 2548 บริษัทโครงการ Brains Thousand ประกาศในปี 2567เป็นแผนสำหรับการจับคู่สถาปัตยกรรมการคำนวณกับอัลกอริทึมใหม่
ในการทดสอบก่อนหน้านี้สำหรับโครงการเมื่อไม่กี่ปีที่ผ่านมาทีมอธิบายสถาปัตยกรรมที่รวมเสาเยื่อหุ้มสมองเจ็ดคอลัมน์ minicolumns หลายร้อย minicolumns แต่ทอดเพียงสามชั้นแทนที่จะเป็นหกใน Neocortex ของมนุษย์ ทีมยังพัฒนาอัลกอริทึม AI ใหม่ที่ใช้โครงสร้างคอลัมน์เพื่อวิเคราะห์ข้อมูลอินพุต การจำลองแสดงให้เห็นว่าแต่ละคอลัมน์สามารถเรียนรู้ที่จะรับรู้วัตถุที่ซับซ้อนหลายร้อยรายการ-
ประสิทธิผลในทางปฏิบัติของระบบนี้ยังคงต้องมีการทดสอบ แต่ความคิดก็คือมันจะสามารถเรียนรู้เกี่ยวกับโลกแบบเรียลไทม์คล้ายกับอัลกอริทึมของของเหลว AI
สำหรับตอนนี้ Numenta ซึ่งตั้งอยู่ในเรดวู้ดรัฐแคลิฟอร์เนียกำลังใช้ฮาร์ดแวร์คอมพิวเตอร์ดิจิตอลทั่วไปเพื่อทดสอบแนวคิดเหล่านี้ แต่ในอนาคตฮาร์ดแวร์ที่กำหนดเองสามารถใช้เซลล์ประสาท spiking รุ่นทางกายภาพที่จัดขึ้นในคอลัมน์เยื่อหุ้มสมอง Ahmad กล่าว
การใช้ฮาร์ดแวร์ที่ออกแบบมาสำหรับสถาปัตยกรรมนี้สามารถทำให้ทั้งระบบมีประสิทธิภาพและมีประสิทธิภาพมากขึ้น “ การทำงานของฮาร์ดแวร์จะมีอิทธิพลต่อวิธีการทำงานของอัลกอริทึมของคุณ” Schuman กล่าว “ มันต้องใช้กระบวนการกำหนดรหัสนี้”
แนวคิดใหม่ในการคำนวณสามารถถอดออกได้เฉพาะกับการผสมผสานที่เหมาะสมของอัลกอริทึมสถาปัตยกรรมและฮาร์ดแวร์ ตัวอย่างเช่นวิศวกรของ Deepseek ตั้งข้อสังเกตว่าพวกเขาประสบความสำเร็จในการเพิ่มประสิทธิภาพโดยการออกแบบรหัส“ อัลกอริทึมเฟรมเวิร์กและฮาร์ดแวร์”
เมื่อหนึ่งในสิ่งเหล่านี้ยังไม่พร้อมหรือไม่พร้อมใช้งานความคิดที่ดีอาจอิดโรย Sara Hooker นักวิทยาศาสตร์คอมพิวเตอร์ที่ห้องปฏิบัติการวิจัยเชื่อมโยงกันในซานฟรานซิสโกลอตเตอรีฮาร์ดแวร์- สิ่งนี้เกิดขึ้นกับการเรียนรู้อย่างลึกซึ้ง - อัลกอริทึมที่จะทำมันได้รับการพัฒนาย้อนกลับไปในปี 1980 แต่เทคโนโลยีไม่ประสบความสำเร็จจนกว่านักวิทยาศาสตร์คอมพิวเตอร์จะเริ่มใช้ฮาร์ดแวร์ GPU สำหรับการประมวลผล AI ในช่วงต้นปี 2010
บ่อยเกินไป“ความสำเร็จขึ้นอยู่กับโชค,” Hooker กล่าวในการเชื่อมโยงวิดีโอเครื่องจักรในปีพ. ศ. 2564 แต่ถ้านักวิจัยใช้เวลามากขึ้นเมื่อพิจารณาการรวมกันใหม่ของฮาร์ดแวร์ neuromorphic สถาปัตยกรรมและอัลกอริทึมพวกเขาสามารถเปิดความเป็นไปได้ใหม่และน่าสนใจสำหรับทั้ง AI และการคำนวณ