Michael Littman เป็นศาสตราจารย์ด้านวิทยาศาสตร์คอมพิวเตอร์ที่ Brown University เขาเป็นผู้นำร่วมของโครงการหุ่นยนต์ที่เน้นมนุษยชาติเป็นศูนย์กลางของบราวน์ซึ่งมีวัตถุประสงค์เพื่อจัดทำเอกสารความต้องการทางสังคมและการประยุกต์ใช้การวิจัยปฏิสัมพันธ์ระหว่างมนุษย์หุ่นยนต์รวมถึงคำถามทางจริยธรรมกฎหมายและเศรษฐกิจที่จะเกิดขึ้นกับการพัฒนา Littman สนับสนุนบทความนี้ให้กับ Live Science'sVoices Expert: Op-Ed & Insights-
ทุกเทคโนโลยีใหม่นำสถานการณ์ฝันร้ายของตัวเอง ปัญญาประดิษฐ์ (AI) และหุ่นยนต์ไม่มีข้อยกเว้น อันที่จริงคำว่า "หุ่นยนต์" ได้รับการประกาศเกียรติคุณสำหรับการเล่นในปี 1920 ที่ละครเรื่องนี้เป็นวันโลกาวินาศสำหรับมนุษยชาติ
เมื่อต้นเดือนนี้จดหมายเปิดผนึกถึงอนาคตของ AIลงนามโดยนักวิทยาศาสตร์และผู้ประกอบการที่มีชื่อเสียงจำนวนมากกระตุ้นการพาดหัวข่าวรอบใหม่เช่น "นักวิทยาศาสตร์ชั้นนำมีคำเตือนเกี่ยวกับปัญญาประดิษฐ์" และ "ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ที่ให้คำมั่นว่าจะปกป้องมนุษยชาติจากเครื่องจักร" ความหมายก็คือวันหนึ่งเครื่องจะกำจัดมนุษยชาติ
มากันเถอะ: โลกที่มนุษย์ถูกกดขี่หรือถูกทำลายโดยเครื่องจักรที่มีอำนาจเหนือกว่าในการสร้างของเราคือนิยายวิทยาศาสตร์ล้วนๆ เช่นเดียวกับเทคโนโลยีอื่น ๆ AI มีความเสี่ยงและผลประโยชน์ แต่เราไม่สามารถปล่อยให้ความกลัวครอบงำการสนทนาหรือแนะนำการวิจัย AI
อย่างไรก็ตามความคิดในการเปลี่ยนแปลงวาระการวิจัย AI อย่างมากเพื่อมุ่งเน้นไปที่ "ความปลอดภัย" ของ AI เป็นข้อความหลักของกลุ่มที่เรียกตัวเองว่าอนาคตของสถาบันชีวิต (FLI) FLI รวมถึงนักคิดลึก ๆ และบุคคลสาธารณะเช่นElon Muskและสตีเฟ่นฮอว์คิงและกังวลเกี่ยวกับวันที่มนุษยชาติถูก steamrolled โดยโปรแกรมที่ทรงพลังวิ่ง amuck -หุ่นยนต์อัจฉริยะจะแซงมนุษย์ในปี 2100 ผู้เชี่ยวชาญกล่าวว่า-
ตามที่อธิบายไว้ในหนังสือเล่มนี้ "Superintelligence: เส้นทาง, อันตราย, กลยุทธ์"(สำนักพิมพ์มหาวิทยาลัยออกซ์ฟอร์ด, 2014), โดยสมาชิกคณะกรรมการที่ปรึกษา FLI และนักปรัชญา Nick Bostrom ที่ใช้ Oxford, พล็อตคลี่ในสามส่วนในส่วนแรก-ประมาณที่เราอยู่ในขณะนี้-พลังการคำนวณและซอฟต์แวร์อัจฉริยะพัฒนาขึ้นอย่างรวดเร็ว "การระเบิดของหน่วยสืบราชการลับ"
ลองดูเรื่องราวของสันทรายนี้ให้ละเอียดกว่านี้ ในสามส่วนส่วนแรกกำลังเกิดขึ้นในขณะนี้และ Bostrom ให้แววตาที่ตรงประเด็นและส่องสว่างในเทคโนโลยีปัจจุบันและในอนาคตอันใกล้ ส่วนที่สามคือการวิ่งเล่นทางปรัชญาสำรวจผลที่ตามมาของเครื่องจักร Supersmart มันเป็นส่วนที่สอง - การระเบิดของข่าวกรอง - ซึ่งแสดงให้เห็นว่าเป็นการละเมิดสิ่งที่เรารู้เกี่ยวกับวิทยาศาสตร์คอมพิวเตอร์และความฉลาดทางธรรมชาติ -ประวัติความเป็นมาของ AI: ปัญญาประดิษฐ์ (อินโฟกราฟิก)-
หน่วยสืบราชการลับ?
ความคิดเกี่ยวกับการระเบิดของข่าวกรองเกิดขึ้นจากกฎของมัวร์การสังเกตว่าความเร็วของคอมพิวเตอร์เพิ่มขึ้นอย่างทวีคูณตั้งแต่ปี 1950 คาดการณ์แนวโน้มนี้ไปข้างหน้าและเราจะเห็นคอมพิวเตอร์ที่มีพลังการคำนวณของเผ่าพันธุ์มนุษย์ทั้งหมดภายในไม่กี่ทศวรรษข้างหน้า มันเป็นการก้าวกระโดดจากความคิดนี้ไปสู่การเติบโตของข่าวกรองเครื่องจักรที่ไม่ได้ตรวจสอบ
อย่างแรกความเฉลียวฉลาดไม่ใช่คอขวดเพียงอย่างเดียวในการพัฒนาคอมพิวเตอร์ที่เร็วขึ้น เครื่องจักรจำเป็นต้องสร้างจริงซึ่งต้องใช้ทรัพยากรในโลกแห่งความจริง อันที่จริงกฎหมายของมัวร์มาพร้อมกับต้นทุนการผลิตที่เพิ่มขึ้นอย่างมากเช่นกัน - การผลิตจำนวนมากของอุปกรณ์อิเล็กทรอนิกส์ที่มีความแม่นยำไม่ได้ราคาถูก นอกจากนี้ยังมีกฎหมายทางกายภาพพื้นฐาน - ขีด จำกัด ควอนตัม - ซึ่งผูกพันกับทรานซิสเตอร์ที่สามารถทำงานได้เร็วแค่ไหน เทคโนโลยีที่ไม่ใช่ซิลิกอนอาจเอาชนะขีด จำกัด เหล่านั้นได้ แต่อุปกรณ์ดังกล่าวยังคงมีการเก็งกำไรสูง
นอกเหนือจากกฎหมายทางกายภาพเรารู้มากเกี่ยวกับลักษณะพื้นฐานของการคำนวณและขีด จำกัด ของมัน ตัวอย่างเช่นปริศนาการคำนวณบางอย่างเช่นการหาวิธีการคำนึงถึงตัวเลขและการถอดรหัสรูปแบบการเข้ารหัสออนไลน์โดยทั่วไปเชื่อว่าไม่สามารถแก้ไขได้โดยโปรแกรมที่รวดเร็วใด ๆ พวกเขาเป็นส่วนหนึ่งของชั้นเรียนของปัญหาทางคณิตศาสตร์ที่กำหนดไว้ซึ่งเป็น "NP-complete" ซึ่งหมายความว่าพวกเขายากพอ ๆ กับปัญหาใด ๆ ที่สามารถแก้ไขได้โดยไม่ต้อง deterministically (N) ในเวลาพหุนาม (P) และพวกเขาได้ต่อต้านความพยายามในการแก้ปัญหาที่ปรับขนาดได้ เมื่อปรากฎว่าปัญหาการคำนวณส่วนใหญ่ที่เราเชื่อมโยงกับความฉลาดของมนุษย์นั้นเป็นที่ทราบกันดีว่าอยู่ในชั้นเรียนนี้ -ปัญญาประดิษฐ์ขั้นสูงเป็นอย่างไร? ลองระดับก่อนวัยเรียน-
รอสักครู่คุณอาจพูด จิตใจมนุษย์จัดการเพื่อแก้ปัญหาทางคณิตศาสตร์ที่นักวิทยาศาสตร์คอมพิวเตอร์เชื่อว่าไม่สามารถแก้ไขได้? เราไม่ โดยใหญ่เราโกง เราสร้างแบบจำลองทางจิตขององค์ประกอบของโลกที่เราสนใจและจากนั้นตรวจสอบพฤติกรรมของ miniworld ที่คิดค้นขึ้นมานี้ มีการแลกเปลี่ยนระหว่างความสมบูรณ์และความสามารถในการใช้งานในพิภพเล็ก ๆ ที่จินตนาการได้ ความสามารถของเราในการเสนอและไตร่ตรองและโครงการอนาคตที่น่าเชื่อถือมาพร้อมกับค่าใช้จ่ายของความแม่นยำ แม้แต่การอนุญาตให้มีความเป็นไปได้ของการมีอยู่ของคอมพิวเตอร์ที่เร็วกว่าที่เรามีในทุกวันนี้มันเป็นไปไม่ได้ตรรกะที่คอมพิวเตอร์เหล่านี้จะสามารถจำลองความเป็นจริงได้อย่างแม่นยำกว่าความเป็นจริง
การตอบโต้สาเหตุต่อต้าน AI
ในการเผชิญกับความสงสัยทั่วไปในชุมชน AI และชุมชนวิทยาศาสตร์คอมพิวเตอร์เกี่ยวกับความเป็นไปได้ของการระเบิดอย่างชาญฉลาด FLI ยังต้องการที่จะได้รับการสนับสนุนจากสาเหตุ จดหมายของกลุ่มเรียกร้องให้มีความสนใจเพิ่มขึ้นเพื่อเพิ่มผลประโยชน์ทางสังคมของการพัฒนา AI เพื่อนร่วมงานที่ได้รับความนิยมของฉันหลายคนลงนามในจดหมายเพื่อแสดงการสนับสนุนความสำคัญของการหลีกเลี่ยงข้อผิดพลาดที่อาจเกิดขึ้นของเทคโนโลยี แต่วลีสำคัญสองสามข้อในจดหมายเช่น "ระบบ AI ของเราต้องทำในสิ่งที่เราต้องการให้พวกเขาทำ" ถูกนำมาใช้โดยสื่อมวลชนว่านักวิจัย AI เชื่อว่าพวกเขาอาจสร้างบางสิ่งที่ "ไม่สามารถควบคุมได้" นอกจากนี้ยังแสดงให้เห็นว่านักวิจัยของ AI นอนหลับอยู่บนพวงมาลัยโดยไม่สนใจความเป็นไปได้ที่เป็นลางสังหรณ์ซึ่งไม่จริง -ปัญญาประดิษฐ์: เป็นมิตรหรือน่ากลัว?-
เพื่อความชัดเจนมีความกังวลอย่างแท้จริงเกี่ยวกับอนาคตระยะสั้นของผู้ค้าอัลกอริทึมที่กระแทกเศรษฐกิจหรือกริดพลังงานที่ละเอียดอ่อนเกินความผันผวนและปิดกระแสไฟฟ้าสำหรับประชากรจำนวนมาก นอกจากนี้ยังมีข้อกังวลว่าอคติในระบบในสถาบันการศึกษาและอุตสาหกรรมป้องกันไม่ให้ชนกลุ่มน้อยที่มีบทบาทน้อยกว่าจากการเข้าร่วมและช่วยในการควบคุมการเติบโตของเทคโนโลยีสารสนเทศ ความกังวลเหล่านี้ควรมีบทบาทสำคัญในการพัฒนาและการปรับใช้ความคิดใหม่ ๆ แต่การคาดการณ์ที่น่ากลัวของคอมพิวเตอร์ในทันใดนั้นก็ตื่นขึ้นมาและหันมาหาเราก็ไม่สมจริง
ฉันยินดีต้อนรับการอภิปรายอย่างเปิดเผยเกี่ยวกับวิธีที่ AI สามารถทำให้แข็งแกร่งและเป็นประโยชน์และวิธีที่เราสามารถสร้างเครื่องจักรอัจฉริยะและระบบที่ทำให้สังคมดีขึ้น แต่ขอให้การสนทนาอย่างมั่นคงภายในขอบเขตของเหตุผลและปล่อยให้หุ่นยนต์ลุกโชนไปยังนักเขียนบทภาพยนตร์ฮอลลีวูด
ติดตามปัญหาเสียงและการอภิปรายทั้งหมดของผู้เชี่ยวชาญ - และกลายเป็นส่วนหนึ่งของการสนทนา - บนFacebook-TwitterและGoogle+- มุมมองที่แสดงเป็นของผู้เขียนและไม่จำเป็นต้องสะท้อนมุมมองของผู้จัดพิมพ์ บทความฉบับนี้ได้รับการเผยแพร่ครั้งแรกเมื่อวิทยาศาสตร์การใช้ชีวิต