สตีเฟน ฮอว์คิงเกรงว่าอาจเป็นเพียงเรื่องของเวลาก่อนที่มนุษยชาติจะถูกบังคับให้หนีออกจากโลกเพื่อค้นหาบ้านใหม่
นักฟิสิกส์ทฤษฎีผู้โด่งดังเคยกล่าวไว้ก่อนหน้านี้ว่าเขาคิดว่าการอยู่รอดของมนุษยชาติจะขึ้นอยู่กับความสามารถของเราในการกลายเป็นเผ่าพันธุ์หลายดาวเคราะห์-
ฮอว์คิงย้ำ - และในความเป็นจริงเน้นย้ำ - ประเด็นในการสัมภาษณ์เมื่อเร็ว ๆ นี้ด้วยมีสาย โดยเขากล่าวว่ามนุษยชาติได้มาถึง "จุดที่หวนกลับไม่ได้"
ฮอว์คิงกล่าวว่าความจำเป็นในการหาบ้านดาวเคราะห์ดวงที่สองสำหรับมนุษย์นั้นเกิดจากความกังวลเรื่องจำนวนประชากรที่เพิ่มขึ้นและภัยคุกคามที่ใกล้จะเกิดขึ้นจากการพัฒนาของปัญญาประดิษฐ์(AI).
เขาเตือนว่าในไม่ช้า AI จะกลายเป็นอัจฉริยะขั้นสุดยอด ซึ่งอาจเพียงพอที่จะเข้ามาแทนที่มนุษยชาติได้
“มารนี้หมดขวดแล้ว ฉันกลัวว่า AI อาจเข้ามาแทนที่มนุษย์โดยสิ้นเชิง” ฮอว์คิงบอกกับ WIRED
มันไม่ใช่ครั้งแรกอย่างแน่นอนฮอว์คิงเตือนอย่างเลวร้ายเช่นนี้- ในการให้สัมภาษณ์ย้อนกลับไปเมื่อเดือนมีนาคมที่ผ่านมาด้วยเดอะไทม์สเขากล่าวว่าการเปิดเผยของ AI กำลังจะเกิดขึ้น และการสร้าง "รัฐบาลโลกบางรูปแบบ" จึงมีความจำเป็นเพื่อควบคุมเทคโนโลยี
ฮอว์คิงยังได้เตือนเกี่ยวกับผลกระทบดังกล่าวด้วยAI จะมีงานชนชั้นกลางและถึงกับเรียกร้องให้ทำทันทีห้ามการพัฒนาตัวแทน AI สำหรับการใช้งานทางทหาร-
ในทั้งสองกรณี ดูเหมือนว่าคำเตือนของเขาจะถูกเพิกเฉยเป็นส่วนใหญ่ ถึงกระนั้น บางคนอาจแย้งว่าเครื่องจักรอัจฉริยะกำลังเข้ามาแทนที่งานแล้ว และหลายประเทศ รวมถึงสหรัฐอเมริกาและรัสเซียกำลังติดตามอาวุธที่ขับเคลื่อนด้วย AIเพื่อนำไปใช้ในกองทัพของตน
ในช่วงไม่กี่ปีที่ผ่านมา การพัฒนา AI กลายเป็นหัวข้อที่สร้างความแตกต่างอย่างกว้างขวาง ผู้เชี่ยวชาญบางคนได้ให้ข้อโต้แย้งที่คล้ายกันกับ Hawking ซึ่งรวมถึงSpaceX และ Tesla CEO และผู้ก่อตั้ง Elon Muskและบิล เกตส์ ผู้ร่วมก่อตั้งไมโครซอฟต์
ทั้ง Musk และ Gates มองเห็นศักยภาพในการพัฒนา AI ที่เป็นสาเหตุของการล่มสลายของมนุษยชาติ
ในทางกลับกันค่อนข้างผู้เชี่ยวชาญจำนวนหนึ่งได้วางเรื่องนั้นไว้แล้วคำเตือนดังกล่าวเป็นการเผยแพร่ความกลัวโดยไม่จำเป็นซึ่งอาจอิงจากสถานการณ์การเข้าครอบครอง AI อัจฉริยะขั้นสูงสุดที่พวกเขากลัวว่าจะทำได้บิดเบือนการรับรู้ของสาธารณชนเกี่ยวกับ AI-
เท่าที่เกี่ยวกับฮอว์คิง ความกลัวนั้นใช้ได้
“ถ้าคนเราออกแบบคอมพิวเตอร์ไวรัสจะมีคนออกแบบ AI ที่จะปรับปรุงและจำลองตัวเอง” ฮอว์คิงกล่าวในการให้สัมภาษณ์มีสาย-
“นี่จะเป็นชีวิตรูปแบบใหม่ที่มีประสิทธิภาพเหนือกว่ามนุษย์”
ดูเหมือนว่าฮอว์คิงหมายถึงการพัฒนา AI ที่ฉลาดพอที่จะคิดหรือดีกว่ามนุษย์ ซึ่งเป็นเหตุการณ์ที่ได้รับการขนานนามว่าเอกภาวะทางเทคโนโลยี
ในแง่ของเวลาที่จะเกิดขึ้น (ถ้าเคย) Hawking ไม่ได้เสนอตารางเวลาที่แน่นอน เราสามารถสรุปได้ว่ามันจะมาถึงจุดใดจุดหนึ่งภายในเส้นตาย 100 ปีที่ฮอว์คิงกำหนดไว้เพื่อความอยู่รอดของมนุษยชาติบนโลก
คนอื่นๆ เช่น Masayoshi Son ซีอีโอของ SoftBank และ Ray Kurzweil หัวหน้าวิศวกรของ Google ได้กำหนดกรอบเวลาสำหรับภาวะเอกฐานให้เร็วกว่านั้น ภายใน 30 ปีข้างหน้า
เรายังมีอีกหลายไมล์ที่ต้องไปในแง่ของการพัฒนา AI อัจฉริยะอย่างแท้จริงและเรายังไม่รู้แน่ชัดว่าภาวะเอกฐานจะนำมาซึ่งอะไร
มันจะประกาศความหายนะของมนุษยชาติหรืออาจนำไปสู่ยุคใหม่ที่มนุษย์และเครื่องจักรอยู่ร่วมกัน?
ไม่ว่าในกรณีใดศักยภาพของ AI ที่จะใช้ทั้งดีและไม่ดีเรียกร้องให้เราใช้มาตรการป้องกันที่จำเป็น
บทความนี้เผยแพร่ครั้งแรกโดยลัทธิแห่งอนาคต- อ่านบทความต้นฉบับ-