ในขณะที่การประชุมสุดยอดด้านความปลอดภัยของ AI เริ่มต้นขึ้นในวันพุธที่ 1 พฤศจิกายนในสหราชอาณาจักร ผู้เชี่ยวชาญต่างตื่นตระหนกกับ “กลยุทธ์” ของบริษัทที่โดดเด่นในภาค AI เช่น OpenAI หรือ Google ที่กำลังเรียกร้องให้มีกฎระเบียบ หรือผู้ที่ยกระดับ ปีศาจแห่งการสูญพันธุ์ของมนุษยชาติ เป้าหมายของพวกเขา: เพื่อโน้มน้าวหน่วยงานกำกับดูแลให้มากที่สุดเท่าที่จะเป็นไปได้ ซึ่งกำลังทำงานอย่างหนักเพื่อควบคุมภาค AI และขัดขวางคู่แข่ง เช่น โมเดล AI แบบโอเพ่นซอร์ส
เมื่อยักษ์ใหญ่แห่งปัญญาประดิษฐ์กำลังพยายามกระซิบข้างหูหน่วยงานกำกับดูแล... วันที่ 1 และ 2 พฤศจิกายนนี้ การประชุมสุดยอดด้านความปลอดภัยของปัญญาประดิษฐ์ (AI) กำลังจะเกิดขึ้นในสหราชอาณาจักร ในโอกาสนี้บริษัทหลักๆในกลุ่มอาทิเช่นOpenAIมิฉะนั้น Google จะใช้ "กลยุทธ์" ที่แตกต่างกันเพื่อพยายามโน้มน้าวการอภิปรายและใช้กฎหมายในอนาคตเพื่อประโยชน์ของตน ผู้เชี่ยวชาญเตือน
ก่อให้เกิดภัยคุกคามต่อการสูญพันธุ์ของมนุษยชาติที่เกิดจาก AI เรียกร้องให้มีการควบคุมโดยนำเสนอ AI อย่างชัดเจน ... กลยุทธ์หลักเหล่านี้ที่ผู้บังคับบัญชาและผู้ทำการแนะนำชักชวนสมาชิกรัฐสภาของภาคส่วนนี้ใช้งานจะไม่พลาดที่จะสังเกตได้ในช่วงสองวันนี้นับจากการประชุมสุดยอดของ เบล็ตช์ลีย์พาร์ค อดีตศูนย์ถอดรหัสของอังกฤษจากสงครามโลกครั้งที่สอง ตั้งอยู่ห่างจากลอนดอนประมาณห้าสิบนาที
ก่อให้เกิดภัยคุกคามต่อการสูญพันธุ์ครั้งใหญ่
เริ่มด้วยกลยุทธ์แรกของยักษ์ใหญ่ด้าน AI ที่จะวางแผงเมื่อเดือนมีนาคมปีที่แล้ว สิ่งนี้เกี่ยวข้องกับการปลุกจิตสำนึกถึงการทำลายล้างมนุษยชาติซึ่งอาจเกิดจาก AI ซึ่งเป็นความเสี่ยงที่ไม่จำเป็นต้องปฏิเสธ แต่จะเป็นจงใจเกินจริงและรุนแรงขึ้น ตามที่ผู้เชี่ยวชาญระบุ ในจดหมายเปิดผนึกเรียกร้องให้เลื่อนการชำระหนี้เป็นเวลาหกเดือนในการพัฒนา AI ซึ่งลงนามโดยผู้นำธุรกิจมากกว่า 1,000 ราย เมื่อเดือนมีนาคมที่ผ่านมา ผู้เขียนรู้สึกตกใจกับ “ความเสี่ยงอย่างลึกซึ้งต่อสังคมและมนุษยชาติ» วางโดยระบบ AI เหล่านี้ -การลดความเสี่ยงของการสูญพันธุ์ที่เชื่อมโยงกับ AI ควรเป็นเรื่องสำคัญระดับโลก» พวกเขาเขียน
ตั้งแต่นั้นเป็นต้นมา OpenAI, Microsoft และ DeepMind ก็ได้สะท้อนข้อความนี้ซ้ำแล้วซ้ำอีก ตัวอย่างเช่น เมื่อวันที่ 26 ตุลาคม OpenAI ได้อธิบายไว้ในก...โพสต์ในบล็อกที่เขาตั้งใจจะรวบรวมทีมผู้เชี่ยวชาญเพื่อต่อสู้กับความเสี่ยง”หายนะ» ของ AI ภายในทีมใหม่ เรียกว่า “การเตรียมความพร้อม- « ซีผู้นำ (ในภาคส่วนนี้ เป็นบันทึกของบรรณาธิการ) ซึ่งพัฒนา AI เชิงสร้างสรรค์ เป็นคนที่ส่งเสียงเตือนเกี่ยวกับความเสี่ยงและพยายามอย่างเต็มที่ที่จะมีอิทธิพลต่อกระบวนการพัฒนากฎหมายโดยไม่ได้ตั้งใจพวกเขาเป็นทั้งผู้ที่ตะโกน "ไฟ" ในโรงละครที่ว่างเปล่าและผู้ที่มาถึงพร้อมกับรถดับเพลิง» วิเคราะห์ Lewis Liu ผู้ก่อตั้ง Eigen Technologies ซึ่งเป็นบริษัทที่เชี่ยวชาญด้านการประมวลผลภาษาธรรมชาติในคอลัมน์ของไฟแนนเชียลไทมส์-
แอนดรูว์ อึ้ง ศาสตราจารย์จากมหาวิทยาลัยสแตนฟอร์ด สัมภาษณ์โดยการตรวจสอบทางการเงินของออสเตรเลียวันที่ 30 ตุลาคม ก้าวไปอีกขั้น ชายผู้สอนแมชชีนเลิร์นนิงให้กับ Sam Altman และผู้นำ AI ที่ Baidu เชื่อว่าแนวคิดที่ว่าปัญญาประดิษฐ์อาจนำไปสู่การสูญพันธุ์ของมนุษยชาตินั้นโกหก.บริษัทเทคโนโลยีขนาดใหญ่จะใช้มันโดยมีวัตถุประสงค์เดียว:นำไปสู่กฎระเบียบที่หนักหน่วงที่จะยุติการแข่งขันในตลาด AI โดยได้รับความนิยมจากผู้ย้ายรายแรกอย่าง OpenAI-Microsoft หรือ Google-
สำหรับแอนดริว อึ้ง เราเริ่มต้นจากแนวคิด “ว่า AI สามารถทำให้เราหายไปได้» เพื่อจะได้มีไอเดียใหม่ๆ กล่าวคือ: วิธีเดียวที่จะทำให้ AI ปลอดภัยยิ่งขึ้นคือการกำหนดความต้องการอย่างหนักในอุตสาหกรรม AI ซึ่งจะบดขยี้นวัตกรรมอย่างมีประสิทธิภาพและคู่แข่งรายใหม่รวมถึงการพัฒนาโมเดล AI แบบโอเพ่นซอร์ส -มีบริษัทเทคโนโลยีขนาดใหญ่อย่างแน่นอนที่ไม่ต้องพยายามแข่งขันกับ AI แบบโอเพ่นซอร์ส ดังนั้นพวกเขาจึงสร้างความกลัวว่า AI จะนำไปสู่การสูญพันธุ์ของมนุษยชาติ» เขาอธิบายให้เพื่อนร่วมงานของเราฟัง
อ่านเพิ่มเติม:AI: Google และ OpenAI เผชิญกับคู่แข่งที่ไม่คาดคิด
ความสูญสิ้นของมนุษยชาตินี้จึงกลายเป็น”อาวุธของผู้ทำการแนะนำชักชวนสมาชิกรัฐสภาเพื่อปกป้องกฎหมายที่อาจเป็นอันตรายต่อชุมชนโอเพ่นซอร์ส» เขากล่าวเสริม ฝ่ายหลังไม่ได้ร้องขอให้ไม่มีข้อบังคับ แต่เพื่อ “กฎระเบียบที่รอบคอบ» ซึ่งจะเริ่มด้วยความโปร่งใสมากขึ้นจากบริษัทเทคโนโลยี
เรื่องเดียวกันกับ Yann Le Cun นักวิจัยชาวฝรั่งเศสถือว่าเป็นหนึ่งในบิดาแห่งการเรียนรู้เชิงลึกซึ่งเป็นผู้นำการวิจัย AI ที่กลุ่มของ Meta – Mark Zuckerberg เป็นเพียง GAFAM เท่านั้นที่เสนอโมเดลภาษาโอเพ่นซอร์ส (LLaMA)- และสำหรับผู้ชนะรางวัล Turing Prize ประจำปี 2018 ซึ่งถือเป็นโนเบลสาขาวิทยาการคอมพิวเตอร์-การถกเถียงเรื่องความเสี่ยงที่มีอยู่ยังเกิดขึ้นเร็วมาก- แนวคิดที่ว่า AI สามารถฆ่ามนุษยชาติทั้งโดยการออกแบบหรือโดยค่าเริ่มต้นคือ “ไร้สาระ» เขาอธิบายให้ฟังไฟแนนเชียลไทมส์เมื่อเดือนที่แล้ว สำหรับตอนนี้ “เราจะไม่ออกแบบระบบที่สามารถแข่งขันกับแมวในแง่ของความสามารถในการเรียนรู้ได้-
อ่านเพิ่มเติม:Meta ตั้งเป้าที่จะเหนือกว่า ChatGPT 4 ด้วยโมเดล AI ถัดไป
สำหรับ Yann Le Cun การมุ่งเน้นไปที่ความเสี่ยงในอนาคตของการสูญพันธุ์ของมนุษยชาติมีเป้าหมายเดียว นั่นคือเพื่อแสดงให้เห็นว่าบริษัทเทคโนโลยีหลักเป็นบริษัทเดียวที่สามารถพัฒนา AI ได้อย่างปลอดภัย และนี่จะนำไปสู่การวางกฎระเบียบที่เขาคิดว่าหนักเกินไปเกี่ยวกับการวิจัยและพัฒนาของบริษัททั้งหมด เพื่อปกป้องตนเองจากความเสี่ยงที่มีอยู่นี้ แทนที่จะมุ่งเน้นไปที่การใช้งานผลิตภัณฑ์- ผลลัพธ์: การแข่งขันจากโมเดลโอเพ่นซอร์สซึ่งมี Meta เป็นส่วนหนึ่งของจะถูกขัดขวาง เขาเน้นย้ำ ในท้ายที่สุด มีเพียงไม่กี่บริษัทใน Silicon Valley และจีนเท่านั้นที่จะควบคุมแพลตฟอร์ม AI เขาคร่ำครวญถึงตัวเองบัญชีเอ็กซ์
เน้นเฉพาะรุ่นชายแดนเท่านั้น
กลยุทธ์นี้คล้ายกับของควบคุมเฉพาะระบบ AI ในอนาคตเท่านั้นหรือโมเดล AI ที่ทันสมัยที่สุด “โมเดลชายแดน"ซึ่งจะเป็นอันตรายมากกว่าที่ออกมาในปัจจุบันมากด้วยการมุ่งความสนใจไปที่สิ่งที่ยังไม่มี ไปสู่อนาคตอันไกลโพ้น เราไม่ได้ควบคุมระบบปัจจุบัน-
อย่างไรก็ตาม ตามที่กลุ่มผู้เชี่ยวชาญที่อยู่เบื้องหลัง “การประชุมสุดยอดตอบโต้” เกี่ยวกับ AI ซึ่งจัดขึ้นเมื่อวันจันทร์ที่ 30 ตุลาคม ระบุว่าการประชุมสุดยอดโลกในวันที่ 1 และ 2 พฤศจิกายน ไม่ได้กล่าวถึง “ความเร่งด่วนที่ชัดเจน» ของเอไอ อย่างไรก็ตาม ยังมีสิ่งที่ต้องทำอีกมากเนื่องจากอันตรายของเครื่องมือปัจจุบันที่เข้าถึงได้สำหรับบุคคลทั่วไป เช่น ChatGPT, Bard, Dall-E ฯลฯ ได้รับการบันทึกไว้และวิพากษ์วิจารณ์แล้ว ปัญหาที่พบ ได้แก่ การขาดความโปร่งใส การเผยแพร่ข่าวเท็จ และDeepfake ที่สร้างโดย AI,การนำผลงานไปใช้ได้รับการคุ้มครองโดยลิขสิทธิ์หรือสิทธิ์อื่น ๆ เพื่อวัตถุประสงค์ในการฝึกอบรมระบบ AIการแสวงหาผลประโยชน์จากแรงงานที่ได้รับค่าจ้างต่ำกว่าเพื่อฝึกเครื่องมือเหล่านี้ อคติเหยียดเชื้อชาติ หรือรังเกียจผู้หญิงหรือการกระจุกตัวของอำนาจในมือของบริษัทไม่กี่แห่ง รายชื่อนี้ยังห่างไกลจากความครบถ้วนสมบูรณ์
เป็นกลยุทธ์นี้ซึ่งประกอบด้วยการถกเถียงอย่างจำกัดต่อระบบในอนาคตที่ซับซ้อนที่สุดซึ่งจะถูกนำมาใช้โดย Google, Microsoft, Anthropic และ OpenAI บริษัททั้งสี่นี้ได้ประกาศเมื่อเดือนกรกฎาคมที่ผ่านมาถึงการสร้างองค์กรวิชาชีพที่เรียกว่า “ฟอรัมโมเดลชายแดน-วัตถุประสงค์ที่นำเสนออย่างชัดเจนคือการส่งเสริม “การพัฒนาที่รับผิดชอบและปลอดภัย» สำหรับ “โมเดลชายแดน- แต่ AI ที่ปลอดภัย มีความรับผิดชอบ หรือตามหลักจริยธรรมจะเป็นอย่างไรสำหรับโมเดล AI ที่ทันสมัยที่สุดเหล่านี้ ยังไม่มีคำตอบที่ชัดเจนในขณะนี้ โดยเฉพาะอย่างยิ่งเนื่องจากคำจำกัดความดังกล่าวจะมาจากผู้เล่นหลักในภาคที่จะทำทุกอย่างเพื่อหลีกเลี่ยงอุปสรรคขวางทางด้วยกฎเกณฑ์ที่หนักเกินไปหรือเข้มงวดเกินไป
และกลยุทธ์นี้จะได้ผลในบางประเทศ ในประเทศสหรัฐอเมริกาพระราชกฤษฎีกาที่เผยแพร่เมื่อวันจันทร์ที่ 30 ตุลาคมกำหนดให้นักพัฒนา AI มีภาระผูกพันใหม่ในการแบ่งปันผลการทดสอบความปลอดภัยกับฝ่ายบริหารของอเมริกา ก่อนที่จะเผยแพร่ AI สู่สาธารณะ แต่การแจ้งเตือนนี้จะใช้กับ AI ที่กำลังพัฒนาเท่านั้นซึ่งก่อให้เกิดความเสี่ยงร้ายแรงต่อสุขภาพและความปลอดภัย (…) เศรษฐกิจ หรือความมั่นคงของชาติ”- ออกจากระบบที่มีอยู่แล้วซึ่งแต่ก็ต้องเคารพเสมอ”กฎหมายที่มีอยู่» เกี่ยวกับการแข่งขันและการคุ้มครองผู้บริโภค Lina Khan หัวหน้าหน่วยงานการแข่งขันในสหรัฐอเมริกาเล่าในบัญชีของเธอเอ็กซ์- พวกเขาทำจริงเหรอ? คำถามเกิดขึ้น
“ควบคุมเรา!” -
การก่อให้เกิดภัยคุกคามต่อการสูญพันธุ์ของมนุษยชาติมีข้อพิสูจน์: ความต้องการกฎระเบียบ นี่เป็นแนวทางที่ Sam Altman หัวหน้าของ OpenAI ซึ่งเป็นสตาร์ทอัพที่อยู่เบื้องหลัง ChatGPT นำมาใช้ เด็กอายุสามสิบปีไม่เคยหยุดเรียกร้องให้มีการควบคุมเช่นระหว่างการพิจารณาคดีในวุฒิสภาสหรัฐอเมริกาเมื่อเดือนพฤษภาคมปีที่แล้ว- -เมื่อบริษัทที่มีตำแหน่งที่ดีขอให้มีการควบคุม แม้ว่าบริษัทจะดูเหมือนยอมจำนนที่จะช่วยเหลืออุตสาหกรรม แต่บริษัทก็กำลังพยายามใช้กลยุทธ์ที่เรียกว่า "การยึดครองตามกฎระเบียบ" เพื่ออะไร? เธอรู้เกี่ยวกับเทคโนโลยีมากกว่าหน่วยงานกำกับดูแล» อธิบายหนึ่งในอดีตผู้จัดการของ Microsoft, Steven Sinofsky ในบัญชี X ของเขาขอให้ถูกควบคุมโดยอ้างว่าเทคโนโลยีอยู่นอกเหนือการควบคุมอย่างแท้จริง» เขากล่าวเสริม
https://twitter.com/stevesi/status/1659271710070407169?s=20
-ระวังผู้นำเทคโนโลยี AI ให้ดีซึ่งยกมือขึ้นแล้วพูดว่า 'ควบคุมฉัน ควบคุมฉัน' รัฐบาลอาจถูกล่อลวงให้รีบเร่งและยอมรับตามคำพูดของตน" Nigel Toon ซีอีโอของ Graphcore ผู้ผลิตชิป AI กล่าวในโพสต์ในบล็อกตั้งแต่วันที่ 23 ตุลาคม
เพราะถ้ากฎระเบียบควรจะบังคับให้ผู้มีอำนาจเคารพกฎของเกม ประวัติศาสตร์แสดงให้เห็นว่านี่ไม่ถูกต้องทั้งหมด Stephen Mihm ศาสตราจารย์ด้านประวัติศาสตร์จากมหาวิทยาลัยจอร์เจียในสหรัฐอเมริกาเล่าในคอลัมน์ของวอชิงตันโพสต์- ในอดีต บริษัทที่ครองอุตสาหกรรมได้สนับสนุนกฎระเบียบอย่างเปิดเผย ดังที่ Sam Altman กำลังทำอยู่ในปัจจุบัน แต่แล้ว ณ วันนี้ แรงจูงใจของพวกเขาเชื่อมโยงกับผลกำไรและความได้เปรียบในการแข่งขันมากกว่าความสนใจทั่วไป เขากล่าวเสริมโดยอ้างอิงถึงสิ่งที่เรียกว่า "การจับกุมตามกฎระเบียบ-
แนวคิดนี้ตั้งทฤษฎีโดยนักเศรษฐศาสตร์ George Stigler ในปี 1971 ในบทความเรื่อง "ทฤษฎีการควบคุมเศรษฐกิจ" ตามที่กล่าวไว้ในข้อหลัง บริษัทใหญ่ๆ มักจะใช้กฎระเบียบเพื่อขัดขวางคู่แข่งของตน กฎระเบียบมักจะจบลงด้วยการรักษาผลประโยชน์ของบริษัทเหล่านี้ ตัวอย่างเช่น การกำหนดพิธีการต่างๆ มากมายที่มีเพียงพวกเขาเท่านั้นที่สามารถเคารพได้
อ่านเพิ่มเติม:G7, พระราชกฤษฎีกา Biden, AI IPCC, หน่วยงานของ UN, พระราชบัญญัติ AI… ความบ้าคลั่งด้านกฎระเบียบในการควบคุม AI ยังคงดำเนินต่อไป
ดังนั้นการยึดตามกฎระเบียบจึงเท่ากับเป็นการปล่อยให้บริษัทต่างๆ เขียนกฎเกณฑ์ที่จะสนองผลประโยชน์ของตน โดยทำลายผลประโยชน์ทั่วไป ซึ่งเป็นทฤษฎีที่สามารถค้นพบจุดบรรจบกันได้ในปัจจุบัน ในระหว่างการพิจารณาคดีของ Sam Altman ต่อวุฒิสภาสหรัฐอเมริกา เราก็ได้ยินเสียงดังกล่าววุฒิสมาชิกพรรครีพับลิกันจากหลุยเซียน่า จอห์น เคนเนดี้ ไม่ได้ขออะไรมากไปกว่านั้นจากหัวหน้าของ OpenAI: “บอกเราว่าควรปฏิบัติตามกฎเกณฑ์ใดบ้าง- ผู้บังคับบัญชาของยักษ์ใหญ่ในภาคส่วนนี้ได้รับการต้อนรับที่ทำเนียบขาว วุฒิสภาอเมริกัน และคณะกรรมาธิการยุโรป อีกฝ่ายเข้าร่วมการอภิปรายตามที่ร้องขอหรือไม่?
ในการประชุมสุดยอดความปลอดภัย AI ใกล้ลอนดอนที่กำลังจัดขึ้น บริษัทต่างๆ ที่มีอำนาจเหนือ AI ในปัจจุบันมีตัวแทนมากเกินไป ตามที่ผู้เชี่ยวชาญอ้างโดยเดอะการ์เดียน, วันอังคารที่ 31 ตุลาคม. พลาดโอกาสสำหรับบางคนเพราะ”การประชุมสุดยอดล้มเหลวในการเชิญผู้เชี่ยวชาญและผู้ที่ได้รับผลกระทบจากการหยุดชะงักของ AI ในวงกว้าง» ขีดเส้นใต้ Marietje Schaake อดีต MEP และที่ปรึกษาพิเศษของคณะกรรมาธิการยุโรปที่รับผิดชอบในการดำเนินการตามการควบคุมบริการดิจิทัลอ้างโดยเพื่อนร่วมงานของเรา
เธอกล่าวเสริม: “รัฐบาลอังกฤษรับฟังธุรกิจที่เลือกใช้การควบคุมตนเอง (…)” -และการจัดตั้งข้อผูกพันโดยสมัครใจจะได้ยินเสียงที่ไม่สอดคล้องกันด้วยหรือไม่?
อ่านเพิ่มเติม:กฎระเบียบเกี่ยวกับ AI: เหตุใดจึงยังติดอยู่ในยุโรป
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-