ปัญญาประดิษฐ์กำเนิด ช่องว่างพลังงาน? นักวิจัยแสดงให้เห็นว่าเทคโนโลยีนี้สามารถเพิ่มการใช้พลังงานและการปล่อยก๊าซคาร์บอนไดออกไซด์ของศูนย์ข้อมูลได้อย่างมาก เพื่อหลีกเลี่ยงการสูญเสียพลังงานที่อาจเกิดขึ้น เราควรคำนึงถึงการใช้งานโดยแนะนำผู้เชี่ยวชาญรายนี้
แอล'ปัญญาประดิษฐ์กำเนิดปัจจุบันถูกมองว่าเป็น "เอลโดราโด" แต่เรามักลืมไปว่าต้องใช้พลังงานมากในการทำงาน นี่คือสิ่งที่ Alex de Vries นักเศรษฐศาสตร์ชาวดัตช์ ผู้เขียนบทความที่ตีพิมพ์ในวารสารเมื่อวันอังคารที่ 10 ตุลาคมจูล- นักวิจัยเป็นที่รู้จักจากการทำงานเกี่ยวกับผลกระทบต่อสิ่งแวดล้อมของบิตคอยน์เน้นย้ำว่า'เอไออยู่ข้างหลังChatGPT, Dall-E หรือ Midjourneyในไม่ช้าก็อาจต้องการพลังงานมากพอๆ กับทั้งประเทศ
จนถึงตอนนี้ นักพัฒนา AI เช่น OpenAI และพันธมิตรไมโครซอฟต์Google หรือ Meta สื่อสารเพียงเล็กน้อยเกี่ยวกับการใช้พลังงานจริงหรือผลกระทบต่อสิ่งแวดล้อมของระบบ นักวิจัยยังคงจัดการประมาณการโดยใช้วิธีการทางอ้อม Alex de Vries ซึ่งเป็นนักศึกษาปริญญาเอกจาก Free University of Amsterdam และเป็นผู้ก่อตั้งบริษัทนักเศรษฐศาสตร์ดิจิตัลในส่วนของมันขึ้นอยู่กับจำนวนชิปกราฟิกที่จำเป็นสำหรับเทคโนโลยีประเภทนี้ในการทำงานอย่างถูกต้อง
การประมาณการที่ทำโดยใช้ชิป Nvidia
เพราะในภาค AI บริษัทส่วนใหญ่ใช้ชิปกราฟิกที่ออกแบบโดยNvidia แชมป์เซมิคอนดักเตอร์ชาวอเมริกัน-โดยสรุปแล้ว Alex de Vries เชื่อมั่นการคาดการณ์ยอดขายสำหรับ Nvidia A100 และ H100 ซึ่งเป็นโปรเซสเซอร์กราฟิกเหล่านี้ซึ่งกลายเป็นสิ่งจำเป็นสำหรับการฝึกอบรม AI เชิงสร้างสรรค์ สิ่งเหล่านี้คือสิ่งที่ 95% ของตลาด AI ควรใช้แต่ละชิป (ของมัน) หิวโหยมาก» อธิบายนักเศรษฐศาสตร์ให้เพื่อนร่วมงานของเราฟังที่นิวยอร์กไทม์ส-
อย่างหลังใช้การฉายภาพตามที่ Nvidia สามารถส่งมอบเซิร์ฟเวอร์ได้ 1.5 ล้านเครื่องภายในปี 2570 โดยแต่ละชุดจะมีชิป A100 หรือ H100 หลายตัว จากนั้นเขาก็ดูตัวเลขการใช้พลังงานของเซิร์ฟเวอร์เหล่านี้ ได้แก่ DGX A100 และ DGX H100 ผลลัพธ์ของเขา: นักเศรษฐศาสตร์ประมาณการว่าในระยะเวลาหนึ่งปี เซิร์ฟเวอร์ AI เหล่านี้สามารถบริโภครวมระหว่าง 85 ถึง 134 เทราวัตต์ชั่วโมง ภายในปี 2570 ซึ่งจะสอดคล้องกับการบริโภคต่อปีของอาร์เจนตินา ระดับต่ำ หรือแม้แต่สวีเดน หรือ 0.5% ของ ปริมาณการใช้ไฟฟ้าทั่วโลกในปัจจุบัน เขียนถึงเพื่อนร่วมงานของเรา
แน่นอนว่า นี่เป็นการประมาณการ: บริษัทต่างๆ อาจไม่ได้ใช้เซิร์ฟเวอร์ 100% ซึ่งจะลดการใช้ไฟฟ้าได้อย่างมีประสิทธิภาพ แต่พลังงานที่จำเป็นในการระบายความร้อนของเซิร์ฟเวอร์อาจเพิ่มจำนวนได้
ในภาค AI ไม่ต้องมองหาการประหยัดพลังงานในขณะนี้
ในปี 2022 คาดว่าศูนย์ข้อมูลจะใช้ไฟฟ้าระหว่าง 1 ถึง 1.3% ของโลก ดังนั้นตัวเลขนี้อาจสูงขึ้นในปีนี้ด้วย AI รวมถึงผลกระทบต่อสิ่งแวดล้อม ศูนย์ข้อมูลเหล่านี้ใช้พลังงานฟอสซิลหรือพลังงานทดแทน เป็นผลให้ไฟฟ้าที่จำเป็นในการใช้งาน AI สามารถเพิ่มการปล่อยก๊าซคาร์บอนทั่วโลก เขียนถึงเพื่อนร่วมงานของเราที่นิวยอร์กไทม์ส- การเพิ่มขึ้นนี้อาจเป็นแบบทวีคูณก็ได้ เพราะในการแข่งขันด้าน AI การค้นหาการประหยัดพลังงานไม่ใช่เรื่องสำคัญอย่างชัดเจน
อย่างไรก็ตาม ผู้เชี่ยวชาญบางคนโต้แย้งว่าควรคำนึงถึงปริมาณการใช้ไฟฟ้าเมื่อออกแบบชิปและซอฟต์แวร์ปัญญาประดิษฐ์รุ่นต่อไป -บางทีเราควรชะลอความเร็วลงเล็กน้อยเพื่อเริ่มใช้โซลูชันที่เรามี» Roberto Verdecchia ผู้ช่วยศาสตราจารย์ประจำห้องปฏิบัติการเทคโนโลยีซอฟต์แวร์ที่มหาวิทยาลัยฟลอเรนซ์ กล่าวโดยเพื่อนร่วมงานของเรา -อย่าสร้างโมเดลใหม่เพื่อปรับปรุงความแม่นยำและความเร็วเพียงอย่างเดียว แต่ลองหายใจเข้าลึกๆ แล้วดูว่าเราใช้ทรัพยากรสิ่งแวดล้อมไปมากแค่ไหน» เขากล่าวเสริม
ตัวเลขเหล่านี้สามารถให้อาหารสำหรับความคิด Alex de Vries อธิบาย สัมภาษณ์โดยหมิ่น- บริษัทหลายแห่งได้เริ่มต้นการแข่งขันด้าน AI ครั้งนี้ เนื่องจากผู้ใช้อินเทอร์เน็ตจำนวนมากได้ลองใช้เครื่องมือใหม่เหล่านี้ ตอนนี้เรารู้แล้วว่าเทคโนโลยีนี้ใช้พลังงานมาก ในบทความของเขา นักเศรษฐศาสตร์ยังเชิญชวนให้หน่วยงานกำกับดูแลกำหนดความโปร่งใสเพิ่มเติมให้กับนักพัฒนา AI เกี่ยวกับผลกระทบต่อสิ่งแวดล้อมของระบบของพวกเขา แต่เราก็ไม่ควรเช่นกัน”การใช้ AI เพื่อสิ่งที่เราไม่ต้องการจริงๆ-
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : Alex de Vries รอยเท้าพลังงานที่เพิ่มขึ้นของปัญญาประดิษฐ์ Joule (2023)