Stable Diffusion ซึ่งเป็นโมเดลการสร้างเนื้อหาแบบโอเพ่นซอร์ส กำลังย้ายไปที่วิดีโอ มีเวอร์ชันแรกสำหรับนักวิจัยก่อนที่จะเผยแพร่สู่สาธารณะในวงกว้าง
ปัญญาประดิษฐ์เจนเนอเรชั่นรู้วิธีสร้างภาพ ข้อความ หรือแม้แต่เพลงจากคำพูดเพียงไม่กี่คำStable Diffusion เพิ่มสตริงให้กับส่วนโค้ง: วิดีโอ!สิ่งที่คุณต้องทำคืออธิบายสิ่งที่คุณต้องการเห็นการเคลื่อนไหว จากนั้นโมเดลจะสร้างวิดีโอขึ้นมา
ภาพยนตร์บล็อกบัสเตอร์เรื่องต่อไปจะถูกสร้างขึ้นโดย Stable Diffusion หรือไม่?
รุ่นแรกสำหรับ generative video นี้ใช้โมเดลรูปภาพ Stable Diffusion ซึ่งช่วยให้คุณสามารถสร้างภาพประกอบในสไตล์ โลโก้ โปสเตอร์ รูปภาพ นวนิยาย โค้ด... Stable Video Diffusion ปรับให้เข้ากับหลายสถานการณ์ เช่น การสร้างหลายมุมมอง ของเรื่องเดียวกันจากภาพเดียว
Stable Diffusion Video สามารถสร้าง 14 และ 25 เฟรมต่อวิดีโอ พร้อมอัตรารีเฟรชที่กำหนดเอง (ระหว่าง 3 ถึง 30 เฟรมต่อวินาที)
นักวิจัยสามารถดูฟีเจอร์ใหม่นี้ได้แล้วในขณะที่โค้ดพร้อมใช้งานGitHub- Stable Diffusion ยังมีส่วนแบ่งกบทความการวิจัยโดยละเอียดว่าโมเดลนี้ทำงานอย่างไร บุคคลทั่วไปและผู้ที่สนใจสามารถสมัครรับรายชื่ออีเมลเพื่อเข้าถึงเว็บอินเตอร์เฟสในอนาคตได้ มีโอกาสมากมาย: การศึกษา ความบันเทิง การโฆษณา ฯลฯ
ไม่เหมือนกับรุ่นอื่นๆ เช่น Dall-E หรือ Midjourney ตรงที่ Stable Diffusion สามารถเข้าถึงได้ง่ายกว่าเนื่องจากมีลักษณะเป็นโอเพ่นซอร์ส ในทางกลับกัน คุณภาพของภาพที่ผลิตนั้นแปรผัน และการใช้ประโยชน์จากเนื้อหาที่สร้างโดยตัวแบบอาจก่อให้เกิดปัญหาเรื่องลิขสิทธิ์
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : การแพร่กระจายที่เสถียร