เมื่อรูปภาพที่สร้างโดย AI มีความสมจริงมากขึ้นเรื่อยๆ ความต้องการเครื่องมือในการตรวจจับของจริงจากของปลอมจึงกลายเป็นสิ่งที่น่าสนใจอย่างแท้จริง OpenAI ได้พัฒนาสิ่งที่ช่วยให้คุณระบุรูปภาพที่สร้างด้วย Dall-E
การตรวจจับภาพที่สร้างด้วย AI ด้วยตาเปล่ากลายเป็นเรื่องยากมากขึ้นเรื่อยๆ หมดยุคแล้วที่คุณต้องนับจำนวนนิ้วบนมือเพื่อดูว่ามีจริงหรือไม่... ปัญหาคือโมเดล AI เหล่านี้ไม่เพียงแค่สร้างภาพแมวน่ารักเท่านั้น แต่ยังสามารถสร้างเป็น ใช้ในการบิดเบือนความคิดเห็นของประชาชน
คำถามของความน่าเชื่อถือ
หัวข้อนี้มีความสำคัญมากขึ้นในช่วงปีการเลือกตั้งใหญ่นี้ (คนครึ่งโลกถูกเรียกให้ไปเลือกตั้ง!) เมื่อเดือนกุมภาพันธ์ที่ผ่านมา ผู้ปฏิบัติงานด้าน AI ได้ให้คำมั่นที่จะปกป้องประชาธิปไตยจากการใช้ปัญญาประดิษฐ์ในทางที่ผิดโดยการพัฒนาระบบลายน้ำตัวอย่างเช่น.
ลีร์การปกป้องประชาธิปไตยจากการละเมิด AI: ข้อตกลงจากยักษ์ใหญ่ด้านเทคโนโลยีที่จะนำเสนอภาพลักษณ์ที่ดี
ในส่วนของ OpenAI ได้เปิดตัวเครื่องมือที่ช่วยให้สามารถตรวจจับรูปภาพที่สร้างโดย Dall-E 3 ด้วยความน่าเชื่อถือ 98%...หากภาพเหล่านี้ไม่ได้รับการเปลี่ยนแปลงหลังจากการสร้างขึ้น โดยการครอบตัดหรือแก้ไขภาพเหล่านั้น เมื่อรูปภาพได้รับการแก้ไขหรือแชร์เป็นภาพหน้าจอแล้ว เครื่องมือคือ “เล็กน้อย» มีประสิทธิภาพน้อยกว่า ยอมรับบริษัทที่ยังคงรับประกันว่าจะสามารถระบุตัวตนได้อย่างแม่นยำ
OpenAI ยังตั้งข้อสังเกตอีกว่าในกรณี 0.5% เครื่องมือติดป้ายกำกับรูปภาพ “ปกติ” (ไม่ได้สร้างโดย AI) ไม่ถูกต้องตามที่ผลิตโดย Dall-E เมื่อพูดถึงการระบุรูปภาพที่สร้างโดยโมเดลอื่น เครื่องมือนี้มักจะทำให้เกิดความสับสน
ผู้สร้าง ChatGPT ซึ่งอยู่เบื้องหลัง Dall-E หวังที่จะปรับปรุงความน่าเชื่อถือของเครื่องตรวจจับปลอมด้วยการเปิดให้นักวิจัยภายนอก เครื่องมือซึ่งไม่ต้องใช้ลายน้ำได้รับการทดสอบเป็นเวลาหลายเดือน ไม่ว่าในกรณีใด มันจะต้องแสดงให้เห็นถึงความน่าเชื่อถือเมื่อเวลาผ่านไป: ตัวตรวจจับข้อความที่เขียนโดย AI ซึ่งเสนอโดย OpenAI ไม่นานหลังจากการเปิดตัว ChatGPT จะปลูกต้นไม้สามในสี่ของเวลา...
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : วารสารวอลล์สตรีท