ใน iPhone รุ่นใหม่นี้ การพัฒนาด้านออพติคอลมีเพียงเล็กน้อย: แบรนด์กำลังวางเดิมพันกับโปรเซสเซอร์ A12 Bionic และการพัฒนาซอฟต์แวร์ใหม่เพื่อปรับปรุงภาพถ่ายของคุณ
iPhone เจเนอเรชันใหม่ตอบรับ “การถ่ายภาพด้วยคอมพิวเตอร์- “การถ่ายภาพจากการคำนวณ” อย่างแท้จริง เป็นวิวัฒนาการของการถ่ายภาพแบบคลาสสิกโดยที่โปรเซสเซอร์กลาง (CPU) มีบทบาทสำคัญยิ่งกว่าส่วนประกอบแบบเดิม เช่น เลนส์หรือเซ็นเซอร์ คำสัญญาเกี่ยวกับรูปถ่ายของ Apple นั้นขึ้นอยู่กับพลังและคุณภาพที่แท้จริงน้อยกว่าของรุ่นหลัง แต่ขึ้นอยู่กับพลังอันยิ่งใหญ่ของ CPU และตัวประมวลผลประสาทของ (ตามทฤษฎี) ที่ทรงพลังมากSoC A12 ไบโอนิค-
เมื่อมองแวบแรก iPhone XS และ XS Max มีฉากกั้นการถ่ายภาพคล้ายกับเลนส์เทเลโฟโต้ที่สองของ iPhone ที่ให้การซูม x2 แบบคลาสสิกที่พบใน iPhone ระดับไฮเอนด์นับตั้งแต่ไอโฟน 7 พลัส(อาจเทียบเท่ากับ 56 มม. f/2.8 ของรุ่นก่อนๆ)
ในด้านโครงสร้างด้านการมองเห็น เราพบว่าระบบป้องกันภาพสั่นไหว (เลนส์ลอยตัว) และโครงสร้างเลนส์ 6 เลนส์ ซึ่งสูตรต่างๆ อาจมีการพัฒนาไปบ้าง แต่ Apple ไม่เคยสื่อสารสูตรด้านแสงที่แม่นยำของมันเลย เป็นเรื่องยากที่จะพูด ทางยาวโฟกัสคงที่จะมีรูรับแสงเท่ากันiPhone X: คาดว่าจะได้รับเพิ่มขึ้นเล็กน้อยในแง่ของความสว่างหรือความแม่นยำของภาพ
จากมุมมองของเซ็นเซอร์ของโมดูลมุมกว้างหลัก ส่วนประกอบมีขนาดใหญ่กว่าเล็กน้อย: ไซต์ภาพถ่ายมีขนาดตั้งแต่ 1.22 ไมครอน (iPhone X) ถึง 1.4 ไมครอน อัตราขยายเชิงตรรกะจะมีความไวที่ดีขึ้นในสภาพแสงน้อย แต่ละ "พิกเซล" จะมีพื้นที่ผิวที่มีประโยชน์มากกว่าเล็กน้อย วิวัฒนาการครั้งแรกที่แสดงบนเอกสารทางเทคนิคมีการเพิ่มการปรับปรุงอีกอย่างหนึ่งที่สามารถอ่านได้ระหว่างบรรทัด: โดยการเน้นความสามารถของเซ็นเซอร์ในการถ่ายภาพหลายภาพในฉากเดียวกันในการถ่ายภาพต่อเนื่องเพื่อคำนวณและ "ประกอบ" ภาพ "สมบูรณ์แบบ" ( อ่านเพิ่มเติม) เราเข้าใจว่าเซ็นเซอร์หลักมีความเร็วในการอ่านที่รวดเร็วเป็นพิเศษ ความเร็วที่เข้าถึงได้ในปัจจุบันด้วยเซนเซอร์รุ่นเท่านั้น”เซ็นเซอร์แบบซ้อน CMOS- เซ็นเซอร์ CMOS แบบ "สแต็ก" ที่เรียกว่าวงจรโดยที่วงจรถูกวางไว้ที่ด้านหลังของส่วนประกอบทั้งหมด และมีชิปหน่วยความจำเข้าถึงโดยสุ่ม (RAM) ติดอยู่ที่ด้านหลัง ซึ่งช่วยให้สามารถดาวน์โหลดข้อมูลได้อย่างรวดเร็ว
การออกแบบเซ็นเซอร์นี้เรียกว่า "Exmor RS" ของ Sony ไม่ใช่สิทธิพิเศษของญี่ปุ่นอีกต่อไป - Samsung ได้เปิดตัวการผลิตส่วนประกอบที่มีการออกแบบคล้ายกัน แต่ปัจจุบันผู้เชี่ยวชาญด้านภาพถ่ายมีเทคโนโลยีที่ทันสมัยที่สุด Apple ไม่เคยเปิดเผยชื่อซัพพลายเออร์ ดังนั้นเราจะต้องรอวิศวกรรมย้อนกลับของส่วนประกอบต่างๆ โดยคนบ้าที่ Chipworks เพื่อดูว่ายังคงเป็นเซ็นเซอร์ของ Sony หรือไม่ โดยฝ่ายหลังจะส่งเซ็นเซอร์ไปยัง Apple จาก iPhone 4 !
พลังการประมวลผลเพื่อก้าวข้ามขีดจำกัดทางเทคนิค
ในการนำเสนอของเขา Phil Schiller ได้ประกาศสี: “หากภาพถ่ายได้รับอิทธิพลจากเซ็นเซอร์และออพติก ประสิทธิภาพของซอฟต์แวร์ก็มีความสำคัญมากขึ้น- สิ่งที่โดดเด่นยิ่งกว่า: ตามข้อกำหนดที่ประกาศโดย Apple ชิป A12 Bionic สามารถคำนวณการดำเนินการได้มากถึง 1,000 พันล้านรายการต่อภาพถ่าย ด้วยความพยายามร่วมกันของตัวประมวลผลภาพ (ISP) และตัวประมวลผลประสาทเทียม
การจลาจลของพลังงานซึ่งนำไปใช้กับอัลกอริธึมที่แข็งแกร่งและเซ็นเซอร์ที่เร็วเพียงพอ (ด้วยเหตุนี้เราจึงสงสัยว่าเซ็นเซอร์ Exmor RS) ทำให้ Apple สามารถเสนอ iPhone XS และ XS Max ได้โดยมีเวลาทริกเกอร์เป็นศูนย์ (“ความล่าช้าของชัตเตอร์เป็นศูนย์- หรือเพื่อจัดการไม่เพียงแต่การทำงาน "คลาสสิก" ของโปรเซสเซอร์ภาพ – การคำนวณ AF, สมดุลสีขาว, การลดสัญญาณรบกวนแบบดิจิทัล ฯลฯ – แต่ยังรวมถึงข้อมูลปลีกย่อย เช่น การแบ่งส่วนภาพ (ใบหน้ามนุษย์ ท้องฟ้า ทิวทัศน์ ฯลฯ) การระบุลักษณะเชิงปริมาตรของใบหน้า หรือแม้แต่การรวมภาพหลายภาพเข้าด้วยกัน เนื่องจาก (อาจ) ติดตั้ง RAM ไว้ เซนเซอร์ภาพจึงสามารถจับภาพพร้อมกันได้สูงสุด 8 ภาพ ได้แก่ ภาพปกติ 4 ภาพ และภาพกลาง 4 ภาพ (อินเทอร์เฟรม) เพื่อกู้คืนรายละเอียด ขึ้นอยู่กับประเภทของฉากในแสงจ้าหรือแสงน้อย .
องค์ประกอบของภาพสุดท้ายคุณภาพสูง (ค่าแสง, HDR, รายละเอียด ฯลฯ) จากภาพคุณภาพ "มาตรฐาน" หลายภาพถือเป็นหัวใจสำคัญของอนาคตของ "การถ่ายภาพด้วยคอมพิวเตอร์» และHuawei ได้พิสูจน์แล้วด้วย P20 Proซึ่งเป็นแกนหลักในการปรับปรุงคุณภาพของภาพของสมาร์ทโฟน เซ็นเซอร์ และออพติก ซึ่งเป็นเทคโนโลยีที่สมบูรณ์ซึ่งมีความก้าวหน้าช้ากว่าโปรเซสเซอร์ (มาก) iPhone XS และ XS Max จะกลับมาเป็นผู้นำในด้านคุณภาพของภาพที่ Apple สูญเสียไปตั้งแต่รุ่นที่ 7 ได้หรือไม่ การทดสอบจะพูดเร็ว ๆ นี้!
ศิลปะแห่งโบเก้เพื่อจำลองปฏิกิริยาตอบสนอง
โบเก้ เป็นคำภาษาญี่ปุ่นที่อธิบายความเบลอของพื้นหลัง ถือเป็นจอกศักดิ์สิทธิ์สำหรับเซ็นเซอร์ภาพในสมาร์ทโฟนขนาดเล็ก นี่ไม่ใช่ครั้งแรกที่ Apple สัญญาว่าจะถ่ายภาพบุคคลที่มีการเบลอพื้นหลังผ่านเสียงของ Phil Schiller ว่า "คู่ควรกับ SLR": นับตั้งแต่การมาถึงของโหมดแนวตั้งและโปรเซสเซอร์ A10 ของ iPhone 7 Plus Apple กำลังทำงานอย่างเข้มข้นกับมัน .
iPhone XS และ XS Max ต้องขอบคุณชิป A12 Bionic ซึ่งเป็นโหมดแนวตั้งใหม่ที่อุดมไปด้วยคุณสมบัติที่เราเคยเห็นในเทอร์มินัล Android หลายแห่ง (โดยเฉพาะ Huawei): โปรแกรมจำลองความเข้มของภาพเบลอด้านหลัง โดยพื้นฐานแล้ว ในโหมด "ภาพบุคคล" ของแอปพลิเคชันกล้อง จะเป็นวงล้อที่ให้คุณปรับเปลี่ยนค่ารูรับแสงจำลองได้ตั้งแต่ f/1.4 ถึง f/16
ที่ f/1.4 iPhone รุ่นใหม่จึงจำลองรูรับแสงกว้าง (การจำลองเซ็นเซอร์ Micro 4/3? APS-C? 24×36?) โดยบริเวณที่มีความคมชัดดีมากและพื้นหลังเบลออย่างเข้มข้น ที่ f/16 เราได้ภาพที่คมชัดตั้งแต่ด้านหน้าจนถึงพื้นหลัง นี่เป็นคำถามอีกครั้งว่า “การถ่ายภาพด้วยคอมพิวเตอร์» โดยที่เซ็นเซอร์ภาพและความลึกทำงานร่วมกันเพื่อตัดภาพออกเป็นหลายระนาบซึ่งโปรเซสเซอร์สามารถรวมเข้าด้วยกันแบบเรียลไทม์เพื่อจำลองการเรนเดอร์ของออปติก... สว่างกว่าออปติก "ของจริง" ซึ่งเปิดเป็น f/1.8 เท่านั้น!
iPhone XR: มีเพียงโมดูลกล้องเดียวแต่ประสิทธิภาพเกือบเท่าเดิม
หากไม่มีโมดูลกล้องเทเลโฟโต้ตัวที่สอง iPhone น้องชายคนเล็กที่ "ถูกกว่า"ขว้าง1.4 ไมครอน ไม่เพียงแต่สามารถนำเสนอการเรนเดอร์เท่านั้น”สมาร์ท HDR» เกิดจากการรวมภาพหลายๆ ภาพเข้าด้วยกัน แต่ยังมีโหมดเดียวกัน «โบเก้ขั้นสูง» และ «การควบคุมความลึก- โหมดถ่ายภาพบุคคลนั้นจำกัดอยู่ที่โมดูลมุมกว้าง แต่เราจะยังคงได้ประโยชน์จากเครื่องมือควบคุมความเข้มของการเบลอพื้นหลังแบบเดียวกัน แต่มีความยาวโฟกัสที่โดดเด่นน้อยกว่าเลนส์เทเลโฟโต้ของ iPhone XS และ XS Max
เราจำอะไรได้บ้างจากพาร์ติชั่นรูปภาพของ iPhone XR นี้ ค่อนข้างง่าย นอกเหนือจากการเรนเดอร์เทเลโฟโต้แล้ว Apple ยังนำเสนอภาพถ่ายระดับไฮเอนด์ที่ใช้เซ็นเซอร์ตัวเดียว เช่นเดียวกับ HTC ที่มี U11 และ U11+ ที่ยอดเยี่ยม พิสูจน์ให้เห็นแล้วว่านี่คือโปรเซสเซอร์ที่สร้างความแตกต่างอย่างแท้จริง
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-