iPhone 7 Plus 的第二个传感器主要用于肖像:在本月初的会议上,苹果通过在其巨大的屏幕上投影照片示例来强调了该功能。不幸的是,该功能在该设备发布时并未提供,这一缺席更加令人惊讶,因为苹果几乎不倾向于“稍后”做出承诺。
预计 iOS 系统的下一次更新(版本 10.1)将在未来几周/几个月内发布,“肖像”功能已经可供开发者使用。因此,我们测试的系统是 Beta 版本,该版本足够先进,足以了解 iPhone 7 Plus 的旗舰功能。
你的散景?
模糊背景效果通常被称为散景效果,该术语源自日语单词 boke(汉字中的“晕け”或片假名中的“ボケ”),意思是“模糊”。我们经常谈论镜头散景的质量来描述模糊区域的性质 - 是的,工程师在锐利区域和模糊区域上的工作一样多!由于物理原因,这种模糊效果几乎不可能用手机摄像头模块重现。事实上,影响相机清晰度的三个因素是:光圈的孔径、焦距(光学器件的视角)以及介质、传感器或胶片的尺寸(见下框)。
如果光学器件越来越亮,由于空间不足,传感器很难生长,并且这里的焦距通常也是广角的,主要是出于空间限制。苹果将其新模块的焦距推至 58 毫米,但为此必须缩小传感器的尺寸并降低光学器件的亮度。但如果物理学已经追上了苹果,这个加州品牌就会利用其处理器和算法的力量来对抗它。
新相机模组
iPhone 7 Plus 的主摄像头模块与普通 iPhone 7 相同,即 28 毫米广角焦距(相当于 24×36 反光),光圈为 f/1.8。新模块非常不同:传感器更小,光学器件亮度稍差,但焦距加倍,相当于 24×36 的 56 毫米,通常将焦距描述为“正常”,因为它比“传播”物体的广角更能尊重视角。
至于谈论传感器的尺寸,请小心:如果尺寸差异看起来微不足道,那么“普通”iPhone 传感器的表面积几乎比新传感器大 50%。正如我们将看到的,如果苹果的算法成功地再现模糊背景,这会对图像质量产生影响,特别是在低光条件下。
算法的力量
iPhone 7 Plus 在拍摄时捕捉了多张图像,并再现了我们所见过的如此小的传感器所无法存在的模糊效果。智能手机记录第一张 Jpeg 图像(除了肖像版本之外还检索的参考图像),并记录数百万个距离信息,用于确定面部/拍摄对象的距离(以及清晰度区域)以及图像的不同元素/像素的那些。
这项工作几乎是实时进行的,但如果我们可以从屏幕上预览效果中受益,我们就无法爆裂或机枪扫射某个对象,因为两幅图像之间存在 1 秒到 2 秒之间的延迟时间。
人像模式的实际应用
该功能逻辑上称为“肖像”,只能在 Apple 照片应用程序中使用。只要遵守一定的距离限制,该效果就能正常工作,系统仅在 0.5 m 到 2.5 m 之间工作。距离小于 50 厘米时,该设备没有足够的视野 - 而且 iPhone 尚未配备微距镜头。此外,拍摄对象可能过于沉浸在图像中。这并不太烦人,因为模糊肖像背景是一个相当标准化的练习。
撇开图像质量和色彩考虑不谈,无论是在屏幕上观看还是作为中型印刷品的一部分,它都非常合适。在大多数情况下,模糊效果非常令人满意,尽管有一些飞散的地方很难正确拉直。
然而,使用放大镜分析照片的高要求用户会注意到,第二个传感器(因此在肖像模式下)产生的图像的数字噪声和颗粒比主传感器上检测到的更强、更明显。 ,其尺寸较小的缺点。
仅 JPEG
新版本的 iOS 10 允许应用程序除了传统的 Jpeg 照片之外,还可以保存 RAW 文件格式的文件,即可以使用专门软件开发的“数字负片”。这种格式因其包含的大量信息(例如阴影和云)而受到摄影师的青睐,在“肖像”模式下不可用,原因很简单,这样的 RAW 文件不存在。 iPhone 7 Plus 的工作原理是根据同一传感器捕获的距离信息修改后的 Jpeg 照片。这个“正常”Jpeg 镜头与转换后的文件同时保存,这是一个好主意,以防所需的效果没有达到我们想要的效果。
苹果击败 HTC,但差距不大
据我们所知,第一家集成模糊背景模拟的手机制造商是 HTC 及其一台M8。当时的表演很有趣,但很多镜头缺乏真实感,因为模糊区域和锐利区域之间的界限太明显。如果说苹果能够比 HTC 走得更远,那既要归功于算法的改进,也要归功于移动处理器能力的爆炸式增长。
看看几年后的结果,我们发现台湾HTC在当时的组件方面做得非常好,但遗憾的是没有成功利用它们。仅仅成为第一是不够的,你必须在正确的时间做正确的事情。如果说苹果的解决方案还不完美,那么它也是目前为止最好、最成功的。