探讨 iPhone SE2 人像模式功能为何不适合用来拍动物与物体-今日热榜-资讯-三龙汇之窗网
推广 热搜: 广州  深圳  SEO  贷款  医院  用户体验  机器人  网站建设    摩托车 

探讨 iPhone SE2 人像模式功能为何不适合用来拍动物与物体

   日期:2021-02-22 02:37:04     来源:互联网    作者:三龙汇之窗网    浏览:48    
核心提示:随着现在的生活水准越来越高,大家购买苹果的产品也是越来越多了,那么苹果的产品当中有很多的功能大家是未必知道如何去使用的,当然也包括...

随着现在的生活水准越来越高,大家购买苹果的产品也是越来越多了,那么苹果的产品当中有很多的功能大家是未必知道如何去使用的,当然也包括要去多了解苹果新出的新功能之类的,那么今天小编就收集了一些关于探讨 iPhone SE2 人像模式功能为何不适合用来拍动物与物体的一些信息来分享给大家,欢迎大家接着往下看哦。

苹果花了四年再度推出新款 iPhone SE (第二代),被多数人称为 iPhone SE2 新机,拥有 iPhone 8 外型/零件/镜头和 iPhone 11 的 A13 仿生处理器,值得注意是单镜头可支援人像模式,Halide 就针对 iPhone SE2 人像模式进行深入分析,发现到可透过第三方相机能解除原生人像限制,也可以用来拍摄动物或静态物体,但效果不太好。

cript>cript>

如果透过 iPhone SE(第二代)内建相机启动人像模式拍摄时,只要拍摄主题并非人物时,相机画面会跳出未检测人物错误,难道 iPhone SE 只能限制人像模式才能拍摄吗?

在 Halide 其中一位研究开发者 Ben Sandofsky 替 iPhone SE 镜头与演算法进行实际测试发现,新款 iPhone SE2 是一台搭载最新「单图深度预测(Single Image Monocular Depth Estimation)」设备,先前 iPhone 都未曾使用过,简单来说就是 iPhone SE 使用一颗 2D 镜头即可拍出人像模式,不过还需要依赖 A13 Bionic 处理器才能够实现。

cript>cript>

但是在 iPhone XR 不也是一样採用单镜头实现人像模式吗?是这样没有错,iPhone XR 利用镜头传感器的 Focus Pixels(相位对焦技术 , PDAF) ,可以透过焦点像素视差图提升对焦,进一步实现粗糙的深度图。

在新款 iPhone SE2 上则是无法使用 Focus Pixels,因为它採用的是比较旧款 iPhone 8 镜头传感器,只能完全依赖 A13 仿生晶片和机器学习来产生深度,只有在人像模式中识别到人脸辨识才会启动散景模拟效果,那么为何不能用于宠物或物品上呢?

如果想要摆脱人像限制,那就需要依赖第三方相机 App 才能够实现,从下方这张图来近一步了解 iPhone XR 和 iPhone SE2 在深度图差异,可以发现 iPhone XR 就算有色彩明显差异可识别动物主体和背景,不过还是难以识别后方狗狗的耳朵和边缘细节,这问题在 iPhone SE2 上已经完全改变,深度图非常明显可以识别近远和狗狗边缘的毛细节。

cript>cript>

左图 iPhone XR vs. 右图 iPhone SE2 深度数据(来源:Haild)

既然 iPhone SE2 也能够支援动物识别,为什么没有开放呢?

Sandofsky 在不同场景下拍摄宠物发现,在 iPhone SE2 机器学习中无法识别树木,如果刚好在拍摄宠物时,背后有树木之类景色时,手机无法辨别这是一只鹿或是一只狗头上面有树,导致宠物头身上会相同色系时会被视为是主体,并无法判断主体与背景的深浅。

cript>cript>

左图 iPhone XR vs. 右图 iPhone SE2 人像模式 (来源:Haild)

如以 iPhone 11 Pro 和 iPhone SE2 进行比较,拍摄狗狗躺在地板上图片,会发现到 iPhone 11 Pro 在三镜头的优势就非常明显,可以获得更多的数据,在 iPhone SE2 由于仅只有单镜头无法正确识别景深,导致只能识别整个走廊的地板。

cript>cript>

左图 iPhone 11 Pro vs. 右图 iPhone SE2 深度数据(来源:Haild)

如果拍摄非生物为主体,会发现到 iPhone SE2 同样无法识别前景与背景,导致整块融合再一起,反而在 iPhone 11 Pro 能够辨识物体深浅分层。

cript>cript>

左图 iPhone 11 Pro vs. 右图 iPhone SE2 深度数据(来源:Haild)

从以上可得知,Apple 在机器学习过程中已经完美利用分层技术,也能看出再多镜头和演算法下,在辨识深度拥有更佳的效果。

苹果在 iOS 12 加入 PORTRAIT EFFECTS MATTE (人像效果遮罩 ,  简称 PEM)API,意思是指可透过 PEM 来产生一张黑白深度遮罩图,能透过颜色区别了解深浅外,还能看出毛髮边缘与细节。

那么就能得知为什么 Apple 不打算替 iPhone SE2 人像模式功能延伸在宠物或物体拍摄,主要原因是在于人像拍摄效果在拍人部分会获得最佳的效果,也不想让使用者感到失望,这也就是指人类遮罩、机器学习深度图借助于 A13 优势下,拍摄人像效果会是最好的。

那么很多人在意 iPhone 多镜头对我而言没有作用,只要有单镜头可以拍就够了,的确每个人需求都会不一样,但也不能直接否认 iPhone 多镜头没有任何作用,毕竟在超广角、望远镜头拍摄中,还是利用光学镜头比起数位变焦会来的更好。

Halide 认为虽然 iPhone SE2 单镜头和採用最新「机器学习」技术,但是深度讯息获取能力不比 iPhone 11双镜头或 iPhone 11 Pro 系列三镜头来的好。

主要原因是 iPhone SE2 仅只是靠机器学习来判断一张2D平面照片的实际深度,特别是在拍摄非人像时,就容易无法识别主体与背景之间的距离,容易导致误判情况。

疯先生在实际拿 iPhone 11 Pro 系列测试,发现三镜头也并非会同时间启动取得场景深浅,一次只会同时启动两颗镜头来判别与计算,这也是为何多镜头下能够拍出非人像以外的事物,会比起单镜头来的準确。

cript>cript>

那么在多镜头下,为什么就可以精準取得深浅?

现在你可以试试看用左手遮住自己的左眼,透过右手的手指头去碰触桌上其中一个物体,会发现眼睛与大脑明明已经感觉到我已经碰触到,还是需要一直往前才能真实的碰触到,比起两只眼睛再次尝试透过手指碰触物体,视觉就能轻易识别要触碰的物体远近,这也是为什么 Apple 还需要额外增加镜头的原因。

新 iPhone SE 和 iPhone 8、iPhone 11差异整理,该买哪款比较适合 2020款 iPhone SE 为何推出?亮点特色有哪些 值得入手吗? iPhone SE Plus 何时推出?苹果新机卖太好延迟开卖 替你盘点10个不值得入手 iPhone SE2 理由 iPhone SE2换成 iPhone 8旧萤幕 就能实现 3D Touch 功能?

图片与参考资料来源:halide

如喜欢这篇文章教学的话,后续也想了解更多 Apple 资讯、 iPhone 、Mac 隐藏 3C 技巧,欢迎追蹤 疯先生 FB 粉丝团、Telegram、MeWe、Instagram以及 订阅YouTube频道,将会有更多非常实用的技巧教学分享给大家。

 
免责声明:以上所展示的信息由网友自行发布,内容的真实性、准确性和合法性由发布者负责。 三龙汇之窗网对此不承担任何保证责任, 三龙汇之窗网仅提供信息存储空间服务。任何单位或个人如对以上内容有权利主张(包括但不限于侵犯著作权、商业信誉等),请与我们联系并出示相关证据,我们将按国家相关法规即时移除。

本文地址:http://b2b.shop.wlchinajn.com/news/slh37285.html

打赏
 
更多>同类资讯

推荐图文
推荐资讯
点击排行

网站首页  |  付款方式  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  违规举报
免责声明:本站所有信息均来自互联网搜集,产品相关信息的真实性准确性均由发布单位及个人负责,请大家仔细辨认!并不代表本站观点,三龙汇之窗网对此不承担任何相关法律责任!如有信息侵犯了您的权益,请告知,本站将立刻删除。
友情提示:买产品需谨慎 网站处理与建议邮箱:slhzc@qq.com