谷歌夜景打开了创造性的可能性。
Sarah Tew/CNET
在过去的三年里,谷歌的Pixel手机以其摄影实力赢得了当之无愧的声誉。随着像素4和4 XL,公司正在展示新的相机硬件和软件肌肉。
搜索巨头谷歌(Android)周二发布的新款Android旗舰智能手机,获得了第二部1200万像素的摄像头,这是通过人为地模糊背景,将你的注意力集中在这一主题的大修肖像模式中的一个关键部件。新的肖像模式工作更准确,现在处理更多的主题和更多的组合风格。
额外的摄像头--谷歌自己泄露的功能--只是Pixel 4中的摄影技术进步之一。其他许多功能都来自于该公司在计算摄影技术方面的能力,包括更好的缩放、实时观看HDR+来微调你的镜头,以及将夜视功能扩展到天体摄影领域。
这些新功能是谷歌在冷酷无情、拥挤的智能手机市场上脱颖而出的最可靠方式。谷歌知道很多事情都发生在手机上。与智能手机的超级动力三星和苹果相比,这是市场上的一大亮点。今年6月,谷歌推出了价格低廉的Pixel3A,改善了其前景。但要想取得成功,谷歌还需要与运营商和其他零售合作伙伴建立更好的联盟,这些合作伙伴可以将客户引导到Pixel而不是三星Galaxy。
另见谷歌主页事件2019年:像素4,Pixelbook Go,Nest Mini,Pixel Buds,Stdia和更多的Google Pixel 4和4 XL手贴:两个后摄像头和那个丑陋的凹槽消失了像素Buds:Google的新无线耳机是‘耳朵里的浮动计算机’Nest Mini:向最新的(最小的)Google助理智能扬声器窗口.CnetFunctions.log(“服务加载:iframe_YouTube(GDPR许可禁用)”)问好;
改进摄影是谷歌自己可以做的事情,摄影也很重要。我们正在拍摄越来越多的照片,记录我们的生活,与朋友分享我们的时刻。难怪谷歌雇佣了少数全职的专业摄影师来评估它的产品。于是我和Pixel 4的相机领头人--谷歌杰出的工程师马克·莱沃伊和皮克斯相机产品经理艾萨克·雷诺兹--坐下来学习手机如何利用所有的新技术。
Levoy本人在Pixel 4发布会上展示了计算摄影功能,甚至分享了这项技术背后的一些数学知识。“这不是疯狂的科学,它只是简单的物理,”他对苹果自己的iPhone 11计算摄影技巧的描述有点刺耳。
Pixel 4的主相机有一个1200万像素的传感器和一个f1.7光圈镜头,而远距相机有一个1600万像素的传感器和一个f2.4孔径的镜头。不过,远摄相机只能产生1200万像素的照片,这些照片是从传感器的中心部分拍摄的。仅从中央像素中使用更严格的裁剪,就可以更大程度地缩小范围,避免处理1600万像素所需的更大的处理负担。Levoy说,谷歌正在使用索尼制造的传感器。
看三维空间的两种方法放大图像
像它的前辈一样,Pixel 4可以人为地模糊照片背景,将注意力集中在照片主题上。
谷歌
为了区分一个接近的对象和一个遥远的背景,像素4的肖像模式在3D中看到借用我们自己的立体视觉。人类通过比较两只眼睛的不同视角来重建空间信息。
然而,Pixel 4有两个这样的比较:从它的小镜头的一边到另一边有1毫米的距离,并且两个相机之间的距离更长--大约是两台相机的10倍。这些不同长度的双重缺口,首先让摄像机判断距离和近距的物体的深度。
雷诺兹说:“你可以利用每一种方法中的最好的一种,当一种是弱的时候,另一种是踢进去的。
这两个差距也是垂直的,这意味着一种方法可以判断上下的差异,而另一种则可以判断左-右的差异。这应该可以提高3D的精度,特别是像有很多垂直线的栅栏这样的东西。
坐在谷歌加州山景城总部的Levoy翻阅他的MacBookPro上的照片以显示结果。在一次拍摄中,一辆摩托车在其充分的机械荣耀跨越了一个镜头的全部宽度。在另一种情况下,一个人站在离摄像机足够远的地方,你可以从头到脚看到他。在两个镜头中平滑模糊的背景将是不可能与像素3肖像模式。
连续变焦
谷歌希望你把Pixel 4的双摄像机想象成一个单一的单元,具有传统相机连续变焦的灵活性。远摄焦距比主相机长1.85倍,但像素4将以与光学变焦相同的质量数字放大至3倍。
这是因为谷歌所谓的“超级RES缩放”技术,它巧妙地将摇摇欲坠的手从一个问题转化为一个资产。小晃动让相机收集更详细的场景数据,这样手机就能更好地放大照片。
Levoy说:“我经常使用4X,5X或6X,甚至不去想它。”
iPhone 11有一个像素4没有的超宽摄像头。但是Levoy说他宁愿放大也不愿放大。他在Pixel 4的发布会上说:“广角可能会很有趣,但我们认为远程遥控更重要。”
Pixel 4的超级RES缩放使用处理技巧来放大其相机的光学能力。
在你撰写照片时谷歌HDR+视图
HDR+是谷歌的高动态范围技术,用于捕捉明亮和黑暗区域的细节。它的工作原理是将9张曝光严重不足的照片快速地连续拍摄到一张照片中--这是一个计算上非常紧张的过程,直到现在才拍完照片。像素4,然而,应用HDR+的场景,你看到的是你正在创作一张照片。
Levoy说,这样你就可以更好地了解你会得到什么,这样你就不需要担心点击屏幕来设置曝光了。
明暗分开的摄像机控制装置
LiveHDR+让谷歌提供更好的摄像头控制。不只是一个曝光滑块亮或暗的照片,像素4提供单独的滑动明亮和黑暗的区域。
这意味着你可以在前景中看到一张阴影的脸,而不必担心你会洗掉后面的天空。或者你可以展示白色婚纱和深色礼服的细节。
Levoy说,这种双重控制方式是独一无二的,而不仅仅是在智能手机中。他说:“没有任何摄像机可以实时控制像这样的两个曝光变量。”
用占星术拍摄星星
2018年,谷歌延长了hdr+的夜视功能,这是一种夜间在昏暗的餐厅和城市街道上拍摄的突破能力。在晴朗的夜晚,像素4可以走得更远,为恒星提供一种特殊的天体摄影模式。
这款手机在4分钟的曝光时间内拍摄了16分钟的照片,减少了传感器的噪音,然后将图像合并成一张照片。
像素4的夜视模式可以拍摄银河系和单个恒星--如果天空足够清晰的话。
GoogleAI颜色校正
数码相机试图弥补蓝色阴影、黄色路灯和橙色烛光等会损害照片的色彩。Pixel 4现在进行了这一调整,称为白平衡,部分是基于人工智能软件训练的无数真实世界的照片。
Levoy给我举了一个例子,这是一个与众不同的例子,一张照片是一张女人的照片,她的脸有着天然的肤色,尽管她站在一个深蓝色的冰洞里。
更好的bokeh
在摄影圈中,离焦区域的特征被称为bokeh,随着Pixel 4的出现,它得到了改进,更像单反所能产生的效果。这是因为更多的纵向模式计算发生与原始图像数据,以更好的计算。点光源现在在bokeh产生白色的圆盘,而不是灰色的,例如。
深度数据,以便更好地编辑
Pixel 4增加了在每一张照片中记录被称为深度地图的3D场景信息的能力。这为AdobeLighttroom这样的工具提供了强大的编辑能力,它可以处理iPhone照片中的深度地图。
所有这些功能都代表着在计算摄影方面的巨大投资--一家苹果公司正在模仿自己的夜间模式,智能HDR和深度融合。Levoy承认,谷歌必须“跑得更快,呼吸更深,才能保持领先”。
但苹果也将更多的注意力放在谷歌的工作上。“如果苹果追随我们,那是一种奉承。”
最新消息,上午8:08,上午8:24,上午10:00。下午2:12:增加了有关谷歌新的计算摄影能力和像素4相机细节的细节。
Google Pixel 4和4 XL接受工业时尚外观25张照片分享你的语音评论标签Android更新移动照片Android 10(Android Q)谷歌
2KB项目(www.2kb.com,源码交易平台),提供担保交易、源码交易、虚拟商品、在家创业、在线创业、任务交易、网站设计、软件设计、网络兼职、站长交易、域名交易、链接买卖、网站交易、广告买卖、站长培训、建站美工等服务 |