[返回手机数码首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

Google Pixel 6首次配备三重后置摄像头,你会买谷歌手机吗

送交者: 浩瀚宇宙[★★★✦★★★] 于 2021-08-05 9:15 已读 674 次  

浩瀚宇宙的个人频道

+关注


谷歌本周透露了一些官方的Pixel 6 系列细节,从其新的内部Tensor SoC到设计等等,让我们所有人都感到惊讶。但最重要的是新手机实现了主相机升级。


特别是 Pixel 6 Pro 终于在 Pixel 系列的历史上首次配备了三重后置摄像头,尽管以典型的谷歌方式,比竞争对手的 Android 品牌晚了几年。这意味着我们在同一部手机上配备了标准相机、超广角镜头和长焦镜头,而不是之前的旗舰谷歌手机让你在超广角和长焦相机之间进行选择。


[iframe]"[/iframe]

不过,除了三摄像头系统之外,还有更多升级,这些可以为 Google Pixel 摄像头体验带来一些非常漂亮的改进。这是我们对 Pixel 6 和 Pixel 6 Pro 相机的期望。


主传感器终于得到升级



也许最显着的摄影升级是 Pixel 6 系列将获得全新的主摄像头传感器。这是一项重大的升级,因为自 Pixel 3 天以来,谷歌一直使用相同的 12MP IMX363 传感器,而 Pixel 2 的 IMX362 传感器也非常相似。


一个新的、更大的传感器可能会比旧的 IMX363 传感器带来一些改进,例如改进的动态范围和更好的细节。后者尤其是我们Pixel 5 评测中的一个抱怨,正如我们所说的细节丰富的场景图像,“看起来很忙,对比过度。”

谷歌表示,新的相机传感器将比旧传感器多捕获 150% 的光线(通过The Verge),这意味着我们应该期待夜间照片的改进。Pixel 相机应用程序可能不需要像前辈那样经常启用夜视模式,因为增强的聚光能力和更快的处理应该在标准照片模式下提供更明亮的照片。


我们之前看到谷歌也在 Pixel 5 上提供了夜视人像模式,因此改进的光线捕捉可以在不使用夜视或夜视人像的情况下拍摄更多低光人像照片,而不会在Pixel 5太暗的情况下。


一个新的主摄像头传感器意味着谷歌可能不必经常依赖 Night Sight。


我们还希望天文摄影图像和天文延时摄影有更好的结果。希望我们不需要等待 15 秒来获取单个天文摄影帧,而无需等待 4 分钟即可完成拍摄。改进的光捕获能力也为更多超低光功能打开了大门,例如低光视频录制和夜间延时。


目前还没有关于特定相机传感器的消息,但像 50MP三星 Isocell GN2这样的传感器还提供 Dual Pixel Pro 自动对焦技术并支持更多视频质量选项(例如 120fps 的 4K 和 8K 录制)。与竞争对手相比,谷歌通常在高分辨率视频选项方面有缺点,但如果它采用这样的模块,我们肯定会期待改进的自动对焦技术。


改进的自动对焦(和曝光)也符合谷歌相机工程师艾萨克雷诺兹在 Pixel 4 系列发布时所信奉的理念。也就是说,用户应该能够简单地打开相机应用程序并在不点击取景器的情况下获得正确的照片。


出色的软件变焦遇上出色的硬件



Pixel 6 Pro 还配备了 4 倍长焦相机——这是对Pixel 4系列的 2倍长焦镜头的重大升级。目前还没有关于 4x 相机的其他细节的消息,但这仍然让我们对新 Pixels 的变焦感到兴奋。


由于其 Super Res Zoom 功能,谷歌在出色的混合变焦技术方面与华为和三星并驾齐驱。事实上,我们自己的 Rob Triggs 发现Pixel 5 的纯软件变焦可提供高达 3 倍的良好图像。但是 Pixel 4 仍然向我们展示了将 Super Res Zoom 与专用的 2 倍长焦相机配对可以提供更好的效果,也可以提供稳定的 4 倍和 5 倍图像。


Super Res Zoom 和 4 倍长焦相机的组合意味着我们因此可以期待 Pixel 6 Pro 也能提供超过 4 倍变焦的出色图像。所有手机都有一个变焦由好变坏的阈值,但 Pixel 6 Pro 的阈值应该明显高于 Pixel 5 和 Pixel 4,凭借更高的原生变焦。


我们在装有 4 倍或 5 倍长焦相机(除了主相机之外)的手机中看到的一个潜在挑战是,短距离变焦往往会受到影响。我们已经看到像华为、Oppo 和其他公司这样的公司依靠图像融合技术来解决这个问题,将主摄像头和长焦摄像头的结果结合起来,提供 2 到 3 倍的稳定照片。


我们猜测谷歌可以对 4 倍以下的镜头做同样的事情,结合主摄像头、长焦摄像头和超分辨率变焦。我们已经看到一些手机在使用这样的图像融合技术时边缘细节减少,因此这可能也是谷歌需要注意的事情。


机器学习芯片的新承诺



Pixel 6 系列也将是第一款完全由内部芯片组驱动的谷歌手机,称为 Tensor 处理器。我们期待 Google 使用 Arm CPU 和 GPU 技术,但这里的大新闻是该芯片组具有 TPU(张量处理单元)。这是一种机器学习处理器,有望启用通常需要互联网连接的大量移动功能。


不过,这并不是我们第一次在 Pixel 手机中看到专用的 Google 芯片,因为它以前使用过 Pixel Visual Core 和 Pixel Neural Core。这些芯片完成了从加速 HDR+ 处理和语音推理到启用 3D 面部解锁的所有工作。但 TPU 承诺进行更大的升级,提供更大的马力,同时与谷歌早期的芯片相比,它也是整个芯片组不可或缺的一部分。


谷歌也在使用 TPU 来改进相机功能,该公司向The Verge展示了几个演示。一个这样的演示看到了一张蹒跚学步的模糊照片,谷歌通过 TPU 运行这张图片来去模糊孩子的脸。Pixel 制造商表示,除了现有的主摄像头多帧处理外,它还能够使用超广角摄像头作为处理过程的一部分,从而实现面部去模糊。


谷歌为 TPU 吹捧的另一个演示是改进的 HDR 视频录制。该演示将 Pixel 6 与 Pixel 5 和iPhone 12 Pro Max 进行对比,拍摄海滩的 HDR 视频(4K/30fps)。The Verge指出,Pixel 6 之所以名列前茅,是因为与 Apple 的设备相比,它没有人为地增亮阴影,同时看起来比两者都更自然。


谷歌告诉媒体,它对用于静态图像的 HDR 视频使用了相同的 HDR 过程。我们不禁感到这为改进的连拍模式打开了大门,Pixel 设备已经有一段时间没有这种模式了。


谷歌展示了“去模糊”面部和改进的 HDR 视频等功能,但更强大的机器学习可以带来更多功能。


更快的 AI 芯片提出的另一个可能性是,我们最终可以看到谷歌在 2017 年吹捧的对象去除技术。当时,它展示了一张在铁丝网围栏后面拍摄的图像,机器学习用于移除围栏以提供清晰的镜头。从那时起我们就没有见过这项技术,但理论上 TPU 可以启用它以及一般的对象擦除(如三星手机所见)和反射消除(如华为设备所见)等功能。


谷歌之前还使用机器学习硬件来启用以发烧友为中心的功能,例如双重曝光控制。这个漂亮的功能在 Pixel 4 系列上首次亮相,允许用户在拍摄前调整阴影级别。因此,希望 TPU 在取景器中提供更方便的功能,让用户减少访问编辑应用程序的理由。


前 Google 员工 Marc Levoy在 2019 年承认,该公司尚未解决在一次拍摄中同时捕捉详细月亮和月光景观的挑战。


这位前相机负责人将克服这一障碍的困难归因于明月和黑暗景观之间的动态范围太大,同时敦促人们“保持关注”以了解事态发展。


谷歌要么搁置这项工作,要么干脆等待更好的相机硬件和机器学习芯片,猜猜对 Pixel 6 系列有什么好处?


喜欢浩瀚宇宙朋友的这个贴子的话, 请点这里投票,“赞”助支持!

内容来自网友分享,若违规或者侵犯您的权益,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]