中國焦點新聞   >   科技  >  正文

Google 解釋 Pixel 3 是如何靠 AI 改進人像功能的

跟前代相比,Google 今年出的 Pixel 3 系列在處理人像拍攝時的表現要來得更好。考慮到兩者用的都是單顆主相機的設計,所以改進大部分還是來源於軟件。那說到底,Google 究竟做瞭些什麼讓 Pixel 3 的人像算法變得更強?今天他們就決定發文來解釋一下。

在 Pixel 2 推出的時候,Google 是利用神經網絡和相機上的相位對焦技術(後者主要是跟視差效果有關)來確定拍攝時處於前景的對象。但這套方案在面對變化不大的場景時就容易出錯,而且在以小光圈進行拍攝的時候也比較容易發生問題。為瞭改善這些,Google 在 Pixel 3 上運用瞭新的神經網絡,希望通過對象的常規形狀、場景中不同點的清晰度等多項因素,來更準確地判斷對象距離。另外在訓練這套系統時,Google 也采用瞭一些創造性的辦法。比如說他們曾做出過把五臺 Pixel 3 綁在一起的「Frankenphone」,以同步記錄深度信息,來消除光圈、視差方面的不足。

看到 Google 在 AI 上投入瞭那麼多的資源,可見他們對單相機方案的決心是多麼之大。當然囉,你也可以反過來想。Google 一直堅持這種小眾做法的原因,搞不好也是為瞭探索算法的極限,從而秀出自己在人工智能領域的「肌肉」呢。

聯繫我們|www.chinafocusnews.com All Right Reserve 版權所有