冰蚁 发表于 2017-11-26 23:43:04

你举的iphone例子完全颠覆你上面其它例子的结论嘛。手机拍照的最后堡垒大概只有体育摄影了。快门还是跟不上。

晨枫 发表于 2017-11-26 23:50:20

冰蚁 发表于 2017-11-26 09:43
你举的iphone例子完全颠覆你上面其它例子的结论嘛。手机拍照的最后堡垒大概只有体育摄影了。快门还是跟不上 ...

那你就用手机拍照嘛,又没人拦着你。

冰蚁 发表于 2017-11-27 00:07:35

晨枫 发表于 2017-11-26 10:50
那你就用手机拍照嘛,又没人拦着你。

猫帅其实问了一个很好的问题。他的想法可以算是光场相机的最原始想法。光场的概念在手机摄影里会越玩越多。随着cmos越来越大,专用大数据处理芯片的逐步发展(比如类似阿尔法狗里用的TPU),machine learning等AI辅助运用,光场处理会越来越快,画质也会得到根本性的提高,虽然目前还有些年的路要走。

晨枫 发表于 2017-11-27 01:04:24

本帖最后由 晨枫 于 2017-11-26 11:22 编辑

冰蚁 发表于 2017-11-26 10:07
猫帅其实问了一个很好的问题。他的想法可以算是光场相机的最原始想法。光场的概念在手机摄影里会越玩越多 ...

弄错方向了。光场相机需要的是厚度,手机相机最怕的就是厚度。而且光场相机改变的只是对焦和景深,其他光学问题一概没辙。现在手机相机不在乎对焦速度的,对焦本身不是问题,大景深更不是问题。光场需要的大量微透镜也有最小尺寸限制(light diffraction),微小型化有物理限制。

https://picturecorrect-wpengine.netdna-ssl.com/wp-content/uploads/2014/01/light-field-cameras-4.jpg

https://www.dpreview.com/files/p/articles/4755156977/Lytro_stacked.jpeg

冰蚁 发表于 2017-11-27 02:05:54

本帖最后由 冰蚁 于 2017-11-26 13:08 编辑

晨枫 发表于 2017-11-26 12:04
弄错方向了。光场相机需要的是厚度,手机相机最怕的就是厚度。而且光场相机改变的只是对焦和景深,其他光 ...

你这个是lytro的设计。这条路已经死了。

google 走的是纯算法的路子。
https://research.googleblog.com/2014/04/lens-blur-in-new-google-camera-app.html

更多的手机厂家走的是双镜头设计。华为走得更远一点,目前加入了寒武纪的芯片。

另一条路子象神牛上次贴的 light camera L16 那种,搞一堆镜头,暴力法。但这玩意儿的耗电和数据处理目前都还不行。需要更省电更快的数据处理芯片。

晨枫 发表于 2017-11-27 08:23:15

冰蚁 发表于 2017-11-26 12:05
你这个是lytro的设计。这条路已经死了。

google 走的是纯算法的路子。


你说了半天,就是一个lens blur,也就是模拟的大光圈效果。你肯定没有看完我写的主贴吧?这东西还需要从同一画面的一系列图像中分析,有任何活动物体或者需要“冻结”画面的情况的话,自求多福吧。

冰蚁 发表于 2017-11-27 08:35:29

晨枫 发表于 2017-11-26 19:23
你说了半天,就是一个lens blur,也就是模拟的大光圈效果。你肯定没有看完我写的主贴吧?这东西还需要从 ...

看完了。但光场分析肯定是个趋势,会对相机产生一个变革。至于活动物体还真不是问题。图像识别里对活动物体的识别问题不大。

晨枫 发表于 2017-11-27 09:09:20

冰蚁 发表于 2017-11-26 18:35
看完了。但光场分析肯定是个趋势,会对相机产生一个变革。至于活动物体还真不是问题。图像识别里对活动物 ...

我等着天文台、NASA、各国军方用广场取代传统镜头呢。

冰蚁 发表于 2017-11-27 09:31:37

晨枫 发表于 2017-11-26 20:09
我等着天文台、NASA、各国军方用广场取代传统镜头呢。

颠覆和100%取代本来就是两个概念嘛。这年头胶卷机还活着呢。

晨枫 发表于 2017-11-27 11:18:02

冰蚁 发表于 2017-11-26 19:31
颠覆和100%取代本来就是两个概念嘛。这年头胶卷机还活着呢。

不要替换概念。天文台、NASA、军方的光学应用不是niche,是最前沿技术。你现在的所有……注意是所有……光学概念和基本技术都是从这些地方来的。如果光场那样强悍,没有理由不首先在最前沿得到应用。如果只有手机级应用,只能说,这东西不适合真正需要光学质量的地方,本来就是骗人的。

世界上做相机的公司还很多。这样简易、优秀的东西为什么没有人前赴后继呢?这不正是把传统领域霸主打翻在地的好机会?都睡觉去了?

冰蚁 发表于 2017-11-27 11:42:20

晨枫 发表于 2017-11-26 22:18
不要替换概念。天文台、NASA、军方的光学应用不是niche,是最前沿技术。你现在的所有……注意是所有…… ...

这个玩意儿可不是简易啊。对大数据的处理应用才是方兴未艾。连大数据专用处理芯片都还在研发中。。。。
nasa,军方的技术和最前沿领域也不一定挂钩,不是所有的。半导体这方面老技术运用比比皆是。卫星上的处理器老得一塌糊涂。这种场景下的运用要考虑得更多的是防辐射,可靠性,而不是新技术。

晨枫 发表于 2017-11-27 11:54:12

冰蚁 发表于 2017-11-26 21:42
这个玩意儿可不是简易啊。对大数据的处理应用才是方兴未艾。连大数据专用处理芯片都还在研发中。。。。
n ...

别把大数据、人工智能说得那么神秘。骗微信圈可以,在这里就不必了。

NASA在60年代就用数字图像处理了,谷歌创始人的爹妈还没有嗨到一起呢。人工智能也是DARPA的前身折腾起来的。在反恐战争中,这些都用于识别游击队和IED,你说是挂钩还是不挂钩?

CMOS和CCD是最早用在卫星照相上的,图像处理已经到考虑光学镜片的光学特性的地步了,用电脑矫正衍射、色差、光路扭曲……,看谷歌什么时候把这些整合到手机上吧。

冰蚁 发表于 2017-11-27 11:59:47

晨枫 发表于 2017-11-26 22:54
别把大数据、人工智能说得那么神秘。骗微信圈可以,在这里就不必了。

NASA在60年代就用数字图像处理了, ...

嘿嘿,就卫星上的电脑那点处理能力,大数据还是算了吧。

晨枫 发表于 2017-11-27 12:00:18

冰蚁 发表于 2017-11-26 21:59
嘿嘿,就卫星上的电脑那点处理能力,大数据还是算了吧。

没错,那就指望着手机干大数据了。

冰蚁 发表于 2017-11-27 12:01:09

本帖最后由 冰蚁 于 2017-11-26 23:02 编辑

晨枫 发表于 2017-11-26 23:00
没错,那就指望着手机干大数据了。

至少华为还整了个寒武纪进去呢。

{:189:}

而且你也别小看手机芯片,计算能力是强过卫星系统滴。

晨枫 发表于 2017-11-27 12:02:00

冰蚁 发表于 2017-11-26 22:01
至少华为还整了个寒武纪进去呢。

等着侏罗纪呢。

五月 发表于 2017-11-27 13:55:26


完全不懂技术,仅仅看个热闹, 给晨大捧个场.

不过为什么人眼的瞳孔比手机镜头大不了多少, 而单反镜头比人的瞳孔打n倍, 为什么人能看到这么丰富的图像呢?

或者说无论手机镜头成像也好, 单反镜头成像也好, AI黑科技成像也好, 最后不都得经过人眼的瞳孔吗?

还有, 镜头直径大固然能增加入射光线, 那么小镜头增加曝光时间是不是可以令入射的光子数量等于大镜头的数量呢?似乎哈勃就是靠长时间曝光来增加光子进入的数量来成像的。

光子数量 = 镜头直径 x快门时间

比如单反快门时间是1/100秒,那么我令手机镜头快门时间为1秒,不就相当于手机镜头通光面积扩大为100倍了吗?

虽然似乎1秒的快门时间必定导致过曝,但是我们不是有AI芯片嘛。把收到的光子们随便排一排,不知道能不能弄出好照片来。

{:189:}

晨枫 发表于 2017-11-27 14:03:31

五月 发表于 2017-11-26 23:55
完全不懂技术,仅仅看个热闹, 给晨大捧个场.

不过为什么人眼的瞳孔比手机镜头大不了多少, 而单反镜头比人 ...

人眼作为光学仪器,技术水平是任何镜头望尘莫及的。这个已经到了不能比较的地步了。

小镜头确实可以通过增加曝光时间来补偿,问题有两个:
1、很多场合不容许这样增加曝光时间,尤其是手持照相
2、现在电子技术不能避免长时间曝光的累计噪点问题

五月 发表于 2017-11-27 14:30:25

本帖最后由 五月 于 2017-11-27 14:33 编辑

晨枫 发表于 2017-11-27 14:03
人眼作为光学仪器,技术水平是任何镜头望尘莫及的。这个已经到了不能比较的地步了。

小镜头确实可以通过 ...

谢晨大指教。完全不懂技术,乱说几句。

1. 不知道通过光学防抖技术能不能补偿。更有前途的似乎还是算法补偿(也许叫AI更时髦吧)。以前我看过一篇文章,讲美国好像有算法用来处理卫星图片,对图片一个像素一个像素矫正。原理是抖动和大气扰动对图像的影响是全局性的。那么就可以找到全局性的偏差,通过算法对每一个像素做修正。似乎光学问题就转化为了AI问题(说AI是为了时髦,也因为我不是很懂,借用这个概念)

2. 人眼基本要睁一天,似乎累计噪点应该大到无穷大了。那么人脑是怎样来处理这个问题呢?也许就像围棋一样,开发了一个算法AI,突然相机都不用快门了,平时镜头就这么开着,想要那张照片,AI就七里咔嚓一顿处理,然后就拿出一张完美照片:D

假设手机算力增加两个数量级,能够完成上述两个算法, 那么会不会手机照片也能媲美单反啦:D:D:D:D

晨枫 发表于 2017-11-27 22:55:37

五月 发表于 2017-11-27 00:30
谢晨大指教。完全不懂技术,乱说几句。

1. 不知道通过光学防抖技术能不能补偿。更有前途的似乎还是算法 ...

你提到的一个像素一个像素校正,这已经在卫星照相上做到了。是在卫星上做,还是下传后在地面做,这个不清楚,有可能是后者。数据传送量应该是一样的。

人眼是如何看到图像的,是不是能仿生,这个我想很多人都在研究这个问题,只是现在还没有研究出来。这是物理机制的问题,不是算法问题。

AI或者算法现在很热门,但要清楚的是:算法是不能取代信息的,而信息依然只能通过传感器获得。光学镜头就是传感器的一部分。

另外,即使技术上能完美复现人眼,也无法实现我在主贴中说到的那些。比如说,长焦就不是眼睛能做到的,人也需要望远镜帮忙。夜间人眼也看不见,微光技术的夜视能力大大超过人眼,这也是CCD技术。
页: 1 [2] 3
查看完整版本: 手机有双镜头,为什么相机还是单镜头