rx100 苹果6,如何导出视频
一、如何看待索尼新出的RX100M4
真正的未来黑科技——且说隐藏在A7RII光辉下的RX100M4
转载自蓝拓科技。予之正名。
A7RII的背照式传感器和RX100M4的积层式(或者叫堆栈式,Stacked)传感器其实也并非是什么新型黑科技,在手机/卡片相机所用的小尺寸感光元件当中,这两种技术早已得到了大规模应用。
索尼第一款Exmor R背照式传感器的宣传文件,转自索尼日本**
记得当时我还有一台索尼TX5C,这款传感器的高ISO画质看起来确实比之前的老卡片机好了不少。相信这也是绝大多数用户对于背照式传感器的印象——高灵敏度。
然而,可能很多人忽略了这款小小卡片机的另一个技术指标——10fps的全像素连拍。
这就是背照式传感器的第二个优势——高速。
我们都知道,数码传感器的典型单元实际上有着两套结构,模拟部分和数字部分。模拟部分非常简单,一个典型像素的四个管子结构随随便便就能搞出来,也没有什么太大的提升空间。
难就难在数字电路。这里的数字电路和我们通常认知当中的CPU/GPU是一样的,想要提升性能,很大程度上依赖于两个要素——更多的晶体管和更高的工作频率。对于这类专用处理器来说,优化架构的空间实在是太有限了。
然而,对于传统的表面照明式(以下简称表照)CMOS来说,增加更多的晶体管就意味着占用更大面积,对于CMOS感光性能的影响也是毁灭性的。
背照式CMOS就没有这方面的忧虑,反正电路在后面,想铺多大铺多大,实现高速化就变得容易了很多。
这才是A7RII采用BSI-CMOS的真正原因。甚至三星NX1这款像素密度高很多的相机用上BSI也是这个原因——并不是因为传统的“背照式传感器高感好”。到了APS-C往上的尺寸,BSI对高感的增益微乎其微。
如果不采用BSI结构,读取速度无法达到4K超采输出的要求。
对于数字电路来说,提频率也是一种非常有效的方式。
然而,半导体工艺却是一个摆在高频面前不折不扣的一个大难题。
和一般人想象的不同,光电二极管和相应的模拟电路对于制程的要求其实非常的低,500纳米制程做这些玩意儿都是绰绰有余甚至有过剩。索尼的180纳米工艺相对于现在三丧和*特二用的14纳米也是已经落后了N代。
然而这并没有什么卵用,还是那句话,传统的传感器制造模式对制程几乎没有需求。
但数字电路部分不一样啊,人家还嗷嗷叫唤要高频要制程呢,佳能这边没办法,采用了把A/D和后端直接拿出去整体另外制作的方式,带来的后果就是引入额外的片间传输噪声,导致低感动态范围变差。
索尼这边还好,倒是能塞个内置ADC进去。但是效果其实也差强人意,内置ADC的这些传感器读取速度都非常的渣,连拍六张顶天了,4k超采没指望,逼得尼康D4/D4s只能去找瑞萨要高速传感器,甚至索尼自己的A7s,也是因为要顾忌4k输出实在没办法,也采用了外置A/D的方案。
这一对难兄难弟,动态范围只有13EV左右,没法与内置ADC的传感器相抗衡(成绩转自DxOMark)
怎么办!!难道就没有两全其美的办法了吗!!
在这样的大背景下,堆栈式CMOS正式从手机传感器领域走出,进入了专业用户的视野。
堆栈式CMOS一开始也是被用于小尺寸sensor的制造,商品名Exmor RS,苹果的新一代手机iPhone6/6+用的便是这么一块传感器。
(吐槽:把Stack一律翻译成堆栈的也是醉了,估计是那帮程序员搞出来的这么个翻译。在数字图像处理界叫叠加更合适,而在CMOS这里明显积层式这个翻译更好。不过既然约定俗成,那就这样吧。)
大家对于堆栈式CMOS的第一印象可能也是“开口率高,信噪比高,高感好”,而iPhone 6系列的表现确实也没让大家失望。
然而不知道大家有没有注意iPhone6的一个新功能——240fps慢动作拍摄。
240fps 720p输出,意味着什么?超越以往传感器太多的采样速度!
实际上,堆栈式CMOS的模拟层和数字层已经被分离,二者可以采用完全不同的半导体工艺进行制造。顶上的模拟层万年不更新用祖传工艺也没关系,底下的数字层么,据我所知现在正在使用的是45纳米工艺。RX100M4上的这一块堆栈式sensor,数字部分据说已经用上了28纳米——和现在复杂的纯数字电路芯片GTX TITAN X GPU用的是一样的工艺。
工艺的提升意味着刷高频可以刷到飞起,嗯。
所以RX100M4采用堆栈式CMOS,并不是像一般人想的那样为了提升高感。
而是第一为了4K拍摄,第二,有个1136×384@960fps(可插值到1080p)的超高速视频输出。第三,超高速的Rolling Shutter可以在1/32000s的情况下近似实现Global Shutter的无果冻效应效果。
这一切以往都是几十万的电影机才有的性能,如今只要几千块。
为了把高速CMOS玩出花儿来,索尼也真是太拼了。
这块CMOS快到什么程度?处理器根本来不及处理sensor输出的数据,索尼为了解决这个问题,特意在传感器内部集成了一块DRAM!这也算是前无古人了,不过还是想吐槽,为毛索尼的处理器总是不给力……
实际上,把速度玩出花来的方式简直太多。可能很多人不会意识到的是,我们静态照片画质的改善,可能后还要求助于超高速读取的传感器。
之前在讨论佳能传感器动态范围问题的时候我有说过,单次曝光获取照片的信噪比是存在上限的,这个上限由光的量子特性所决定,不是人类传感器技术的改进能控制。
但是!!
我们有一种后期提高信噪比而且不受任何限制的方式——均值法叠加。
每平均值叠加N张图,信噪比可以提升log2N倍。比如我拍摄64张图做平均值叠加,就可以获得6倍于单张照片的信噪比。
可能对于需要高速快门的应用来说并没有意义(因为为了保证均值叠加的曝光量,总曝光时间太短就意味着要提升ISO),但是对于慢门风光摄影这类应用来说,简直是*炸性的提升。
而且,不再需要ND滤镜也一样可以拉慢门。比如我需要拍摄30秒的长曝,不插ND时快门速度为1/30秒。传统的方法是插一张ND1000一次曝光,此时得到的信噪比为38.7dB(以A7R为例)。
而如果未来的传感器能达到30fps全采样RAW序列的速度,可以让机器每秒连拍30张,输出一个RAW序列,然后后期处理或者干脆机内实时叠加(不知道索尼会不会提供这个功能,实际上实现起来非常简单)这900张照片,获得一个原始文件,此时可以获得的信噪比达到了48.6dB!而且还完美避免了ND偏色、档位不合适、镜头上滤镜架难等等一系列问题!
对于动态范围来说也是一样。均值叠加可以有效的压制剩余暗部噪声,从而提升动态范围表现。
内置ADC的高动态范围传感器已经差不多革了GND的命,如果未来的高速传感器铺开到专业级机身上使用,那么ND镜进入历史的垃圾堆,也只是时间问题而已。
(而且如果真正到了那个时代,索尼的有损格式RAW反而会成为一个优势——文件体积小,不管是读取储存还是后期叠加以及对卡速的要求都会放低很多)
唯一的遗憾是或许这真的是只有风光摄影用户才能享受的福利了。
二、Sony***rx100***m4***如何导出视频
1、首先,将相机的数据线连接到计算机的USB接口。如下图所示,然后进入下一步。
2、其次,打开相机电源开关,如下图所示,然后进入下一步。
3、接着,确认相机已显示USB模式,如下图所示,然后进入下一步。
4、然后,成功连接后,单击进入相机存储卡,如下图所示,然后进入下一步。
5、随后,找到PRIVATEWE文件夹,点击打开,如下图所示,然后进入下一步。
6、后,在弹出窗口中,根据需要选择导出视频即可,如下图所示。