郭安郑:masi是光学成像的一次大转变

从前,有一个叫郭安·郑的人,他在康涅狄格大学当教授,还管着生物医学与生物工程创新中心,大家都喊他CBBI。他和同事们这次在Nature Communications上发表了一篇论文,讲的是一种叫MASI的新型图像传感器,专门为了突破光学成像的极限。以前咱们观察宇宙,要么用射电望远镜看遥远的星系,要么用显微镜看细胞内部,那时候谁能想到呢?但一直有个难题让大家头疼:想用光学镜头同时拍到高分辨率的大范围画面,这事儿太难了。 传统的光学系统都要靠笨重的透镜把光聚焦到传感器上,而且还得让几个传感器完美同步工作,这个精度简直是不可能完成的任务。射电天文学里倒是能用合成孔径成像,不过那是因为射电波的波长长,好同步。但到了可见光波长这儿,东西小了几十倍,想让传感器们在纳米级上保持同步几乎没戏。 这下MASI就登场了。它的做法很不一样,不用强迫传感器一起工作,而是让它们各自独立测量光线。这就好比让一群摄影师同时拍同一场景,拍的不是普通照片,而是记录了光波特性的原始数据。接着再让软件把这些独立的数据拼接起来,就能合成出超高分辨率的图像。这种计算相位同步的方法特别厉害,直接把以前那些因为物理限制不能用的干涉仪给淘汰了。 MASI到底是怎么成像的?其实就是用了一组编码传感器,分布在衍射平面上不同的位置。每个传感器抓到的都是原始衍射图样,说白了就是光波和物体互相作用后扩散的样子。这些图样里藏着光的幅度和相位信息。一旦把这些信息算出来恢复成复杂的波场,系统就会进行数字填充,把波场传播回物体平面。然后用计算方法反复调整每个传感器数据的相位偏移量,让所有数据凑在一起最连贯、能量最强。 这一步就是关键所在!因为以前都是靠物理对齐传感器来实现高分辨率,现在完全不用了。通过在软件里优化组合波场,MASI就把衍射极限给打败了。结果是什么?咱们得到了一个虚拟合成孔径,比单个传感器大得多,分辨率达到了亚微米级别,还能看一大片范围。 你可能会问传统镜头有什么不好?其实它给设计师出了一道难题:想要看清小的东西就得靠得很近,通常只有几毫米远。这就限制了工作距离,有的东西根本没法靠近观察。但MASI根本不需要镜头!它可以站在离物体几厘米远的地方捕捉衍射图样,最后重建出分辨率超高的图像。这就好比你坐在桌子对面就能看清人头发上的细微纹理,根本不用凑近去盯着看。 郭安·郑觉得这个东西应用范围特别广,不光能用在医学诊断和工业检测上,甚至还能用来做遥感。不过最让人激动的还是可扩展性。普通的光学系统要是想做大变得越来越复杂,但咱们这个系统是线性扩展的,以后可能会搞出一些我们现在还没想出来的大规模阵列应用。 MASI真是光学成像的一次大转变啊!它用软件控制的传感器阵列代替了笨重的镜头,把测量和同步分开来做,开辟了一个新的领域。想了解更多?看看Ruihai Wang他们写的那篇文章吧:《多尺度孔径合成成像仪》,DOI是10.1038/s41467-025-65661-8。