近年來,光聲顯微成像(PAM)作為一種新興的生物醫(yī)學(xué)成像技術(shù),憑借其高光學(xué)對比度、高分辨率和深層組織穿透能力,在血管生物學(xué)、腫瘤學(xué)和神經(jīng)科學(xué)等領(lǐng)域展現(xiàn)出巨大潛力。然而,在實際成像中,組織中的光學(xué)與聲學(xué)散射、信號衰減以及各類噪聲干擾,常導(dǎo)致圖像分辨率下降、信噪比降低,特別是深層或微弱信號的成像質(zhì)量難以保證。傳統(tǒng)的深度學(xué)習(xí)增強方法雖有效,但往往缺乏對成像物理規(guī)律的遵從,且嚴(yán)重依賴大量、高質(zhì)量的標(biāo)注數(shù)據(jù),泛化能力有限。
為此,南京理工大學(xué)智能計算成像實驗室的Haigang Ma, Shili Ren, Xiang Wei, Yinshi Yu, Jiaming Qian, Qian Chen和Chao Zuo等研究者,在國際知名光學(xué)期刊《Opto-Electronic Advances》上發(fā)表了題為“Enhanced photoacoustic microscopy with physics-embedded degeneration learning”的研究論文。他們創(chuàng)新性地提出了一種“物理嵌入退化學(xué)習(xí)”(PEDL)方法,將光聲成像的物理機理與深度學(xué)習(xí)模型深度融合,從而能夠自適應(yīng)地增強在不同退化條件(如不同成像深度、噪聲水平和激光能量)下獲取的PAM圖像質(zhì)量。
重要發(fā)現(xiàn)
01核心貢獻(xiàn):物理模型與深度學(xué)習(xí)框架的深度融合
該論文最核心的貢獻(xiàn)在于構(gòu)建了一個“物理嵌入”的深度學(xué)習(xí)框架。與純粹依賴數(shù)據(jù)驅(qū)動的傳統(tǒng)方法不同,PEDL方法在訓(xùn)練過程中,顯式地將描述光聲顯微成像物理過程的退化模型嵌入到神經(jīng)網(wǎng)絡(luò)中。這個物理模型基于聲束形成理論,考慮了超聲換能器的聚焦場模式、隨深度增加而加劇的信號衰減(通過補償函數(shù)α描述)、以及混合了高斯噪聲、瑞利噪聲和泊松噪聲的復(fù)雜噪聲環(huán)境η。在每一次網(wǎng)絡(luò)訓(xùn)練迭代中,物理模型中的參數(shù)(如點擴散函數(shù)卷積核h、噪聲η、衰減系數(shù))都會在合理范圍內(nèi)動態(tài)變化,從而生成符合物理規(guī)律且多樣化的“合成退化圖像-高質(zhì)量真值”圖像對。這種方法巧妙地解決了生物醫(yī)學(xué)成像中高質(zhì)量、大規(guī)模配對數(shù)據(jù)難以獲取的瓶頸問題。
大感受野與深度特征提。網(wǎng)絡(luò)輸入端采用9×9的大卷積核,以獲取更廣的視野來捕捉圖像全局特征。編碼器-解碼器路徑中集成了多個殘差塊(Res Blocks),通過堆疊3×3卷積層,能夠由淺入深地提取更復(fù)雜、更抽象的圖像特征,有利于同時恢復(fù)主干血管和微細(xì)血管。
全局上下文注意力機制:在網(wǎng)絡(luò)中引入了輕量化的全局上下文(GC)自注意力模塊。該模塊使網(wǎng)絡(luò)能夠捕捉特征圖的全局上下文信息,從而更好地理解圖像的整體結(jié)構(gòu)(如血管網(wǎng)絡(luò)的拓?fù)溥B接),這對于分析和識別被噪聲淹沒的微細(xì)血管至關(guān)重要。
復(fù)合損失函數(shù)引導(dǎo)優(yōu)化:訓(xùn)練中采用了均方誤差(MSE)損失與感知損失(Perceptual Loss)相結(jié)合的復(fù)合損失函數(shù)。MSE損失確保像素級別的重建精度,而感知損失則利用預(yù)訓(xùn)練的VGG-19網(wǎng)絡(luò)提取高層特征,使重建結(jié)果在視覺上更符合人眼感知,有助于恢復(fù)清晰的邊緣和紋理細(xì)節(jié)。在仿真實驗中,研究人員在合成數(shù)據(jù)上測試了PEDL在不同噪聲水平和不同退化程度下的表現(xiàn)。定量指標(biāo)(峰值信噪比PSNR和結(jié)構(gòu)相似性SSIM)顯示,PEDL的輸出圖像質(zhì)量顯著優(yōu)于輸入圖像,也超越了傳統(tǒng)的非深度學(xué)習(xí)去噪方法(如NLMD、NAD)。即使在強噪聲或嚴(yán)重退化條件下,PEDL不僅能有效去噪,還能恢復(fù)被噪聲掩蓋的微弱血管信號,并增強其對比度。
在仿體實驗中,為了模擬不同深度成像,研究者在活體小鼠耳朵上覆蓋了不同厚度的硅膠膜。實驗結(jié)果表明,隨著硅膠層數(shù)增加(模擬深度增加),原始PAM圖像亮度下降、噪聲增強、血管半高全寬(FWHM)增大。經(jīng)PEDL處理后,圖像背景噪聲被抑制,微細(xì)信號得到增強,血管FWHM平均縮小了10.2%至60.4%,且改善效果隨初始成像條件變差而愈加顯著,體現(xiàn)了方法的自適應(yīng)性。在改變激光能量的實驗中,PEDL成功恢復(fù)了在低能量下幾乎消失的微細(xì)血管結(jié)構(gòu)。
在活體小鼠腦部實驗中,PEDL與流行的cGAN、U-Net等方法進(jìn)行了直接對比。結(jié)果顯示,PEDL在恢復(fù)微細(xì)血管分支、提升圖像分辨率(減小血管FWHM)方面表現(xiàn)最佳。對輸出圖像的對比度噪聲比(CNR)和信噪比(SNR)的定量分析也證實,PEDL在增強血管信號的同時,能更有效地抑制背景噪聲。
最終結(jié)論表明,這種物理嵌入退化學(xué)習(xí)(PEDL)方法,通過將先驗物理知識融入深度學(xué)習(xí)框架,不僅減少了對大規(guī)模標(biāo)注數(shù)據(jù)的依賴,還顯著提升了模型對未知成像場景的泛化能力和重建結(jié)果的物理一致性,為獲得高質(zhì)量、高分辨率的活體光聲顯微圖像提供了一種新穎而強大的工具。
創(chuàng)新與亮點
突破成像物理限制與數(shù)據(jù)瓶頸的協(xié)同難題:傳統(tǒng)深度學(xué)習(xí)在生物醫(yī)學(xué)成像中的應(yīng)用,常面臨“模型不遵物理”和“數(shù)據(jù)獲取困難”的雙重挑戰(zhàn)。PEDL方法的根本性創(chuàng)新在于,它并非將物理模型與網(wǎng)絡(luò)簡單并列,而是將描述光聲信號衰減、散射和噪聲的物理退化過程動態(tài)嵌入到網(wǎng)絡(luò)訓(xùn)練循環(huán)中。這種“訓(xùn)練即仿真”的思路,使網(wǎng)絡(luò)在學(xué)習(xí)過程中直接內(nèi)化了成像系統(tǒng)的物理約束,從而生成物理上更可信的結(jié)果。同時,它利用物理模型合成大量逼真的訓(xùn)練數(shù)據(jù),一舉突破了活體實驗難以獲取大量完美配對數(shù)據(jù)的關(guān)鍵瓶頸。
提出“物理引導(dǎo)的退化學(xué)習(xí)”新范式:該方法代表了一種新的技術(shù)思路:即利用領(lǐng)域知識(物理模型)來指導(dǎo)數(shù)據(jù)的生成和網(wǎng)絡(luò)的學(xué)習(xí)過程,而不僅僅是預(yù)處理或后處理。具體到PEDL,它通過可變的點擴散函數(shù)、深度相關(guān)衰減補償和混合噪聲模型,構(gòu)建了一個能夠模擬多種實際成像條件的“數(shù)字孿生”環(huán)境。這使得訓(xùn)練出的網(wǎng)絡(luò)本質(zhì)上具備了應(yīng)對復(fù)雜多變現(xiàn)實場景的自適應(yīng)增強能力,無論是聲學(xué)分辨率還是光學(xué)分辨率PAM系統(tǒng),在不同噪聲、不同組織散射特性或不同激光能量下,都能穩(wěn)定提升圖像質(zhì)量。
在光學(xué)生物醫(yī)療領(lǐng)域彰顯明確的應(yīng)用價值:PEDL技術(shù)的價值直接體現(xiàn)在其解決臨床前研究痛點的能力上。首先,它能夠在不增加激光能量、不延長成像時間、不改造硬件的前提下,顯著提升現(xiàn)有PAM系統(tǒng)的成像性能,這意味著可以更安全地對活體生物進(jìn)行更長時間、更深層的觀察。其次,其強大的去噪和分辨率恢復(fù)能力,使得在體觀測更微細(xì)的血管結(jié)構(gòu)(如小鼠腦皮層微血管)、更微弱的生理信號成為可能,這對神經(jīng)血管耦合研究、腫瘤早期血管生成監(jiān)測等前沿領(lǐng)域具有重要意義。最后,該方法為突破光學(xué)衍射極限、在散射介質(zhì)中實現(xiàn)高質(zhì)量成像提供了新的軟件解決方案,有望推動光聲顯微鏡在基礎(chǔ)生命科學(xué)研究和臨床轉(zhuǎn)化應(yīng)用中發(fā)揮更大作用。總結(jié)與展望
總而言之,本研究提出的物理嵌入退化學(xué)習(xí)(PEDL)方法,成功地將光聲顯微成像的物理原理與深度學(xué)習(xí)的數(shù)據(jù)驅(qū)動優(yōu)勢相結(jié)合,為提升PAM圖像質(zhì)量開辟了一條新穎且有效的途徑。它不僅通過嵌入物理模型增強了重建結(jié)果的可靠性和泛化性,還通過合成數(shù)據(jù)策略緩解了數(shù)據(jù)依賴問題,并在仿真、仿體和活體實驗中均證明了其在去噪、增強分辨率、恢復(fù)微弱信號方面的卓越性能。
DOI:10.29026/oea.2025.240189.