English | 中文版 | 手機版 企業(yè)登錄 | 個人登錄 | 郵件訂閱
生物器材網 logo
生物儀器 試劑 耗材
當前位置 > 首頁 > 技術文章 > 深部微血管超聲定位技術實現成像速度與精度雙重升級

深部微血管超聲定位技術實現成像速度與精度雙重升級

瀏覽次數:146 發(fā)布日期:2026-3-11  來源:本站 僅供參考,謝絕轉載,否則責任自負

超級分辨率超聲定位顯微成像是一種革命性的深部組織微血管成像技術。它通過精準定位和追蹤在血流中循環(huán)的超聲造影劑(微泡),能夠突破聲學衍射極限,實現微米級的空間分辨率,為從基礎科研到臨床診斷的血管研究提供了強大工具。然而,該技術長期面臨一個核心矛盾:為了確保微泡信號在空間上可區(qū)分,必須使用低濃度的微泡,這導致需要數十分鐘的長時間數據采集才能繪制出詳細的微血管圖,嚴重限制了其成像速度和實用性。

YiRang Shin, Matthew R. Lowerison, Yike Wang, Xi Chen, Qi You, Zhijie Dong, Mark A. Anastasio 和 Pengfei Song共同完成的研究論文《Context-aware deep learning enables high-efficacy localization of high concentration microbubbles for super-resolution ultrasound localization microscopy》,在期刊《Nature Communications》上發(fā)表。該研究成功引入了一種基于上下文感知深度學習的新型微泡定位技術,旨在破解高微泡濃度下的定位難題。

重要發(fā)現
本論文的核心貢獻是提出并驗證了一套名為“具有上下文感知的定位-超聲定位顯微術”(LOcalization with Context Awareness ULM, LOCA-ULM)的完整深度學習解決方案。該方案包含一個創(chuàng)新的、能夠生成高度逼真訓練數據的微泡模擬流程,以及一個能夠直接、高效輸出微泡坐標的定位神經網絡,從而顯著提升了在高微泡濃度環(huán)境下的成像性能。

01突破訓練數據瓶頸:基于LSGAN的逼真微泡模擬流程
訓練高性能深度學習模型需要大量帶有“標準答案”(即真實坐標)的數據,但對于活體內的微泡成像,獲取精確的真實坐標幾乎不可能。傳統模擬方法(如二維高斯模型或Field II聲場仿真)生成的微泡信號與真實的活體信號存在明顯差異,導致訓練的模型泛化能力差。

為此,研究團隊設計了一個基于最小二乘生成對抗網絡(Least-Squares Generative Adversarial Network, LSGAN)的模擬流程。該網絡首先學習從活體超聲圖像中提取的真實微泡信號的分布特征,然后能夠生成多樣且逼真的合成微泡模板。這些模板構成的“微泡庫”與真實信號極為相似,遠優(yōu)于傳統模擬方法的結果。在生成訓練圖像時,研究者還融入了微泡的特定屬性(如亮度、壽命、運動速度)以及基于實驗測量的瑞利噪聲模型,從而最大限度地縮小了模擬數據與真實數據之間的“領域差異”,為后續(xù)深度學習模型的穩(wěn)健訓練奠定了堅實基礎。

02實現高精度定位:基于DECODE架構的上下文感知定位網絡
面對高濃度下微泡經常重疊的挑戰(zhàn),研究團隊采用了為單分子定位顯微術設計的DECODE網絡原理,并將其轉化為適用于超聲定位的框架。該網絡的核心創(chuàng)新在于其“上下文感知”能力與聯合優(yōu)化目標。

首先,網絡架構利用了微泡信號的時空連貫性。它同時分析連續(xù)的三幀圖像,通過一個包含三個U-Net的幀分析網絡和一個時空上下文網絡,提取并整合跨幀的微泡運動信息,從而更好地區(qū)分緊密相鄰或短暫重疊的微泡。

其次,網絡的損失函數經過精心設計,聯合優(yōu)化“計數損失”和“定位損失”。計數損失引導網絡輸出一個稀疏的、高概率的微泡檢測概率圖,標示出可能存在微泡的像素區(qū)域。定位損失則在此基礎上,通過擬合一系列以檢測概率加權的二維高斯分布,直接預測每個被檢測微泡的亞像素級坐標和亮度。這種端到端的訓練方式,使得網絡無需像其他深度學習方法(如Deep-ULM, mSPCN)那樣先生成超分辨圖像再進行二次定位,從而實現了更高的效率和精度。

03卓越的性能驗證:從模擬到活體的全面評估
通過系統的模擬和活體實驗,LOCA-ULM展現出全方位的性能優(yōu)勢。
在模擬研究中,LOCA-ULM將微泡檢測準確率提升至97.8%,并將漏檢率降低至23.8%,各項指標均顯著優(yōu)于傳統的互相關歸一化定位法以及另外兩種深度學習方法(Deep-ULM和mSPCN)。在高濃度條件下,其定位精度最接近理論極限(克拉美-羅下界)。

在活體雞胚尿囊膜成像中,使用LSGAN生成模板訓練的LOCA-ULM,其血管填充率和填充速度均超過使用真實提取模板訓練的版本和傳統方法,能更完整地重建大小血管,尺寸更接近光學顯微鏡的參考結果。

在大鼠腦部成像中,LOCA-ULM的優(yōu)勢更為明顯。在高微泡濃度區(qū)域,傳統方法因定位失敗導致血管斷開、缺失,而LOCA-ULM則清晰揭示了致密、連通的大腦微血管網絡。即使不借助先進的微泡分離后處理技術,LOCA-ULM單獨表現已優(yōu)于結合了該技術的傳統方法。在功能性超聲定位顯微成像實驗中,LOCA-ULM因能定位更多微泡,使血流動力學信號采樣更充分,從而將激活檢測的靈敏度提高了約1.85倍,并可用更少的刺激周期重復次數獲得可靠的腦活動激活圖,提升了時間分辨率。

創(chuàng)新與亮點
01突破成像速度與精度的固有矛盾
論文直指超聲定位顯微術長期存在的核心難題:成像速度(依賴于高微泡濃度以快速填充血管)與定位精度(要求低微泡濃度以防止信號重疊)之間的不可兼得。傳統方法被迫在此權衡中取舍,導致要么成像耗時漫長,要么犧牲圖像質量。LOCA-ULM的成功,標志著這一固有矛盾的實質性突破,為實現“既快又清”的深部微血管成像提供了關鍵解決方案。

02提出“數據仿真-上下文感知定位”一體化新范式
本研究并非簡單應用現有深度學習模型,而是提出了一套創(chuàng)新的技術范式。其一,是首創(chuàng)了基于LSGAN的、數據驅動的微泡仿真流程,它不依賴于復雜的物理建模和系統參數標定,就能生成足以“以假亂真”的訓練數據,從根本上解決了監(jiān)督學習在活體超聲應用中的數據荒和領域差異問題。其二,是創(chuàng)造性地將光學超分辨領域的DECODE框架適配并應用于超聲成像,引入了“上下文感知”機制,使網絡能夠像人眼一樣,結合微泡的運動軌跡信息來“推理”出重疊信號下的精確定位,實現了定位策略的智能化升級。

03在光學生物醫(yī)療領域展現巨大應用潛力
盡管本文聚焦于超聲成像,但其技術理念與單分子定位顯微術等光學超分辨技術一脈相承,在更廣泛的生物醫(yī)學成像領域具有重要價值。在科研層面,該技術能以前所未有的速度和分辨率,無創(chuàng)、動態(tài)地呈現活體動物腦部、腫瘤等深部組織的完整微血管三維結構及血流動力學變化,為神經科學、腫瘤學、心血管疾病等研究提供強大的在體觀測窗口。在向臨床轉化層面,成像時間的大幅縮短使得檢查更易被患者接受,高靈敏度的功能性成像能力為癲癇灶定位、腦功能區(qū)測繪、腫瘤新生血管評估等提供了新的可能。因此,LOCA-ULM不僅是一項技術進步,更是推動超聲顯微成像從實驗室走向更廣闊應用場景的加速器。

總結與展望
總而言之,這項研究通過結合先進的生成對抗網絡模擬與上下文感知深度學習定位,成功開發(fā)了LOCA-ULM技術,有效解決了高微泡濃度下超聲定位顯微成像的瓶頸問題。該技術顯著提升了定位精度、效率和成像速度,并在活體大腦結構和功能成像中得到了卓越驗證,為快速、高分辨率的深部組織微血管可視化開辟了新途徑。

展望未來,該技術框架有望進一步擴展。例如,可探索將其應用于三維容積成像,以獲取更完整的微血管網絡信息;或與更先進的超聲序列(如非線性格波序列)結合,進一步提升信噪比和特異性。同時,如何使該框架能更自適應地應對不同超聲設備、成像參數和個體差異,實現更便捷的臨床推廣,將是下一步研究的重要方向。隨著深度學習與超聲成像的深度融合,像LOCA-ULM這樣的智能成像技術,必將持續(xù)推動生物醫(yī)學研究和臨床診斷向著更精準、更快速、更深入的方向發(fā)展。

論文信息
聲明:本文僅用作學術目的。
Shin Y, Lowerison MR, Wang Y, Chen X, You Q, Dong Z, Anastasio MA, Song P. Context-aware deep learning enables high-efficacy localization of high concentration microbubbles for super-resolution ultrasound localization microscopy. Nat Commun. 2024 Apr 4;15(1):2932.

DOI:10.1038/s41467-024-47154-2.

發(fā)布者:羅輯技術(武漢)有限公司
聯系電話:13260667811
E-mail:logiscience@163.com

用戶名: 密碼: 匿名 快速注冊 忘記密碼
評論只代表網友觀點,不代表本站觀點。 請輸入驗證碼: 8795
Copyright(C) 1998-2026 生物器材網 電話:021-64166852;13621656896 E-mail:info@bio-equip.com