The new NN-based DOCT utilizes a modified U-Net architecture to produce high-quality LIV (a specific type of DOCT) images from only four OCT frames. This significantly reduces the volumetric acquisition time to just 6.55 seconds per volume.
The NN was trained using breast and colon cancer spheroid samples with a customized weighted mean absolute error (wMAE) loss function to improve accuracy with skewed data distributions. Evaluations showed that NN-based DOCT images closely resemble conventional LIV images. The model also proved applicable to other sample types, such as alveolar organoids, despite being trained solely on spheroids.
This method enables a faster and reliable alternative for volumetric DOCT imaging.
The more details are published in Biomedical Optics Express.
Citation: Yusong Liu, Ibrahim Abd El-Sadek, Rion Morishita, Shuichi Makita, Tomoko Mori, Atsuko Furukawa, Satoshi Matsusaka, and Yoshiaki Yasuno, "Neural-network based high-speed volumetric dynamic optical coherence tomography," Biomed. Opt. Express 15, 3216-3239 (2024), https://doi.org/10.1364/BOE.519964
>> Full-length article (open access)
私たちの研究室ののYusong Liu さんがニューラルネットワーク(NN)ベースの高速ダイナミック光コヒーレンストモグラフィー(DOCT)法を発表しました。この手法は、組織代謝を非侵襲的かつ高速に可視化します。従来のDOCTでは、各部位で多数のOCTフレーム(通常32枚)を取得する必要がありました。そのため、3次元計測には1分近い長い計測時間が必要でした。
新しいNNベースのDOCTは、改良されたU-Netアーキテクチャを活用し、わずか4枚のOCTフレームから高品質のLIV(DOCTの一種)画像を生成します。これにより、体積画像取得時間が1体積あたりわずか6.55秒へと大幅に短縮されました。
このニューラルネットワークは、乳がんおよび大腸がんのスフェロイドサンプルから得られた学習データセットと、カスタマイズされた加重平均絶対誤差(wMAE)損失関数を用いて学習させています。このwMAEにより、偏った学習データ分布においても高い精度の学習を実現しました。評価の結果、NNで生成された画像は従来のLIV画像と非常に類似しており、様々な画像指標において優れた一致性と高い再現性を示すことがわかりました。また、このモデルはスフェロイドのみを用いて学習させたにもかかわらず、肺胞オルガノイドなどの他のサンプルタイプにも適用可能であることが示されました。
この手法により、今後、高速で信頼性の高いDOCT計測が実現されます。
詳細は、Biomedical Optics Express 誌に学術論文として掲載されています。
Citation: Yusong Liu, Ibrahim Abd El-Sadek, Rio
n Morishita, Shuichi Makita, Tomoko Mori, Atsuko Furukawa, Satoshi Matsusaka, and Yoshiaki Yasuno, "Neural-network based high-speed volumetric dynamic optical coherence tomography," Biomed. Opt. Express 15, 3216-3239 (2024), https://doi.org/10.1364/BOE.519964