tag:blogger.com,1999:blog-16794294068264248102024-03-08T20:32:20.740+09:00Computational Optics Group Press RoomWe are Computational Optics Group at the University of Tsukuba, and<br>
we visualize your body.COG bloggerhttp://www.blogger.com/profile/10977659199195907156noreply@blogger.comBlogger113125tag:blogger.com,1999:blog-1679429406826424810.post-51348511881956213162023-10-09T21:46:00.005+09:002023-10-11T00:22:58.224+09:00Visti us at BioJapan 2023<p></p><div class="separator" style="clear: both; text-align: center;"><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgTSLY-nKJyNg2P0UScoA73W0v-CeCBAB4YWKdpZ4COTe4YD6zfTYlDsv8IcdE6rwgZpALESomGRxuUBioemZPCFMamjl35Uk5VN41X_dkKE_8AzIpsp2ed8ZEyX513q7MznYzeYcpfOBKsQuwcRMcoqeS1tYI9WILEgdw1N_r_yTs88LnVbv8WQ2Idpj-C/s1920/Organoid3D.jpg" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img border="0" data-original-height="1080" data-original-width="1920" height="113" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgTSLY-nKJyNg2P0UScoA73W0v-CeCBAB4YWKdpZ4COTe4YD6zfTYlDsv8IcdE6rwgZpALESomGRxuUBioemZPCFMamjl35Uk5VN41X_dkKE_8AzIpsp2ed8ZEyX513q7MznYzeYcpfOBKsQuwcRMcoqeS1tYI9WILEgdw1N_r_yTs88LnVbv8WQ2Idpj-C/w200-h113/Organoid3D.jpg" width="200" /></a></div><a href="https://jcd-expo.jp/ja/" target="_blank">BioJapan Exhibition</a> で OCT顕微鏡の実機をごらんください。<p></p><p>OCT alliance として "Label-free tomographic microscope" の実機展示を行います。</p><p>今回の展示では実際に2台のOCT顕微鏡プロトタイプを用いて計測を体験することも可能です。また、規格製品、カスタム製品作成のご相談、<br />アカデミック共同研究のご相談もさせていただければと思います。</p><p>OCT alliance は Compuational Optics Group (筑波大学)、株式会社 スカイテクノロジー、シンクランド株式会社によるOCT顕微鏡技術・製品の研究開発アライアンスです。</p><p>商業製品に関するご相談はスカイテクノロジー社、シンクランド株式会社によるOCT顕微鏡技術・製品の研究開発アライアンスです。</p><h2 style="text-align: left;">展示情報</h2><p>BioJapan 2023 (<a href="https://jcd-expo.jp/" target="_blank">展示会公式 web-site</a>)</p><p></p><ul style="text-align: left;"><li>展示期間 2023/10/11 (Wed) - 13 (Fri)</li><li>Booth: C-64 </li></ul><h2 style="text-align: left;"><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen="" class="BLOG_video_class" height="266" src="https://www.youtube.com/embed/h11zwWxUh9I" width="320" youtube-src-id="h11zwWxUh9I"></iframe></div><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen="" class="BLOG_video_class" height="266" src="https://www.youtube.com/embed/RDU-lURlyPQ" width="320" youtube-src-id="RDU-lURlyPQ"></iframe></div><br /><div style="text-align: left;">The OCT Alliance</div></h2><div>We are OCT alliance made from<br />Computational optics group at the University of Tsukuba</div><div>Skytechnology Inc., and</div><div>Thinklands.</div><div>Click logos to visit us.</div><div><div class="separator" style="clear: both; text-align: center;"><a href="https://cog-news.blogspot.com/" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;" target="_blank"><img border="0" data-original-height="78" data-original-width="150" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgzIltgERC4_giay46KOpzBY1UyaaF0jWsQZAtDHXYhPtVtYIy1ksdmQhxpJYdYuY17r_Je7ALmnpJEJc08mmY_dCW3MjX7t-PvBeMIfBIqUbKj1izBmdvaXoxQZTYUADGHd4GlHVbpSBE_dRHCn9HfQXs-09xUsw9IK_MvwgAZsR3Bx15SoDM2iRbUui1S/s16000/cog_logo_w150.png" /></a></div><a href="https://www.skytechnology.co.jp/" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="142" data-original-width="283" height="100" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgrVnpHlpYPdUxLW_OsKS6LSECCvsEqa_ltw0xdswUR_VapdyyiCu86m2q971xCpisxqpWBrzo_plHEiu2WyvQiVLhZRIgJQTtjkC_m1rR4DBYLrLPcer5tMQeq7quF0KYXDJq3sNu_Wwdv95vj4f4ZTT0AiIPOuTWOaUs6NvRobbaiIRTieQwkJoFGVl5q/w200-h100/rogo0611%E3%83%89%E3%82%AD%E3%83%A5%E3%83%A1%E3%83%B3%E3%83%88%E7%94%A8S.png" width="200" /></a></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh1GRgwVUw3-Sgu3RUcH1k2B-GCE4-eeLV4-gqrHhiI1CMRp2oD3tA_w9TzbHPOw1eB5h4AR_gH7B-ALoOgSqeftGUoDJFF3D8BCBQCUwyJGD341pD_yRV3lpGW6tuvmTnc4kE430KuXrdshvV0XmYiSFRlal59Bg5nYjsutX0t0UCgztnpRM789J_xoXiQ/s100/cog_logo_100.png" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;" target="_blank"></a><div style="text-align: left;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh1GRgwVUw3-Sgu3RUcH1k2B-GCE4-eeLV4-gqrHhiI1CMRp2oD3tA_w9TzbHPOw1eB5h4AR_gH7B-ALoOgSqeftGUoDJFF3D8BCBQCUwyJGD341pD_yRV3lpGW6tuvmTnc4kE430KuXrdshvV0XmYiSFRlal59Bg5nYjsutX0t0UCgztnpRM789J_xoXiQ/s100/cog_logo_100.png" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;" target="_blank"></a><a href="https://think-lands.co.jp/"><img border="0" data-original-height="100" data-original-width="519" height="62" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEioq7CcU8W-xMBTaMS2nXAd73fpX0ybrmvRgWl8auqguzrGRZQrYlj6uxJn-_R4xvpep8OTL_d_XPDmB9O8BJHre8kFWgYgqyDZYclYgSeFjjUvKIJM6J8PQnW_ZeJ108HOyz6SHWXR2C5UtX9YE6in5wCfgInPO1tYxizXDYHOfW-OltuSL8OIEHMsLfTg/w320-h62/Thinklands_logo.jpg" width="320" /></a></div><div style="text-align: left;"><br /></div></div><p></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com01-chōme-1-1 Minatomirai, Nishi Ward, Yokohama, Kanagawa 220-0012, Japan35.458624 139.6370127.1483901638211549 104.480762 63.768857836178846 174.793262tag:blogger.com,1999:blog-1679429406826424810.post-67348117738223915352023-08-24T01:32:00.005+09:002023-09-28T11:59:58.663+09:00<p></p><div class="separator" style="clear: both; text-align: left;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiwTYAyZFe1ei8A4W8_mWRbCffTrwCZsVY1BZA5wEdk52jRE8AcKwkTuJoGkoB6EZ86xO-19Ei_LvaNd__G3SA4IUXNGrfDcNvKMkeAWf2_NrdyQfYYdFd8DQ7ZkNu7xVFzEM_kCfvQF-NFuefBw_1-EeiZBMGE7DxDAAFwMaT-rd-z89E3OL2u-jud_JZw/s1092/LidaZhu2023BOE_fig.jpg" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="490" data-original-width="1092" height="144" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiwTYAyZFe1ei8A4W8_mWRbCffTrwCZsVY1BZA5wEdk52jRE8AcKwkTuJoGkoB6EZ86xO-19Ei_LvaNd__G3SA4IUXNGrfDcNvKMkeAWf2_NrdyQfYYdFd8DQ7ZkNu7xVFzEM_kCfvQF-NFuefBw_1-EeiZBMGE7DxDAAFwMaT-rd-z89E3OL2u-jud_JZw/s320/LidaZhu2023BOE_fig.jpg" width="320" /></a></div>Our colleague Lida Zhu recently reported a method to reduce OCT noise induced by multiple-scattered photons. The imaging depth of OCT is significantly limited by multiple-scattering noise overlaid on the OCT images, especially at deep regions in the tissue. So, this method contributes to enhancing the imaging depth of OCT.<p></p><p>The presented method is a combination of probe-beam-waveform modulation by using an electrically tunable lens, holographic correction of the waveform, and complex averaging of OCT images. The modulation modulates both the single- and multiple-scattered photons, and the subsequent holographic waveform correction demodulates the single-scattered photon as remaining the multiple-scattered being modulated. And hence, the complex averaging reduces the multiple-scattered photons and keeps the single-scattered photons.</p><p>The method is validated by measuring a scattering phantom and a postmortem zebrafish, and enhances the image contrast at the deep region of the zebrafish.</p><p>The details of the method and the results are found in our recent publication in Biomedical Optics Express.</p><p><b>Citation:</b> Lida Zhu, Shuichi Makita, Junya Tamaoki, Antonia Lichtenegger, Yiheng Lim, Yiqiang Zhu, Makoto Kobayashi, and Yoshiaki Yasuno, <br />“Multi-focus averaging for multiple scattering suppression in optical coherence tomography,” Biomed. Opt. Express 14, 4828-4844 (2023), <a href="https://doi.org/10.1364/BOE.493706">https://doi.org/10.1364/BOE.493706</a>.</p><p>>> <a href="https://doi.org/10.1364/BOE.493706" target="_blank">Full article (open access)</a><br /><br /></p><p>わたしたちの研究室の Lida Zhu さんが多重散乱に起因したOCTノイズを低減する手法について論文を出版しました。一般に、OCTが画像にすることのできる組織深度は、多重散乱光によるノイズによって著しく制約されています。Lida Zhu さんの発表した方法はOCTの画像化深度を向上させると期待されています。</p><p>今回発表されたこの手法は次のように3つの要素技術を組み合わせたものです。まず、焦点可変レンズを使用してOCTのプローブ光の波面を変調します。次にホログラフィック信号処理により変調された波面を補正ます。最後に、異なった変調で得られた複数のOCT画像を複素平均します。変調では、ノイズの原因になる多重散乱光子と、画像の計測に必要な単一散乱光子の両方が変調を受けますが、その後のホログラフィック波面補正では、単一散乱光子によるOCT画像成分のみが復調され、多重散乱光子は変調されたままになります。このように得られた複数のOCT画像を複素平均すると、多重散乱光子によるOCT信号(ノイズ)のみ減少させることができます。</p><p>この手法の有効性は、ファントム(疑似試料)とゼブラフィッシュを計測することで検証され、ゼブラフィッシュの深部領域における画像のコントラストが大幅に向上することが示されました。この研究の詳細は Biomedical Optics Express 誌で報告されています。</p><p><b>Citation:</b> Lida Zhu, Shuichi Makita, Junya Tamaoki, Antonia Lichtenegger, Yiheng Lim, Yiqiang Zhu, Makoto Kobayashi, and Yoshiaki Yasuno, “Multi-focus averaging for multiple scattering suppression in optical coherence tomography,” Biomed. Opt. Express 14, 4828-4844 (2023), <a href="https://doi.org/10.1364/BOE.493706">https://doi.org/10.1364/BOE.493706</a>.</p><p>>> <a href="https://doi.org/10.1364/BOE.493706" target="_blank">Full article (open access)</a></p><p>(この記事の日本語版は www.DeepL.com で翻訳したものを一部修正したものです。)</p><p> </p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com01-chōme-1-1 Tennōdai, Tsukuba, Ibaraki 305-8577, Japan36.1115983 140.1043295-20.08095255830257 69.7918295 90 -149.5831705tag:blogger.com,1999:blog-1679429406826424810.post-53010039182178609212023-06-09T18:31:00.000+09:002023-06-09T18:31:05.533+09:00Publication: Speckle and OCT image as mathematical entities<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEju4yoWnMCp9wdQiagrMmNB_7v4ykUuJCFqWIRUO3tKigJeBDqKoHjQr8DOHeyWVfAWU65wNllJ8X-IGmiZgBpyDoxAfXrsb2r12AzJWuUcxadjIfLXPQKX5fb9BMObN4D5J35F_CQT3KeSxUa6sa7bnVyjk6_JEWd1HayZt5og4RIvlvOirlLyp-Jg9w/s1548/Tomita2023BOE.jpg" imageanchor="1" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img border="0" data-original-height="946" data-original-width="1548" height="196" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEju4yoWnMCp9wdQiagrMmNB_7v4ykUuJCFqWIRUO3tKigJeBDqKoHjQr8DOHeyWVfAWU65wNllJ8X-IGmiZgBpyDoxAfXrsb2r12AzJWuUcxadjIfLXPQKX5fb9BMObN4D5J35F_CQT3KeSxUa6sa7bnVyjk6_JEWd1HayZt5og4RIvlvOirlLyp-Jg9w/s320/Tomita2023BOE.jpg" width="320" /></a></div> Our colleague Kiriko Tomita recently revealed her new formulation of optical coherence tomography (OCT) imaging. And she also demonstrated a new volumetric differential contrast imaging method by exploiting the new formulation.<p></p><p>Although OCT is an extremely widely used imaging modality, its imaging process was not well mathematically described. Kiriko started from establishing a new mathematical representation of biological samples, and then formulated the optical and numerical processes of OCT imaging. It finally gave us a standard convolution-style imaging equation of OCT.</p><p>Thanks to this new formulation, we got three important outcomes. (1) We found that the OCT image consists of two additive components; the meaningful OCT image and speckle. (2) The meaningful OCT image is an incoherent image of sample structure. (3) The speckle is first time represented as a "mathematical entity" (an additive part of the imaging equation). And it was found that the mathematical representation successfully explains the well-known but not-well-described properties of speckles.</p><p>The details of her theory and experimental validation have been published in Biomedical Optics Express.</p><p><b>Citation:</b> Kiriko Tomita, Shuichi Makita, Naoki Fukutake, Rion Morishita, Ibrahim Abd El-Sadek, Pradipta Mukherjee, Antonia Lichtenegger, Junya Tamaoki, Lixuan Bian, Makoto Kobayashi, Tomoko Mori, Satoshi Matsusaka, and Yoshiaki Yasuno, "Theoretical model for en face optical coherence tomography imaging and its application to volumetric differential contrast imaging," <i>Biomed. Opt. Express</i> <b>14</b>, 3100-3124 (2023), <a href="https://doi.org/10.1364/BOE.491510">https://doi.org/10.1364/BOE.491510</a> (open access).<br /><br /></p><p>わたしたちの研究室の富田季里子さんが光コヒーレンストモグラフィー(OCT)のイメージングプロセスの新たな定式化方法について論文を出版しました。また、この論文では。この新しい定式化を利用したこれまでにない微分コントラストイメージング法の実証も行っています。</p><p>OCTは非常に広く使われているイメージング技術ですが、そのイメージングプロセスは数学的にうまく記述されていませんでした。富田さんは、生体サンプルの新しい数学的表現の確立から始め、OCTイメージングの光学的・数値的プロセスを定式化をおこないました。これにより、標準的な畳込積分形の数式でOCTのイメージング特性を記述することに成功しました。</p><p>この新しい定式化のおかげで、私たちは3つの重要な知見を得ることができました。(1) OCT画像は、「意味のあるOCT画像」と「スペックル」の「加算」であること。(2) 意味のあるOCT画像は、試料の構造を表すインコヒーレントな画像と等価であること。(3) この定式化により、スペックルは、初めて「数学的な実体」(数式の中の独立した部分)として表現されました。そして、この数式を検討することで、従来から実験的によく知られていたものの、これまできちんと数学的に説明できていなかったスペックルの特性がうまく説明できることを発見しました。</p><p>この研究の詳細は、米光学会の学術誌である Biomedical Optics Express に掲載されました。</p><p><b>Citation:</b> Kiriko Tomita, Shuichi Makita, Naoki Fukutake, Rion Morishita, Ibrahim Abd El-Sadek, Pradipta Mukherjee, Antonia Lichtenegger, Junya Tamaoki, Lixuan Bian, Makoto Kobayashi, Tomoko Mori, Satoshi Matsusaka, and Yoshiaki Yasuno, "Theoretical model for en face optical coherence tomography imaging and its application to volumetric differential contrast imaging," <i>Biomed. Opt. Express</i> <b>14</b>, 3100-3124 (2023), <a href="https://doi.org/10.1364/BOE.491510">https://doi.org/10.1364/BOE.491510</a> (open access).<br /><br /></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com0tag:blogger.com,1999:blog-1679429406826424810.post-81058427880568749512023-04-27T19:46:00.003+09:002023-05-02T19:54:27.113+09:00Publication: Seeing cellular activity of miniature lung<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhceTdRigG0CJW05uB-JLmIMzi2kViACyMp2TOUq7e6-gEgGXxq-CUsiJZmzg-di7hhZ0RzxHOQAYsI8z0yW1Nn--AV6nnJLTj37oAU5dCB6PohLTysxa_nxq8nldpEI72fZFWfgZn4GebE-Ume1iIqZJGVv56aDZhPx-SC72W3YK8n5kEQyd-iFjZ69Q/s1024/Morishita2023BOE_1024.jpg" imageanchor="1" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="595" data-original-width="1024" height="186" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhceTdRigG0CJW05uB-JLmIMzi2kViACyMp2TOUq7e6-gEgGXxq-CUsiJZmzg-di7hhZ0RzxHOQAYsI8z0yW1Nn--AV6nnJLTj37oAU5dCB6PohLTysxa_nxq8nldpEI72fZFWfgZn4GebE-Ume1iIqZJGVv56aDZhPx-SC72W3YK8n5kEQyd-iFjZ69Q/s320/Morishita2023BOE_1024.jpg" width="320" /></a></div>Our colleague Rion Morishita recently reported about label-free visualization of cellular activity of <i>in vito</i> human-derived lung (alveolar) organoids.<p></p><p><span style="white-space: pre;"> </span>She developed a new high-resolution optical coherence microscopy (OCM) device and also statistical signal processing methods for visualizing the cellular activities. This method is label-free and non-invasive, and hence is expected to highly contribute to pulmonary research.</p><p><span style="white-space: pre;"> </span>Normal and fibrotic organoids were investigated, and inhomogeneous cellular activity patterns of the alveolar epithelium were beautifully visualized. By careful qualitative analysis and interpretation, we found this inhomogeneous activity pattern is the indicator of abnormal tissue remodeling, and most certainly, bronchiolization.</p><p>The details of the research can be found in Biomedical Optics Express (open access).</p><p><b>Citation:</b> Rion Morishita, Toshio Suzuki, Pradipta Mukherjee, Ibrahim Abd El-Sadek, Yiheng Lim, Antonia Lichtenegger, Shuichi Makita, Kiriko Tomita, Yuki Yamamoto, Tetsuharu Nagamoto, and Yoshiaki Yasuno, "Label-free intratissue activity imaging of alveolar organoids with dynamic optical coherence tomography," <i>Biomed. Opt. Express</i> <b>14</b>, 2333-2351 (2023), <a href="https://doi.org/10.1364/BOE.488097">https://doi.org/10.1364/BOE.488097</a> (open access).</p><p><br /></p><p>わたしたちの研究グループの森下梨音さんが、ヒト肺オルガノイド(培養ミニ臓器)の細胞活性をラベルフリーで可視化することに成功しました。</p><p>彼女は、細胞活動を可視化するために、新しい高解像度光干渉顕微鏡(OCM)装置と、統計的信号処理法を開発しました。この方法は、ラベルフリーで非侵襲に細胞や生体の活動を可視化することができ、今後肺疾患の研究に大きく貢献することが期待されます。</p><p><span style="white-space: pre;"> </span>このOCMと信号処理法で正常および線維化した肺オルガノイドを計測し、肺胞上皮の不均一な細胞活動パターンの可視化に成功しました。定性的な解析と丁寧な解釈により、この不均一な活動パターンが異常な組織リモデリング(おそらくは気管支上皮化成)を示していることを発見しました。</p><p>この研究の詳細は、Biomedical Optics Express(オープンアクセス)に掲載されています。</p><p><b>Citation:</b> Rion Morishita, Toshio Suzuki, Pradipta Mukherjee, Ibrahim Abd El-Sadek, Yiheng Lim, Antonia Lichtenegger, Shuichi Makita, Kiriko Tomita, Yuki Yamamoto, Tetsuharu Nagamoto, and Yoshiaki Yasuno, "Label-free intratissue activity imaging of alveolar organoids with dynamic optical coherence tomography," <i>Biomed. Opt. Express</i> <b>14</b>, 2333-2351 (2023), <a href="https://doi.org/10.1364/BOE.488097">https://doi.org/10.1364/BOE.488097</a> (open access).</p><p>(この記事の日本語版は www.DeepL.com で翻訳したものを一部修正したものです。)</p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-56877034496521144322023-04-01T18:55:00.009+09:002023-05-02T19:32:27.781+09:00Publication: Generating polarization image from non-polarization OCT for eye clinic<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg_FHZadu3uRaNLaaX0pR-deFoyphDJWMSw9HPTC1Bxf31DncFDknGTwGHMk2PIhU95N-9AZk6N7HMo5UG4dvHtl0Yr765TVCRtnkt-qlVhNmLkKyiTSdDDFZjO44TbgJ9ul12bxwlqmzuH5SqAit8sAh87U2kJA4vanh9XPJBxoNqF4sf6h4h0ZD4edQ/s1024/Makita2023DOPU.jpg" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img border="0" data-original-height="542" data-original-width="1024" height="170" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg_FHZadu3uRaNLaaX0pR-deFoyphDJWMSw9HPTC1Bxf31DncFDknGTwGHMk2PIhU95N-9AZk6N7HMo5UG4dvHtl0Yr765TVCRtnkt-qlVhNmLkKyiTSdDDFZjO44TbgJ9ul12bxwlqmzuH5SqAit8sAh87U2kJA4vanh9XPJBxoNqF4sf6h4h0ZD4edQ/w320-h170/Makita2023DOPU.jpg" width="320" /></a></div> Our colleague Shuichi Makita recently reported a new deep learning and generative imaging method of polarization sensitive optical coherence tomography (PS-OCT). He trained the neural network to generate a polarization-uniformity (DOPU; degree-of-polarization-uniformity) image from a non-PS-OCT image. And hence, this method enables polarization-sensitive imaging without PS-OCT hardware.<p></p><p><span style="white-space: pre;"> </span>Since DOPU is sensitive to melanin and retinal pigment epithelium (RPE) that is a melanin-containing tissue, this method highlights the abnormality of RPE. This method will highly contribute to the diagnosis and staging of increasingly significant retinal diseases such as age-related macular degeneration (AMD).</p><p><span style="white-space: pre;"> </span>The generated DOPU images were compared with real PS-OCT DOPU images for the clinically significant RPE abnormalities, and high precision and recall were found between the generated and real DOPU images.</p><p><span style="white-space: pre;"> </span>The details of this technology and clinical study are reported in Biomedical Optics Express.</p><p><b>Citation: </b>Shuichi Makita, Masahiro Miura, Shinnosuke Azuma, Toshihiro Mino, and Yoshiaki Yasuno, "Synthesizing the degree of polarization uniformity from non-polarization-sensitive optical coherence tomography signals using a neural network," Biomed. Opt. Express 14, 1522-1543 (2023), <a href="https://doi.org/10.1364/BOE.482199">https://doi.org/10.1364/BOE.482199</a> (open access).</p><p><br /></p><p>私の研究グループの巻田修一さんが偏光感応型光コヒーレンストモグラフィー(PS-OCT)を用いずにPS-OCT計測を実現するための深層学習・生成的イメージング法に関する論文を出版しました。この手法では、偏光感受性を持たない通常のOCT画像から偏光均一性(DOPU; degree-of-polarization-uniformity) 画像を生成するようにニューラルネットワークを学習させています。これにより、PS-OCTのハードウェアがなくても偏光イメージングが可能になりました。</p><p><span style="white-space: pre;"> </span>DOPUイメージングはメラニンやメラニン含有組織である網膜色素上皮(RPE)を選択的に可視化することがしられています。そのため、本手法は、RPEの異常を高感度にイメージングすることができ、加齢黄斑変性症(AMD)など、ますます深刻化する網膜疾患の診断や病期分類に大きく貢献するものと期待されます。</p><p><span style="white-space: pre;"> </span>また、この研究では、臨床的に重要なRPEの異常について、ニューラルネットワークで生成したDOPU画像とPS-OCTで撮影された実際のDOPU画像の医師による比較試験を行いました。その結果、生成したDOPU画像と実際のDOPU画像の間に高い適合度 (precision) と再現率(recall) があることが確認されました。</p><p><span style="white-space: pre;"> </span>この研究の詳細は、Biomedical Optics Expressに報告されています。</p><p><b>Citation: </b>Shuichi Makita, Masahiro Miura, Shinnosuke Azuma, Toshihiro Mino, and Yoshiaki Yasuno, "Synthesizing the degree of polarization uniformity from non-polarization-sensitive optical coherence tomography signals using a neural network," Biomed. Opt. Express 14, 1522-1543 (2023), <a href="https://doi.org/10.1364/BOE.482199">https://doi.org/10.1364/BOE.482199</a> (open access).</p><p><br /></p><p>(日本語版は www.DeepL.com で翻訳したものを一部修正したものです。)</p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-41742645610642249342023-02-23T19:26:00.002+09:002023-05-02T19:32:08.892+09:00Publication: Comprehensive textbook paper of Jones matrix OCT<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgdVDr7xG7vX-e-pWcAfbvyh_QT2EEK-1QYVNPI6XP6AacmFAxgeixKNeDf54B69yciIUrYsGNSDF3Aqwcdyri_XKWTPRHrEZM3_P7JA0PLwB1bqAwxqtnwgJ6JDtF_FyHaA_d0ZjOLdsDqhynsCDNWMPmu1cZ1Jdd5sjFuHPyd2qlTYxW4ulgy2_gSjA/s820/Yasuno2023JMOCT.jpg" imageanchor="1" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="547" data-original-width="820" height="213" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgdVDr7xG7vX-e-pWcAfbvyh_QT2EEK-1QYVNPI6XP6AacmFAxgeixKNeDf54B69yciIUrYsGNSDF3Aqwcdyri_XKWTPRHrEZM3_P7JA0PLwB1bqAwxqtnwgJ6JDtF_FyHaA_d0ZjOLdsDqhynsCDNWMPmu1cZ1Jdd5sjFuHPyd2qlTYxW4ulgy2_gSjA/s320/Yasuno2023JMOCT.jpg" width="320" /></a></div> Our colleague Yoshiaki Yasuno recently published a comprehensive text-book style review paper of “<br />Jones-matrix optical coherence tomography (JM-OCT).” This paper summarizes the full-range topics of JM-OCT including the basic conception, mathematical principle, hardware and software implementation, and applications for clinical and biological imaging.<p></p><p><span style="white-space: pre;"> </span>This paper is the summary of more than 15-year history of our multi-contrast OCT projects, and is currently the best comprehensive textbook. And hence, we recommend this article to the starters of multi-contrast OCT research and also researchers who have enough experience in OCT.</p><p><span style="white-space: pre;"> </span>The article is open-access and available on IEEE Selected Topics in Quantum Electronics.</p><p><b>Citation: </b>Yoshiaki Yasuno, “Multi-Contrast Jones-Matrix Optical Coherence Tomography—The Concept, Principle, Implementation, and Applications,” IEEE J. Sel. Top. Quantum Electron. 29, 6800918 (2023), <a href="https://doi.org/10.1109/JSTQE.2023.3248148">https://doi.org/10.1109/JSTQE.2023.3248148</a> (open access).</p><p><br /></p><p>わたしたちの研究グループの安野嘉晃さんが “Jones-matrix optical coherence tomography (JM-OCT)” について包括的にまとめたテキストブック形式のレビュー論文を発表しました。この論文は、JM-OCTの基本的な考え方、数学的原理、ハードウェアとソフトウェアの実装、臨床および生物学イメージングへの応用など、広い範囲のトピックをとりまとめて記述しています。</p><p><span style="white-space: pre;"> </span>この論文は、私たちのマルチコントラストOCTプロジェクトの15年以上の歴史をまとめたものであり、今現在で最も優れたJM-OCTの包括的な教科書となっています。マルチコントラストOCTに関する学習の出発点として、また、OCTの経験を十分に積んだ研究者にもお勧めの論文です。</p><p><span style="white-space: pre;"> </span>この論文は IEEE Selected Topics in Quantum Electronicsにオープンアクセスで掲載されています。</p><p><b>Citation:</b> Yoshiaki Yasuno, “Multi-Contrast Jones-Matrix Optical Coherence Tomography—The Concept, Principle, Implementation, and Applications,” IEEE J. Sel. Top. Quantum Electron. 29, 6800918 (2023), <a href="https://doi.org/10.1109/JSTQE.2023.3248148">https://doi.org/10.1109/JSTQE.2023.3248148</a> (open access).</p><p><br /></p><p>(この記事の日本語版は www.DeepL.com で翻訳したものを一部修正したものです。)</p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-35516111577446776572023-01-31T16:15:00.004+09:002023-01-31T16:15:27.244+09:00Poster and pre-print of "Epistemological Metrology."<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj_O57YuK7K7nM9wxq5ZfADD3Bi93vBRfL9rlMXaTRcj28dEHxKZ0_8IpUXOMqvT6b1KRpAd82BQPEAF47t44dhskhoeBfD8SUO9ZZDC3b4ezDyUG3i9nHIa__oEDeLktVZNW8v_ECaR5BM7mLguRVeIkK9kWnjRRTkn0l-kwp79HgTBrNOiZgzwgV84w/s4158/BiOS2023Yasuno_OctCritique.jpg" imageanchor="1" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em; text-align: justify;"><img border="0" data-original-height="4158" data-original-width="4158" height="200" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj_O57YuK7K7nM9wxq5ZfADD3Bi93vBRfL9rlMXaTRcj28dEHxKZ0_8IpUXOMqvT6b1KRpAd82BQPEAF47t44dhskhoeBfD8SUO9ZZDC3b4ezDyUG3i9nHIa__oEDeLktVZNW8v_ECaR5BM7mLguRVeIkK9kWnjRRTkn0l-kwp79HgTBrNOiZgzwgV84w/w200-h200/BiOS2023Yasuno_OctCritique.jpg" width="200" /></a></div> At a conference SIPE Photonics West/BiOS, I (Yasuno)<br /> presented a poster about theoretical framework to comprehend measurements in general and, speficically, optical coherence tomography. I was actually supprized that not small number of people are interested in this non-standard topic. <br /><span> </span>For the convenience of anyone who are interested in this topic, here I share the poster, pre-print, and two-page summary of topic. The three-page abstract might be the best entry point of this topic. I hope you can enjoy them!<br /><p></p><ul style="text-align: left;"><li><a href="https://drive.google.com/file/d/1rzw8Mkf0mSGz7WTm-4wfnXHB9vpkrNs8/view?usp=share_link">3-page abstract submitted to ECBO 2023</a>.</li><li><a href="https://drive.google.com/file/d/1CGG0j1yF48ESBdUCQk4xdHgTm3NolVMB/view?usp=share_link">Poster of Photonics West 2023</a>.</li><li>Full-length paper preprint at <a href="https://arxiv.org/abs/2211.05707">arXiv arXiv:2211.05707</a></li></ul><div>Joschi, Yoshiaki Yasuno</div><p></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com0San Francisco, CA, USA37.7749295 -122.41941559.4646956638211535 -157.5756655 66.085163336178852 -87.2631655tag:blogger.com,1999:blog-1679429406826424810.post-23725210091229180632022-12-09T00:52:00.008+09:002022-12-15T01:14:12.638+09:00Publication: Short textbook of OCT<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgu23YAVyoSL6ejokylYulU9UytW9DBxMhH9mgW_lej8KyuTf3ABRfa17tYGSbSnBlyaZoh60YDJbfAA7M6__xffC_DEHiBikQ0iEQ3U89F8ZYd4V9gScklaByjDWdWCm6u_iu39FaxyJu2Ja0RfWMzhDCGGZuHYeRfAkodhA_3hlCMgzHUojRThWEMPA/s1440/figInterferometer.jpg" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img border="0" data-original-height="1011" data-original-width="1440" height="225" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgu23YAVyoSL6ejokylYulU9UytW9DBxMhH9mgW_lej8KyuTf3ABRfa17tYGSbSnBlyaZoh60YDJbfAA7M6__xffC_DEHiBikQ0iEQ3U89F8ZYd4V9gScklaByjDWdWCm6u_iu39FaxyJu2Ja0RfWMzhDCGGZuHYeRfAkodhA_3hlCMgzHUojRThWEMPA/s320/figInterferometer.jpg" width="320" /></a></div> Our colleague Yoshiaki Yasuno recently released a short textbook "Optical coherence tomography - principles, implementation, and applications in ophthalmology." This is a revised version (ver. 3.0a) of a short but comprehensive tutorial written for students, engineers, and uses of OCT who newly study about this topic.<p></p><p>The text is open access and available at arXiv under Creative Commons Attribution-ShareAlikes (CC BY-SA) licence.</p><p>Citation: Yoshiaki Yasuno, "Optical coherence tomography - principles, implementation, and applications in ophthalmology," arXiv:2212.04380 (2022), <a href="https://doi.org/10.48550/arXiv.2212.04380">https://doi.org/10.48550/arXiv.2212.04380</a>.</p><p>>> <a href="https://doi.org/10.48550/arXiv.2212.04380">Full-text available (open access)</a></p><p> 私たちの研究グループの安野氏がオンラインテキスト「Optical coherence tomography - principles, implementation, and applications in ophthalmology」を公開しました。この教科書はOCTについて新しく勉強を始める学生、エンジニアやOCTを使って臨床検査を行う医師、OCTを使った研究を行う研究者にむけて書かれた包括的なチュートリアルです。</p><p><br />このテキストはクリエイティブ・コモンズ 表示継承ライセンス (SS-SA)でarXiv上で公開されています。</p><p>Citation: Yoshiaki Yasuno, "Optical coherence tomography - principles, implementation, and applications in ophthalmology," arXiv:2212.04380 (2022), <a href="https://doi.org/10.48550/arXiv.2212.04380">https://doi.org/10.48550/arXiv.2212.04380</a>.</p><p>>> <a href="https://doi.org/10.48550/arXiv.2212.04380">Full-text available (open access)</a></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com0tag:blogger.com,1999:blog-1679429406826424810.post-40452164483060490312022-12-07T01:27:00.005+09:002022-12-07T01:27:58.886+09:00筑波大学COG研究紹介 2022年版<p></p> 私たちの最近の研究を紹介するビデオを公開します。<p></p><p>私たちの研究室では「計算光学顕微鏡」(Computationally augmented optical coherence microscopy) という技術・装置の開発・研究を行っています。この技術は光学イメージング技術と情報処理技術を組み合わせることで従来計測することのできなかった生体の様々な機能、形態を可視化するものです。</p><p>今回の紹介ビデオでは、計算光学顕微鏡が実現する生体イメージングのうち、分子標的なしに(ラベルフリーに)生体の活動三次元的に可視化する技術を紹介しています。</p><p>きれいな画像を堪能してください!</p><p></p><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen="" class="BLOG_video_class" height="266" src="https://www.youtube.com/embed/54y57k7Z21g" width="320" youtube-src-id="54y57k7Z21g"></iframe></div><p></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-14764087885453806862022-11-30T12:25:00.006+09:002022-11-30T12:28:52.284+09:00OCTを学ぶためのリンク集 (OCT講習会資料・関連リンク)<p> </p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjkeJLroxSn586gdOiaCqgnqFzlvJIHurSZX9ChiqEFbrQ0wUcU9jxnIPZJs-K-TdpemdSBNm7UGpsgebBSHUn7tlHg3eruZLot8H1c2zUu70McnzhvHF3v6zQdXBHSkniaDcrH8VlTfaDYwQTwsfdy1tOie9L8zR6ucM_8_9XpMWrjoESvg1zbaTwOxg/s1280/Slide1.JPG" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img border="0" data-original-height="720" data-original-width="1280" height="180" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjkeJLroxSn586gdOiaCqgnqFzlvJIHurSZX9ChiqEFbrQ0wUcU9jxnIPZJs-K-TdpemdSBNm7UGpsgebBSHUn7tlHg3eruZLot8H1c2zUu70McnzhvHF3v6zQdXBHSkniaDcrH8VlTfaDYwQTwsfdy1tOie9L8zR6ucM_8_9XpMWrjoESvg1zbaTwOxg/s320/Slide1.JPG" width="320" /></a></div><span style="color: #6aa84f;">※ 研究室参加希望者オススメ記事</span><br /><br />本日(2022年11月30日) 行われる「OCT講習会」で私達のグループの安野が「安野流! OCTの理解: Cascading encoder-decoder model で理解する光コヒーレンストモグラフィー」と題したチュートリアル+技術モデル講演を行います。<p></p><p>このトークは低コヒーレンス干渉、統計的信号処理、医用画像処理、AIによる自動診断などを内包した「現代的なOCT装置」を「巨大なカスケード(多段構成)された符号化-復号化装置」として分析していくものです。テーマに比べてトーク時間が短いため、技術的な詳細にあまり時間がさけません。そこで、この講演の資料やさらにOCTについて学習するためのリンクをまとめます。たくさんあるので全部見るのは大変ですが、興味のある方はつまみ食いだけでもしてみてください。</p><h4 style="text-align: left;">OCT技術に関する資料</h4><ul style="text-align: left;"><li><a href="https://sites.google.com/site/yasunoscabinet/cascading-encoder-decoder-jsoo2022">講演資料(パワーポイント) at Yasuno's C</a><a href="https://sites.google.com/site/yasunoscabinet/cascading-encoder-decoder-jsoo2022">abinet</a></li><li><a href="https://sites.google.com/site/yasunoscabinet/tutorial-on-optical-coherence-tomography?authuser=0">初心者向けの短い教科書 「Tutorial on OCT」 at Yasuno's Cabinet</a></li><li><a href="https://sites.google.com/site/yasunoscabinet/course-fundamentals-of-optical-coherence-tomography">ビデオレクチャー「Fundamentals of OCT」</a><br />(全5回 筑波大学大学院講義) at Yasuno's YouTube channel<br />※英文ですが、non-native を対象としているため英語が得意でないひとでも大丈夫だと思います。</li><li><a href="https://sites.google.com/site/yasunoscabinet/course-fundamentals-of-optical-coherence-tomography">初心者向けOCTレクチャー資料(パワーポイント) at Yasuno's Cabinet</a></li></ul><h4 style="text-align: left;">認識論的計測学に関する資料</h4><ul style="text-align: left;"><li><a href="https://youtu.be/Ev6mjS4TTlk">認識論的計測学 レクチャービデオ</a> (2021) at Yasuno's YouTube channel<br /></li><li><a href="https://arxiv.org/abs/2211.05707">認識論的計測学によるOCT批判(英文 preprint 論文) at arXiv</a><br />https://doi.org/10.48550/arXiv.2211.05707 (2022).</li></ul><div>※ 2021年のビデオと 2022年の論文では論理構成が多少異なります。2022年版ではあらたに「オブジェクト統制」という概念を導入することにより、認識論哲学との類似性に頼らずに計測行為の整理を行っています。</div><h4 style="text-align: left;">その他関連ページ</h4><div><ul style="text-align: left;"><li><a href="https://www.youtube.com/@lecturesofyoshiakiyasuno1337/featured">安野の YouTube channel</a><br />筑波大学における講義、研究発表・解説ビデオなどを公開しています。<br />シリーズ化された講義はチャンネル内の Playlist でまとめてあります。「論文の読み方」など、OCTとは直接関わらない研究チュートリアルなども公開しています。最大のヒット作はなぜか「確率論」です。</li><li><a href="https://sites.google.com/site/yasunoscabinet/home">Yasuno's cabinet (web-site)</a><br />主にグループ内教育用に書かれたテキストや、グループ内外でのチュートリアル講演で用いた資料を公開しています。また、「論文の書き方」(Card-based paper writing) などの一般的な研究テキストも公開しています。</li></ul></div><div><br /></div><div>written by Yoshiaki Yasuno</div><p></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-52523650551117462842022-06-15T02:42:00.007+09:002022-12-08T01:48:20.632+09:00Publication: wide-field retinal imaging by convolutional Lissajous scan OCT<p></p><div class="separator" style="clear: both; text-align: left;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjCcVywWpN30YS3Q53qRx5No06HPSkrfc1WJJxRcq7mWt0pfk_NMrDwcBZSkQeHj9zzqimkEjiUz35OEgAlJssRxlgnrQliRlG3CqgM21fOIUremEcGcuMidAk6tAgdszMa0Xd6-ZkEvBl3tPc96m8v4sYX7t4JFRhf8I69kP6m0QebhEgvLlfNtGXbyA/s2333/getImage%20(1).jpeg" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="2144" data-original-width="2333" height="294" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjCcVywWpN30YS3Q53qRx5No06HPSkrfc1WJJxRcq7mWt0pfk_NMrDwcBZSkQeHj9zzqimkEjiUz35OEgAlJssRxlgnrQliRlG3CqgM21fOIUremEcGcuMidAk6tAgdszMa0Xd6-ZkEvBl3tPc96m8v4sYX7t4JFRhf8I69kP6m0QebhEgvLlfNtGXbyA/s320/getImage%20(1).jpeg" width="320" /></a></div>Our colleague Makita recently reported a new very-wide-field imaging method for human eye (retina). Here a new Lissajous scan method is used with optical coherence tomography (OCT). The center of the Lissajous scanning is designed to slowly drift during the scan, so that very wide field on the retina is scanned. In addition, the eye motion during the scan is corrected by post-acquisition signal processing by <br />exploiting the Lissajous scan's property.<p></p><p>This method was applied to pathological cases including age-related macular degeneration and branch retinal vein occlusion, and was proved to be useful for the clinical evaluation of such diseases.</p><p>This method is expected to enable comprehensive and high-sensitive screening of retinal diseases.</p><p>The details of this research are published in <i>Biomedical Optics Express</i>.</p><p>Citation: S. Makita, S. Azuma, T. Mino, T. Yamaguchi, M. Miura, and Y. Yasuno, "Extending field-of-view of retinal imaging by optical coherence tomography using convolutional Lissajous and slow scan patterns," <i>Biomed. Opt. Express</i> <b>13</b>, 5212-5230 (2022).</p><p>>> <a href="https://doi.org/10.1364/BOE.467563">Full-length article (open access).</a></p>私たちの研究室の巻田さんがヒトの眼底(網膜)を超広画角でイメージングするための新しい手法を開発しました。これは、リサージュ走査法と光コヒーレンス・トモグラフィ(OCT)を組み合わせ他方法であり、さらに、リサージュ・スキャンの中心位置をスキャン中にゆっくりとドリフトする、というものです。これにより、網膜上の非常に広いフィールドをスキャンすることができます。さらに、リサージュ走査の特性を利用することで、画像取得後に信号処理により走査中の眼球運動を補正することができます。<p></p><p>本手法は加齢黄斑変性症や網膜静脈分枝閉塞症などの眼底のイメージングに適用され、これらの疾患の臨床評価に有用であることが確認されました。</p><p>本手法により、網膜疾患の包括的かつ高感度なスクリーニングが可能になると期待されます。</p><p>本研究の詳細は、Biomedical Optics Expressに掲載されています。</p><p>Citation: S. Makita, S. Azuma, T. Mino, T. Yamaguchi, M. Miura, and Y. Yasuno, "Extending field-of-view of retinal imaging by optical coherence tomography using convolutional Lissajous and slow scan patterns," <i>Biomed. Opt. Express</i> <b>13</b>, 5212-5230 (2022).</p><p>>> <a href="https://doi.org/10.1364/BOE.467563">Full-length article (open access).</a></p><p></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com0tag:blogger.com,1999:blog-1679429406826424810.post-81536482339876403632022-05-31T02:06:00.002+09:002022-12-07T03:04:45.590+09:00Video lecture series: Fundamentals of Fourier-Domain OCT<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://youtube.com/playlist?list=PL38KibqB_aSATnTfh_ehcsSG00IUMIlQq" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img border="0" data-original-height="720" data-original-width="1280" height="181" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjVtcKkHszCnwwGvr1ZrJL5jvo55EALsk04wbIJ5Xf41BBusWpHyOOTBpkx9IniWWnGFmvJLO1qlcWIyJ62TWif3lchDa9syxT3lMr9tp-lu6Hpw75kHCmVYTe4HHr0VS_3CJFh5_pgMpeXkkkD1z8JdtV4hbg_e3KmGYRIFjDZfRB_px0fIoqAii3WcA/w320-h181/FundamentalsOfOct2022_001.jpg" width="320" /></a></div>Here we release a new lecture series "Fundamentals of Fourier-domain optical coherence tomography." This is a series of five lectures given at University of Tsukuba by Yoshiaki Yasuno, and is aiming at educating students who newly study optical coherence tomography. <p></p><p>I believe this is a good entering points for anyone starting OCT related research/study. </p><p>The five videos are available at a YouTube playlist. </p><p><b>>> <a href="https://youtube.com/playlist?list=PL38KibqB_aSATnTfh_ehcsSG00IUMIlQq">YouTube Playlist "Fundamentals of Fourier-domain OCT."</a></b></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com0tag:blogger.com,1999:blog-1679429406826424810.post-80203336272779691232022-05-17T02:18:00.007+09:002022-12-08T01:46:13.045+09:00Publication: Holographic refocusing of polarization-sensitive OCT<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh2zoK4SaBNG7uyDtq0jJPcIxB-s19lkKnllEPH9qyx_GvkTxpftVNyjbE2cbymsxULxl-peT-ax7H1vSHgyQrLZJLVJg_I4NTFPlj_zVkC-4F7K7M12yCwV8T27fMtm-xEwccGOfHy7OflXcrz2q6kPv6uEpoHz5EsOGLxKvQ_tAN8X6JpARD-Jv1DnA/s1922/getImage.jpeg" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="1369" data-original-width="1922" height="228" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh2zoK4SaBNG7uyDtq0jJPcIxB-s19lkKnllEPH9qyx_GvkTxpftVNyjbE2cbymsxULxl-peT-ax7H1vSHgyQrLZJLVJg_I4NTFPlj_zVkC-4F7K7M12yCwV8T27fMtm-xEwccGOfHy7OflXcrz2q6kPv6uEpoHz5EsOGLxKvQ_tAN8X6JpARD-Jv1DnA/s320/getImage.jpeg" width="320" /></a></div>Our colleagues Lida Zhu recently published a new method to increase the resolution and measurement accuracy of polarization-sensitive optical coherence tomography (PS-OCT).<br /><p></p><p>PS-OCT is an extension of OCT which provides three-dimensional distribution of quantitative polarization property of living samples. However, its measurement always exhibit optical imperfection, such as defocus. Lida showed for the first time that such imperfection results in inaccurate polarization measurement of PS-OCT. In addition, he introduced holographic refocusing to PS-OCT and successfully reduces such inaccuracy. This accuracy correction was experimentally demonstrated by measuring several phantom samples and biological samples such as a zebrafish and an <i>ex vivo</i> chicken muscle.</p><p>The details are published in <i>Biomedical Optics Express</i>.</p><p>Citation: L. Zhu, S. Makita, D. Oida, A. Miyazawa, K. Oikawa, P. Mukherjee, A. Lichtenegger, M. Distel, and Y. Yasuno, "Computational refocusing of Jones matrix polarization-sensitive optical coherence tomography and investigation of defocus-induced polarization artifacts," <i>Biomed. Opt. Express</i> <b>13</b>, 2975-2994 (2022).</p><p>>> <a href="https://doi.org/10.1364/BOE.454975">Full-length article (open access).</a></p><p><br /></p><p> 私たちの研究室の Lida Zhu さんが偏光感受型OCT(PS-OCT)の分解能と偏光計測精度を向上させる新しい方法を発表しました。</p><p>PS-OCT は生体試料の偏光特性を定量的に計測するような機能拡張されたOCT技術です。しかし、その測定には常にデフォーカスなどの光学的欠陥がつきまといます。Lida さんは本研究で、このような光学的欠陥がPS-OCTで計測される偏光特性値を不正確にする(偏光特性値にシステミックな誤差を生じさせる)ことを初めて示しました。さらに、ホログラフィックリフォーカシングをPS-OCTに導入することで、この計測誤差を低減することに成功しました。この誤差低減方法はゼブラフィッシュなどの生体試料、及び様々な疑似試料(ファントム)を測定することで実験的に実証されました。</p><p>この研究の詳細は、Biomedical Optics Expressに掲載されています。</p><p>L. Zhu, S. Makita, D. Oida, A. Miyazawa, K. Oikawa, P. Mukherjee, A. Lichtenegger, M. Distel, and Y. Yasuno, "Computational refocusing of Jones matrix polarization-sensitive optical coherence tomography and investigation of defocus-induced polarization artifacts," <i>Biomed. Opt. Express</i> <b>13</b>, 2975-2994 (2022).</p><p>>> <a href="https://doi.org/10.1364/BOE.454975">Full-length article (open access).</a></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com0tag:blogger.com,1999:blog-1679429406826424810.post-58549086488477873222022-03-17T23:56:00.009+09:002022-12-08T01:47:14.208+09:00Publication: comprehensive and high-resolution imaging of zebrafish<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj1_lViJxWvXPww9UiZpOoQbvdquuYnpBvA-UG3h2_NzVdIOSPDyCUnA3E-pP15u2Hqand5jEkOSKGnHoarklgtPFOgkZALiLz5pbNZWTn9JDRODFcHZFZgPdY6xtesBkrWC9Ui9WI5IJljhfc8d4zeRBC2Uye2U_aCuK5EDgKCEV8ks0pMzjiJ2p8DNg/s2318/Lichtenegger2022BOE.jpg" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="1305" data-original-width="2318" height="180" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj1_lViJxWvXPww9UiZpOoQbvdquuYnpBvA-UG3h2_NzVdIOSPDyCUnA3E-pP15u2Hqand5jEkOSKGnHoarklgtPFOgkZALiLz5pbNZWTn9JDRODFcHZFZgPdY6xtesBkrWC9Ui9WI5IJljhfc8d4zeRBC2Uye2U_aCuK5EDgKCEV8ks0pMzjiJ2p8DNg/s320/Lichtenegger2022BOE.jpg" width="320" /></a></div>Our colleague Antonia Lichtenegger reported multi-contrast and high-resolution tomographic imaging of zebrafish by using our developed optical coherence tomography microscopy (OCM).<p></p><p>Zebrafish is a small and short-life-span fish and can closely mimic human diseases. And hence it is an important animal for medical and life-science research. For example, tumor-model zebrafish can be used for oncological study and anti-cancer-drug study. </p><p>Lichtenegger applied two of our self-developed OCM systems including "multi-contrast Jones-matrix OCM" and "high-resolution OCM" to the investigation of tumor-model zebrafish. The Jones-matrix OCM gives quantitative optical properties of the zebrafish tissues, and it was found that the normal and tumor tissues have different polarization and scattering properties. The high-resolution OCM revealed very fine structural details of the zebrafish.</p><p>The details are reported in Biomedical Optics Express.</p><p>Citation: A. Lichtenegger, P. Mukherjee, L. Zhu, R. Morishita, K. Tomita, D. Oida, K. Leskovar, I. Abd El-Sadek, S. Makita, S. Kirchberger, M. Distel, B. Baumann, and Y. Yasuno, "Non-destructive characterization of adult zebrafish models using Jones matrix optical coherence tomography," <i>Biomed. Opt. Express</i> <b>13</b>, 2202-2223 (2022).</p><p>>> <a href="https://doi.org/10.1364/BOE.455876">Full-length article (open access).</a></p><span></span><p><span></span></p><br /> 私たちの研究室の Antonia Lichtenegger さんが光コヒーレンストモグラフィー顕微鏡(OCM)によるゼブラフィッシュのマルチコントラスト・高解像度イメージングについて論文を出版しました。<p></p><p>ゼブラフィッシュはメダカのような小型の魚であり、ヒト疾患のモデルとして広く利用されており、医学やライフサイエンスの研究において重要な動物です。例えば、腫瘍モデルのゼブラフィッシュは、腫瘍学の研究や抗癌剤の研究に用いることができる。</p><p>Lichtenegger さんは、私たち自身が開発した「マルチコントラスト Jones matrix-OCM (JM-OCM)」と「高解像度OCM」という2つのOCMシステムもちいて腫瘍モデル ゼブラフィッシュのイメージング研究を行いました。JM-OCMを用いることでゼブラフィッシュ組織の光学特性を評価することに成功し、正常組織と腫瘍組織が異なる偏光<br />や散乱特性を持つことが示されました。また、高分解能OCMを用いることでゼブラフィッシュの非常に微細な構造の詳細が明らかになりました。</p><p>この研究の詳細は <i>Biomedical Optics Express の以下の論文として出版されました。</i></p><p>Citation: A. Lichtenegger, P. Mukherjee, L. Zhu, R. Morishita, K. Tomita, D. Oida, K. Leskovar, I. Abd El-Sadek, S. Makita, S. Kirchberger, M. Distel, B. Baumann, and Y. Yasuno, "Non-destructive characterization of adult zebrafish models using Jones matrix optical coherence tomography," <i>Biomed. Opt. Express</i> <b>13</b>, 2202-2223 (2022).</p><p>>> <a href="https://doi.org/10.1364/BOE.455876">Full-length article (open access).</a></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com0tag:blogger.com,1999:blog-1679429406826424810.post-34824465133319976632022-03-06T01:19:00.005+09:002022-12-08T01:46:44.615+09:00Publication: melanin assessment of Vogt-Koyanagi-Harada disease by polarization sensitive OCT<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiu_w8D7racJbttIRql6fNoAZC3qeqR0dmI8-wWx6EFTZBiFBTICpNm2HbBlWpl5XeE6bk7beScM6UB4ClZiCg4GPbJARrVOF6BP7G45QzfHykkAVvqGdysghH-I_AQQmRqTIbQPKxESZW_5P7EXisgXhYakqSZpcLVW-rz0F49SfRa_WF5HeDF9qHI2g/s1006/Miura2022SciRep.jpg" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img border="0" data-original-height="1006" data-original-width="822" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiu_w8D7racJbttIRql6fNoAZC3qeqR0dmI8-wWx6EFTZBiFBTICpNm2HbBlWpl5XeE6bk7beScM6UB4ClZiCg4GPbJARrVOF6BP7G45QzfHykkAVvqGdysghH-I_AQQmRqTIbQPKxESZW_5P7EXisgXhYakqSZpcLVW-rz0F49SfRa_WF5HeDF9qHI2g/s320/Miura2022SciRep.jpg" width="261" /></a></div>Our collaborator Masahiro Miura from Tokyo Medical University recently reported a new image-based assessment method for Vogt-Koyanagi-Harada disease (VHK). <p></p><p>VHK is a systemic disease associated with abnormal reduction of melanin. It also affects the eye and causes the reduction of visual function. Miura used our custom-developed polarization sensitive optical coherence tomography (PS-OCT) to evaluate the melanin in the choroid, which is the layer beneath the retina. His study revealed that the PS-OCT imaging can be used to evaluate the stages of VKH.</p><p>The details of his research is published in <i>Scientific Reports</i>.</p><p>Citation: M. Miura, S. Makita, Y. Yasuno, S. Azuma, T. Mino, T. Yamaguchi, T. Iwasaki, R. Nemoto, H. Shimizu, and H. Goto, "Objective evaluation of choroidal melanin loss in patients with Vogt–Koyanagi–Harada disease using polarization-sensitive optical coherence tomography," <i>Sci. Rep.</i> <b>12</b>, 3526 (2022), <a href="https://doi.org/10.1038/s41598-022-07591-9">https://doi.org/10.1038/s41598-022-07591-9</a></p><p>>> <a href="https://doi.org/10.1038/s41598-022-07591-9">Full-length article (open access)</a>.</p><p><br /></p>私たちの共同研究者である東京医科大学の三浦雅博先生が原田病の新しい画像診断(評価)手法について論文を出版しました。<p></p><p>原田病はメラニンの異常な減少を伴う全身性の疾患です。原田病は眼にも影響を及ぼし、視機能の低下を引き起こします。三浦は、私たちの開発した眼底イメージング用の偏光感受型光コヒーレンストモグラフィー装置(PS-OCT)を用いて、網膜さらに奥にある組織「脈絡膜」のメラニンを評価しました。その結果、VKHの病期PS-OCTで評価することができることが明らかになりました。</p><p>この研究の詳細は、<i>Scientific Reports </i>に論文として掲載されています。</p><p>Citation: M. Miura, S. Makita, Y. Yasuno, S. Azuma, T. Mino, T. Yamaguchi, T. Iwasaki, R. Nemoto, H. Shimizu, and H. Goto, "Objective evaluation of choroidal melanin loss in patients with Vogt–Koyanagi–Harada disease using polarization-sensitive optical coherence tomography," <i>Sci. Rep.</i> <b>12</b>, 3526 (2022), <a href="https://doi.org/10.1038/s41598-022-07591-9">https://doi.org/10.1038/s41598-022-07591-9</a></p><p>>> <a href="https://doi.org/10.1038/s41598-022-07591-9">Full-length article (open access)</a>.<br /></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com0tag:blogger.com,1999:blog-1679429406826424810.post-90910407152284837632022-01-31T11:36:00.003+09:002022-10-17T15:10:33.927+09:00Publication: Fish is polairzed - See full optical property of zebrafish<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgrZN1YvvIA9LTL5FRYbDs5Infw-NusY8iPPTGvHsfvApzTSzSjuqd2SdIgB0nUtpCXfxET5PGRF_G2ZpsigXr_QZ4CAjcs90LF1tsNXU-Wvn9lnLQXFXkH4FrdTfGC48QoPSbi6mK8UCpe-_P92d_FIYa8CqCLU2HQ5QmcIBBHnGW3e5CH1zJC4-l-WA/s921/Lichtenegger2022JBO.jpg" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img border="0" data-original-height="518" data-original-width="921" height="181" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgrZN1YvvIA9LTL5FRYbDs5Infw-NusY8iPPTGvHsfvApzTSzSjuqd2SdIgB0nUtpCXfxET5PGRF_G2ZpsigXr_QZ4CAjcs90LF1tsNXU-Wvn9lnLQXFXkH4FrdTfGC48QoPSbi6mK8UCpe-_P92d_FIYa8CqCLU2HQ5QmcIBBHnGW3e5CH1zJC4-l-WA/w320-h181/Lichtenegger2022JBO.jpg" width="320" /></a></div> Our colleague Antonia Lichtenegger recently demonstrated the whole body and full-optical property of a zebrafish. Zebrafish recently attracts the attentions of biological, medical, and pharmaceutical researchers as it can closely mimic human disease and its fast growth enables quick-research cycle.<p></p><p>In this demonstration, wildtype zebrafish at three development stages, namely eight-days, one-month and two-month post fertilization were investigated <i>in vivo</i> using a polarization-sensitive Jones-matrix optical coherence tomography (JM-OCT) prototype. The scatter and polarization characteristics of various zebrafish organs, such as the skin, the muscles, and the eye, were analyzed in three-dimensions, in a label-free and non-destructive fashion. The presented results showed a promising first step for the usability of JM-OCT in zebrafish-based research.</p><p>The details of this study can be found in a recently published article in Journal of Biomedical Optics (SPIE).<br /></p><p>A. Lichtenegger, P. Mukherjee, J. Tamaoki, L. Bian, L. Zhu, I.G. Abd El-Sadek, S. Makita, K. Leskovar, M. Kobayashi, B. Baumann, Y. Yasuno, "Multicontrast investigation of in vivo wildtype zebrafish in three development stages using polarization-sensitive optical coherence tomography," J. Biomed. Opt. 27, 016001 (2022). https://doi.org/10.1117/1.JBO.27.1.016001</p><p>>> <a href="https://doi.org/10.1117/1.JBO.27.1.016001" target="_blank">Full-length article (open access). </a></p><p>私達の研究室の Antonia Lichtenegger さんが生きたままのゼブラフィッシュのマルチコントラスト光イメージングについて論文を出版しました。ゼブラフィッシュは成長・進展の早い人体の疾患モデルとして近年生物学、医学、薬学で大きな注目を集める動物です。</p><p> この論文では、我々の開発した Jones matrix OCT (JM-OCT) 顕微鏡を用いて、発生後8日、1ヶ月、2ヶ月という3つのタイミングにおけるゼブラフィッシュの全身、皮膚、筋肉、眼球などの組織・臓器のマルチコントラスト・3次元トモグラフィーイメージングに成功しました。この結果は、今後 JM-OCT がゼブラフィッシュを用いた生物、医学、薬学研究において有用なツールになることを示唆しています。</p><p> この研究の詳細は米光工学会 (SPIE) の Journal of Biomedical Optics に掲載されています。</p><p>A. Lichtenegger, P. Mukherjee, J. Tamaoki, L. Bian, L. Zhu, I.G. Abd El-Sadek, S. Makita, K. Leskovar, M. Kobayashi, B. Baumann, Y. Yasuno, "Multicontrast investigation of in vivo wildtype zebrafish in three development stages using polarization-sensitive optical coherence tomography," J. Biomed. Opt. 27, 016001 (2022). https://doi.org/10.1117/1.JBO.27.1.016001</p><p>>> <a href="https://doi.org/10.1117/1.JBO.27.1.016001" target="_blank">Full-length article (open access). </a></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-74536028347491722842021-12-09T03:30:00.000+09:002021-12-09T03:35:48.157+09:00筑波大学COG研究紹介:研究室に参加したい皆さんへ<p> 私達の研究室「Computational Optics Group」(筑波大学安野研究室)への参加を希望する皆さんへ向けた研究室・研究紹介ビデオを公開します。</p><p><a href="https://cog-news.blogspot.com/2021/11/seminar-talk.html">先日公開したセミナービデオ</a>の内容を40分程度に抜粋したものです。(冒頭に安野からのメッセージが追加され、解説は新たに取り直されています。)研究室参加に興味のある方はぜひご覧ください。(すでにセミナービデオをご覧になった方は冒頭のメッセージだけでもどうぞ。)</p><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen="" class="BLOG_video_class" height="266" src="https://www.youtube.com/embed/53-lu1sgZbo" width="320" youtube-src-id="53-lu1sgZbo"></iframe></div><br /><p><br /></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com01 Chome-1ー1 Tennodai, Tsukuba, Ibaraki 305-8577, Japan36.1067848 140.101899821.583807036710645 122.52377480000001 50.629762563289354 157.6800248tag:blogger.com,1999:blog-1679429406826424810.post-25235959115410396982021-12-09T03:00:00.002+09:002021-12-09T15:28:41.221+09:00Publication: How dense is the tissue? Deep learning reveals the particle density of tissue<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://www.osapublishing.org/getImage.cfm?img=OG0kcC5sYXJnZSxib2UtMTMtMS0xNjgtZzAwNw" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="268" data-original-width="500" height="172" src="https://www.osapublishing.org/getImage.cfm?img=OG0kcC5sYXJnZSxib2UtMTMtMS0xNjgtZzAwNw" width="320" /></a></div> <br />Our colleague Praew, Thitiya Seesan recently reported a new deep-learning based framework for estimating the scatterer density of a tissue. In this framework, a tissue is imaged by optical coherence tomography (OCT). A small patch of the OCT image, which is dominated by a small granular pattern so-called ``speckle,'' is processed by a deep-convolved neural network (DCNN). And the DCNN estimates the density of the scatterer in the sample. <p></p><p>Since cell organelles are the major scatterer in the tissue, the scatterer density estimation can assesses the integrity of the tissue.</p><p>In general, DCNN needs to be trained with a huge dataset. Praew made a wave-optics based OCT image formation simulator, which synthesized a vast number of virtual OCT images. It is used to train the DCNN. Since the training dataset was obtained without experiments, this framework enables highly accurate DCNN-based scatterer density estimator with nearly negligible cost.</p><p>The details of this frame work are published in <i>Biomedical Optics Express</i>.</p><p>T. Seesan, I.A. El-Sadek, P. Mukherjee, L. Zhu, K. Oikawa, A. Miyazawa, L.T.W. Shen, S. Matsusaka, P. Buranasiri, S. Makita, and Y. Yasuno, "Deep convolutional neural network-based scatterer density and resolution estimators in optical coherence tomography," <i>Biomed. Opt. Express</i> <b>13</b>, 168-183 (2022).</p><p>>> <a href="https://doi.org/10.1364/BOE.443343" target="_blank">Full-length article (open access)</a>. </p><p>私達の研究室の Praew (Thitiya Seesan)さんが深層学習ニューラルネットワークを用いて整体組織の散乱体密度を計測する新たなフレームワークについて論文を発表しました。このフレームワークでは、組織はまずOCT(光コヒーレンストモグラフィー)でイメージングされます。OCT画像を拡大してみると、それが「スペックル」と呼ばれる小さな顆粒状のパターンで構成されていることがわかります。Praewさんの開発したニューラルネットワークは、この顆粒状のパターンを処理して組織の中の散乱体密度を割り出します。</p><p>組織内の散乱体とは、例えば、細胞内小器官のことです。ですので、このフレームワークで組織内の散乱体密度を計測することで、組織の特性、正常性・異常性を評価することが可能になります。</p><p>一般的に、ニューラルネットワークをトレーニングするには大量の実験データ(OCT画像)が必要とされます。Praewさんは波動光学に基づいたOCT画像シミュレータを開発し、それによりニューラルネットワークをトレーニングするための大量の疑似OCT画像を生成することに成功しました。これにより、実験を行うことなく、極めて低コストで高精度にニューラルネットワークをトレーニングすることが可能になりました。</p><p>この研究の詳細は Optica の論文誌 <i>Biomedical Optics Express</i> に掲載されています。</p><p>T. Seesan, I.A. El-Sadek, P. Mukherjee, L. Zhu, K. Oikawa, A. Miyazawa, L.T.W. Shen, S. Matsusaka, P. Buranasiri, S. Makita, and Y. Yasuno, "Deep convolutional neural network-based scatterer density and resolution estimators in optical coherence tomography," <i>Biomed. Opt. Express</i> <b>13</b>, 168-183 (2022).</p><p>>> <a href="https://doi.org/10.1364/BOE.443343" target="_blank">Full-length article (open access)</a>. </p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com1 Chome-1ー1 Tennodai, Tsukuba, Ibaraki 305-8577, Japan36.1067848 140.10189987.7965509638211543 104.94564980000001 64.417018636178852 175.2581498tag:blogger.com,1999:blog-1679429406826424810.post-65486001949551694572021-11-19T12:40:00.001+09:002021-11-19T12:42:31.306+09:00Seminar talk: 光と信号処理で見る生体の機能と形態筑波大学イノベイティブ計測技術開発研究センター主催のセミナーにおいて安野が最近の研究「計算光学顕微鏡(Computationally augmented optical coherence microscope)」について講演を行いました。ビデオを公開します。これまでまとめて日本語で話す機会がなかった、私たちの最近の研究成果を概観しています。長丁場のセミナートークですが、ぜひお楽しみください。<div><br /></div><div><div>トーク冒頭では、私たちの研究グループ(Computational Optics Group)を紹介しています。</div><div>また、トークの最後では、私(安野)から筑波大学に関わるすべての人たちへのメッセージが含まれています。</div></div><div><br /></div><div><div><a href="https://youtu.be/XBPXH_nBPfc" target="_blank">YouTube「光と信号処理で見る生体の機能と形態+「認識する計測」: Computationally Augmented OCT Microscope」</a>(別ウィンドウが開きます)</div></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen="" class="BLOG_video_class" height="266" src="https://www.youtube.com/embed/XBPXH_nBPfc" width="320" youtube-src-id="XBPXH_nBPfc"></iframe></div><br /><div><br /></div><div>※ 講演時間の都合で深層学習を使った「構成的計測」と「高精度・高機能眼底イメージング」は含まれていません。「構成的計測」は近々いちどまとめたいと思います。「高精度・高機能眼底イメージング」はひとまず<a href="https://youtu.be/hwhjpmPkdAY" target="_blank">このショートトーク(英語版10分 YouTube)</a>をお楽しみください。</div><div></div><div><br /></div>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com01 Chome-1ー1 Tennodai, Tsukuba, Ibaraki 305-8577, Japan36.1067848 140.10189987.7965509638211543 104.94564980000001 64.417018636178852 175.2581498tag:blogger.com,1999:blog-1679429406826424810.post-57069173087325061622021-10-21T16:59:00.003+09:002021-10-21T17:00:48.745+09:00Publication: Three-dimensional dynamics optical coherence tomography for tumor spheroid evaluation<p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg_Y8yl8m7s37fNyRMnssYreAbVjcHu4GG9TI4GU2eBlleYhXyggdPggJ6-Aufc5MiO34neCczwxem3PBmAkmgLpwtQlk_da_ta387Jge4zAeKW_-MFVMJkn28lAehiWmt8bbUrfkzVcjX2/s838/Ibrahim2021.jpg" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img border="0" data-original-height="837" data-original-width="838" height="200" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg_Y8yl8m7s37fNyRMnssYreAbVjcHu4GG9TI4GU2eBlleYhXyggdPggJ6-Aufc5MiO34neCczwxem3PBmAkmgLpwtQlk_da_ta387Jge4zAeKW_-MFVMJkn28lAehiWmt8bbUrfkzVcjX2/w200-h200/Ibrahim2021.jpg" width="200" /></a></div> Our colleague Ibrahim Abd El-Sadek recently reported label-free volumetric imaging of human tumor spheroid.<p></p><p>In this research, he improved our previously reported label-free tissue activity method into three-dimensional (3D). By introducing a new probe-beam scan protocol and an optimized signal processing method, he successfully visualized and quantified the 3-D tissue viability of human breast cancer cell cultures (MCF7) spheroid. By virtue of the non-invasiveness of the method, the hourly time-course alteration of the spheroid viability was investigated. The spheroids were also treated by anti-cancer drugs and their drug response was also visualized in 3D.</p><p>The details are reported in Biomedical Optics Express.</p><p><a href="https://www.osapublishing.org/boe/fulltext.cfm?uri=boe-12-11-6844&id=460480">>> Full length article (open access).</a></p><p><br /></p><p>私達の研究室で博士取得のために研究している Ibrahim El-Sadek さんが腫瘍スフェロイド(培養腫瘍細胞塊)の活動性の三次元イメージングに成功しました。</p><p>この研究では、私達が以前に開発した活動性イメージング手法に新たな走査プロトコルと信号処理手法を導入することで、三次元の活動性イメージングを実現しました。この手法がラベルフリー・非侵襲であることを利用し<br />て、スフェロイドの活動性の変化の1時間おきのライムラプス計測を行いました。これにより、スフェロイドの活動の時間変化の定量化に成功しました。さらに、この腫瘍スフェロイドに抗がん剤を適用し、その後の変化を上記の新手法で計測することにより、腫瘍スフェロイドの抗癌剤に対する反応を画像化することに成功しました。</p><p>本研究の詳細は Biomedical Optics Express 誌で報告しています。</p><p><a href="https://www.osapublishing.org/boe/fulltext.cfm?uri=boe-12-11-6844&id=460480">>> Full length article (open access).</a></p><p>Citation: I.A. El-Sadek, A. Miyazawa, L.T.W. Shen, S. Makita, P. Mukherjee, A. Lichtennegger, S. Matsusaka, and Y. Yasuno, ``Three-dimensional dynamics optical coherence tomography for tumor spheroid evaluation,'' <i>Biomed. Opt. Express</i> <b>12</b>, 6844- 6863 (2021).</p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-84470573612649207122021-10-21T16:33:00.005+09:002021-12-11T16:26:16.178+09:00Publication: Label-free multi-contrast imaging of mouse liver microvascular complex<p></p><div class="separator" style="clear: both; text-align: left;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhQrrfRsWuKumMkouToZ16K88i4F7g3fF_ISnPMtNXu-iKBcyAUEvUI4ocy2dhKYEV6MGXN8MHHQebKei09piQL771Bv8cX5Py3Fzpg5SG5vxW49t7ySe9CopYJbECCIfwGmjlVyTWTG_oY/s618/Figure.jpg" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="434" data-original-width="618" height="225" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhQrrfRsWuKumMkouToZ16K88i4F7g3fF_ISnPMtNXu-iKBcyAUEvUI4ocy2dhKYEV6MGXN8MHHQebKei09piQL771Bv8cX5Py3Fzpg5SG5vxW49t7ySe9CopYJbECCIfwGmjlVyTWTG_oY/s320/Figure.jpg" width="320" /></a></div><div style="text-align: left;"> Our colleague Pradipta Mukherjee recently reported a non-invasive three-dimensional (3D) imaging of microvascular complex in mouse livers. The imaging was performed by multi-contrast optical coherence tomography (OCT) developed by our group at the University of Tsukuba.</div><p></p><p style="text-align: left;">In this study, he investigated the functional and structural properties of healthy and early fibrotic mouse liver tissues using the custom-made multi-contrast OCT which is capable of measuring tissue dynamics, attenuation coefficient, and local birefringence. High dynamics appearance was found in healthy liver microvascular complex just after the scarification. In addition, a clear 3D network of vessel-like structure was clearly visualized in early fibrotic liver without any contrast agent.</p><p style="text-align: left;">So, multi-contrast OCT might become a powerful tool to investigate liver metabolic disorders in a nondestructive.</p><p style="text-align: left;">The details of the research is published in Scientific Reports.</p><div style="text-align: left;">>> <a href="https://www.nature.com/articles/s41598-021-98909-6">Full length article (open access)</a></div><div style="text-align: justify;"><br /></div><div style="text-align: justify;">私達の研究室の Pradipta Mukherjee 研究員が「マウス肝臓の血管周辺組織の活動の三次元ラベルフリーイメージング」について論文発表を行いました。</div><div style="text-align: justify;"><br /></div><div style="text-align: justify;">この研究では、私達のグループで開発された、3次元ラベルフリーなマルチコントラストOCT顕微鏡を用いてマウス肝臓組織の形態、活動性、光散乱特性、複屈折(偏光)特性の三次元画像化を行っています。この研究により、正常マウスと肝線維化モデルマウスの肝臓両方で、組織摘出後にも血管付近に強い組織活動を示す領域が存在することが画像化によって示されました。</div><div style="text-align: justify;"><br /></div><div style="text-align: justify;">この研究の詳細は Scientific Reports 誌に掲載されています。</div><div><div style="text-align: justify;"><br /></div><div style="text-align: justify;">>> <a href="https://www.nature.com/articles/s41598-021-98909-6">Full length article (open access)</a></div></div><div style="text-align: justify;"><br /></div><div style="text-align: justify;">Citation: P. Mukherjee, A. Miyazawa, S. Fukuda, T. Yamashita, D. Lukmanto, K. Okada, I. A. El-Sadek, L. Zhu, S. Makita, T. Oshika, and Y. Yasuno, "Label-free functional and structural imaging of liver microvascular complex in mice by Jones matrix optical coherence tomography," <i>Sci. Rep.</i> <b>11</b>, 20054 (2021).</div>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-34963291149720037632021-10-13T14:50:00.001+09:002021-10-21T16:10:51.628+09:00Short Lecture on Motion-Free Wide-Field and Multi-contrast Imaging Retinal Pathology<p> Here we release a short (9-min) presentation about “wide-field, three-dimensionally motion-free, and multi-contrast retinal imaging.” The imaging was performed by our latest Lissajous scan optical coherence tomography (OCT) device with polarization sensitivity. The Lissajous scan method enables perfectly motion free wide field imaging of the retina. The vascular pathology is highlighted by OCT-angiography feature of our device. In addition, the polarization sensitivity of our OCT gives a specific contrast to the pathology of retinal pigment epithelium.</p><p><a href="https://youtu.be/hwhjpmPkdAY" target="_blank">>>YouTube video</a></p><p>私たちの開発した偏光感受型 Lissajous による「高画角・モーションフリー・マルチコントラスト3次元網膜イメージング」に関するショートプレゼンテーション(9分間)を公開します。この研究では光コヒーレンストモグラフィー(OCT)に Lissajous scan と呼ばれる走査方式とそれに基づいた信号処理を導入することで高画角で、かつ眼球のモーションの影響を受けない三次元イメージングを実現しています。さらに、OCTアンギオグラフィー技術により血管の異常を可視化し、偏光感受性計測を導入することで色素上皮の異常の可視化を行っています。</p><p><a href="https://youtu.be/hwhjpmPkdAY" target="_blank">>> YouTube video</a></p><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen="" class="BLOG_video_class" height="266" src="https://www.youtube.com/embed/hwhjpmPkdAY" width="320" youtube-src-id="hwhjpmPkdAY"></iframe></div><br /><p><br /></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-65675364211121364352021-06-25T18:34:00.002+09:002021-06-25T18:34:23.662+09:00Short Lecture on Multi-contrast Optical Coherence Microscope<p> Here we release a short (15-min) video about our "multi-contrast optical coherence microscope (OCM)" project. The multi-contrast OCM enabled deep-tissue imaging, label-free metabolic contrast, tissue ultrastructure (microstructure) assessment, and quantitative 3D polarization imaging.</p><p>The video gives a short introduction to our recent development of the multi-contrast OCMOCM. </p><p>私達の開発している「マルチコントラスト OCT顕微鏡」のハイライト解説ビデオ(英語15分)を公開します。このマルチコントラストOCT顕微鏡は組織の深い部分を光分解で可視化できる他、非侵襲ラベルフリーにかつ三次元的に組織代謝を可視化したり、3次元かつ定量的に組織の偏光特性を可視化することができます。ビデオでは最近の研究結果をまとめて解説しています。</p><p>>> <a href="https://youtu.be/ZX5wwSZ2g7o" target="_blank">YouTube video</a></p><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen="" class="BLOG_video_class" height="266" src="https://www.youtube.com/embed/ZX5wwSZ2g7o" width="320" youtube-src-id="ZX5wwSZ2g7o"></iframe></div><br /><p><br /></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-17619043652726726702021-06-25T18:24:00.004+09:002021-06-25T18:24:46.562+09:00認識論的計測学<p> グループリーダーである安野がここ数年思索をすすめている思考フレームワーク「認識論的計測学」について、解説(講義)ビデオを公開します。</p><p>認識論的計測学は計測を認識という行為の一部ととらえることで、センシング(狭義の計測)から病気のAIによる自動診断などの「理解」までを統一したモデルで説明するための試みです。2019年夏から親しい方たちに断片的な説明だけを行ってきましたが、今回、筑波大学大学院講義の一部としてある程度まとまった解説をおこないました。</p><p>2時間近い長丁場の講義ですが、ぜひお楽しみください。</p><p>>> <a href="https://youtu.be/Ev6mjS4TTlk" target="_blank">YouTube ビデオ</a><br />>> <a href="https://youtube.com/playlist?list=PL38KibqB_aSAcc9GVi5pQnhcYzLd2IwgO" target="_blank">講義シリーズ「社会と研究と計測」のプレイリスト</a></p><p></p><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen="" class="BLOG_video_class" height="266" src="https://www.youtube.com/embed/Ev6mjS4TTlk" width="320" youtube-src-id="Ev6mjS4TTlk"></iframe></div><p></p><p><br /></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.comtag:blogger.com,1999:blog-1679429406826424810.post-4446046274140999342021-06-22T17:58:00.001+09:002021-06-22T17:58:29.173+09:00Publication: Computational multi-directional imaging<p></p><div style="text-align: left;"><div class="separator" style="clear: both; text-align: left;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhJXTN5r4SedwONQ-LWUo8ftkruCuH1Iq_yAKskrJ8K2eveKmrA7-DPUtdSei1otjaZ6r-7uXdLrWHcxdOxYxhyphenhyphenPoyFNup6XeSJhj-OM6LzxjzTzVFYN0uUbgBibVZ1Uwo6gEL79bOCpA3a/s1450/Oida2021BOE.jpg" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="1293" data-original-width="1450" height="178" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhJXTN5r4SedwONQ-LWUo8ftkruCuH1Iq_yAKskrJ8K2eveKmrA7-DPUtdSei1otjaZ6r-7uXdLrWHcxdOxYxhyphenhyphenPoyFNup6XeSJhj-OM6LzxjzTzVFYN0uUbgBibVZ1Uwo6gEL79bOCpA3a/w200-h178/Oida2021BOE.jpg" width="200" /></a></div>Our colleague Daisuke Oida recently reported a new high-resolution tissue assessment method so-called "computational multi-directional imaging."</div><div style="text-align: left;">This method is the combination of phase sensitive optical coherence tomography (OCT) and holographic signal processing. This method generates multiple OCT images which are similar to those taken from several observation directions. By using this method, Daisuke successfully visualized sub-OCT-resolution microstructures of <i>ex vivo</i> muscle samples.</div><p></p><p style="text-align: left;">The details are reported in Biomedical Optics Express, a journal of Optical Society of America.</p><p style="text-align: left;">>> <a href="https://doi.org/10.1364/BOE.426125" target="_blank">Full-length article (open access)</a></p><p style="text-align: left;">私達の研究室の笈田大介君が「computational multi-directional imaging」という新しいイメージング手法に関する論文を出版しました。</p><p style="text-align: left;">この技術は、位相感受型OCT装置とホログラフィック信号処理を組み合わせたものであり、一回の計測で取得したトモグラフィーから「あたかも様々な方向から観察したような」複数のトモグラフィーを作り出します。今回の研究ではさらに、この多方向からの観察画像を解析することで、OCTの分解能以下の組織の形状を可視化することに成功しました。</p><p style="text-align: left;">この研究の詳細は米光学会の研究誌 Biomedical Optics Express に出版されました。</p><p style="text-align: left;">>> <a href="https://doi.org/10.1364/BOE.426125" target="_blank">Full-length article (open access)</a></p><p style="text-align: left;">Citation:</p><p style="text-align: left;">Daisuke Oida, Kiriko Tomita, Kensuke Oikawa, Tai-Ang Wang, Shuichi Makita, Meng-Tsan Tsai, and Yoshiaki Yasuno, "Computational multi-directional optical coherence tomography for visualizing the microstructural directionality of the tissue," Biomed. Opt. Express 12, 3851-3864 (2021), <a href="https://doi.org/10.1364/BOE.426125">https://doi.org/10.1364/BOE.426125</a>.<br /></p><p></p>Joschi, Yoshiaki Yasunohttp://www.blogger.com/profile/04394589757683740334noreply@blogger.com