Deep learning drives dynamic autofocus in grayscale images
モデルの構造と線形自己注意。クレジット:センサー(2024年)。DOI: 10.3390/s24134336

中国科学院の長春光学・精密機械・物理研究所の研究者らは、深層学習の力を利用してグレースケール画像内の関心領域を動的に選択する新しいオートフォーカス方法を開発した。の勉強雑誌に掲載されましたセンサー

従来のオートフォーカス方法は、アクティブとパッシブのカテゴリに分類できます。アクティブ フォーカシングは外部センサーに依存するため、コストと複雑さが増加します。対照的に、受動的なフォーカシングは次のことを評価します。しかし、固定されたフォーカス ウィンドウと評価関数は、特に複雑なシーンでフォーカスの失敗につながることがよくあります。

さらに、包括的なデータセットが不足しているため、オートフォーカスにおける深層学習手法の広範な採用が妨げられています。従来の画像ベースのオートフォーカス ソリューションは、カメラのズームやズームの変化による光点の誤判断や焦点呼吸などの問題を抱えていました。フォーカシング中に画像の鮮明さの評価に影響を与える可能性があります。

この研究では、研究者らはこれらの問題を解決するために 3 段階の方法に着手しました。まず、連続的な焦点調整を行ってグレースケール画像シーケンスの包括的なデータセットを構築し、単純なものから複雑なものまで、さまざまな焦点距離で多様なシーンをキャプチャしました。このデータセットは、オートフォーカス アルゴリズムのトレーニングと評価のための貴重なリソースとして機能します。

次に、研究者らはオートフォーカスの問題を順序回帰タスクに変換し、フルスタック検索と単一フレーム予測という 2 つのフォーカス戦略を提案しました。これらの戦略により、ネットワークはフレーム内の顕著な領域に適応的に焦点を合わせることができるため、事前に選択された焦点ウィンドウの必要性がなくなります。

最後に、研究者らは線形セルフアテンション メカニズムを備えた MobileViT ネットワークを設計しました。この軽量でありながら強力なネットワークは、最小限の計算コストで動的なオートフォーカスを実現し、高速かつ正確な焦点合わせを保証します。

実験の結果、フルスタック検索戦略は 27.8 ミリ秒の焦点合わせ時間で 0.094 の平均絶対誤差 (MAE) を達成したが、シングルフレーム予測戦略はわずか 27.5 ミリ秒で 0.142 の MAE を達成したことが示されました。これらの結果は、深層学習ベースのオートフォーカス手法の優れたパフォーマンスを強調しています。

この深層学習ベースのオートフォーカス手法は、従来のイメージング技術を強化する AI の可能性を強調しています。将来の研究では、この方法をカラー画像やビデオシーケンスに応用することが検討される可能性があります。さらに、ネットワーク アーキテクチャと焦点合わせ戦略を最適化することで、さらに高速かつ正確な焦点合わせが可能になる可能性があります。

詳細情報:Yao Wang 他、グレースケール画像のための深層学習ベースの動的関心領域オートフォーカス方法、センサー(2024年)。DOI: 10.3390/s24134336

引用:ディープラーニングがグレースケール画像の動的なオートフォーカスを推進 (2024 年 9 月 16 日)2024 年 9 月 16 日に取得https://techxplore.com/news/2024-09-deep-dynamic-autofocus-grayscale-images.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。