ChatGPT のような人工知能 (AI) モデルはアルゴリズムに基づいて実行され、機械学習を通じて処理されるデータに対する多大な欲求を持っていますが、そのデータ処理能力の限界についてはどうなのでしょうか?北京大学集積回路学部および人工知能研究所のSun Zhong教授率いる研究者らは、データ処理を制限するフォン・ノイマンのボトルネックの解決に着手した。
彼らの論文では出版された日記でデバイス2024 年 9 月 12 日、チームはデュアル IMC (インメモリ コンピューティング) スキームを開発しました。機械学習プロセスだけでなく、従来のデータ操作のエネルギー効率も向上します。
アルゴリズムをキュレートするとき、ソフトウェアエンジニアそしてコンピューター科学者は、行列ベクトル乗算 (MVM) として知られるデータ操作に依存しています。ニューラルネットワーク。ニューラル ネットワークは、人間の脳の機能と構造を模倣する AI モデルによく見られるコンピューティング アーキテクチャです。
データセットの規模が急速に増大するにつれて、データの移動や、データの処理と転送の間の速度の不一致によってコンピューティングのパフォーマンスが制限されることがよくあります。これはフォン ノイマン ボトルネックとして知られています。従来のソリューションはシングル インメモリ コンピューティング (シングル IMC) 方式であり、ニューラル ネットワークの重みはメモリ チップに保存され、入力 (画像など) は外部から提供されます。
ただし、シングル IMC の注意点は、オンチップとオフチップのデータ転送の切り替えと、大きな回路占有面積と高消費電力の原因となるデジタルアナログコンバータ (DAC) の使用です。
IMC 原理の可能性を最大限に活用するために、チームは、ニューラル ネットワークの重みと入力の両方をメモリ アレイに保存し、完全にメモリ内でデータ操作を実行するデュアル IMC スキームを開発しました。
次にチームは、信号回復と画像処理のために、抵抗性ランダム アクセス メモリ (RRAM) デバイス上でデュアル IMC をテストしました。MVM 操作に適用した場合のデュアル IMC スキームの利点は次のとおりです。
- 完全なインメモリ計算により効率が向上し、オフチップのダイナミック ランダム アクセス メモリ (DRAM) とオンチップのスタティック ランダム アクセス メモリ (SRAM) による時間とエネルギーが節約されます。
- 完全なインメモリ方式により制限要因であったデータの移動が排除されるため、コンピューティング パフォーマンスが最適化されます。
- シングル IMC 方式では必要な DAC が不要になるため、製造コストが削減されます。これは、チップ面積、計算遅延、および電力要件を節約することも意味します。
急速に需要が高まる中、データ今日のデジタル時代における処理において、この研究で得られた発見はコンピューティング アーキテクチャと人工知能に新たなブレークスルーをもたらす可能性があります。
詳細情報:Shiqing Wang 他、ニューラル ネットワークを加速するための行列ベクトル乗算のデュアル インメモリ コンピューティング、デバイス(2024年)。DOI: 10.1016/j.device.2024.100546
引用:コンピューティングスキームは、従来のデータ操作のエネルギー効率を向上させながら機械学習を加速します (2024 年 9 月 26 日)2024 年 9 月 28 日に取得https://techxplore.com/news/2024-09-scheme-machine-energy-efficiency-traditional.html より
この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除いて、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。