【基礎用語解説】HBM
HBM(High Bandwidth Memory)とは非常に高いメモリ帯域幅(データ転送速度)を持ったDRAMです。帯域幅は、メモリが1秒間に転送可能なデータ容量で定義されます。
このメモリ帯域幅を増やすには、以下の二通りが考えられます。
転送できる道(バス)の幅を広くする
転送速度を上げる
これまでの主流は転送速度を引き上げるほうで、SDRAM(100~166MHz)→DDR(200~400MHz)→DDR2(400~1066MHz)→DDR3(800~1866MHz)、DDR4世代では2133~4266MHzなどと発展してきました。
ただし当然どこまでの無制限に転送速度を上げられるわけではなく、消費電力が急増してしまう問題が生じました。そこで、近年では前者に焦点を当てた設計に注力しています。
その結果として生まれたのが、HBMやDDR6(graphics double data rate type six synchronous dynamic random-access memory) になります。
HBMの構成
プロセッサとメモリはSilicon Interposerという小さなサブ基板上に接続し、このSilicon Interposerをメイン基板と接続するという構成になっています。
このSilicon Interposerは名前の通りシリコンから作成されており、通常の基板よりも大量の配線が可能です。そして通常の基板よりも伝導特性がよいため、信号の電流/電圧を低く抑えることが可能です。
デメリットはこのシリコンのサブ基板を導入することによって、価格が上がることです。そのためハイエンド用や小面積での設計が求められる場合に使用されます。
HBMの応用先
GPU
GPUは、画像やビデオのレンダリング時に大量のデータを高速に処理する必要があります。HBMは、その高い帯域幅でGPUの性能ボトルネックを削減します。高性能コンピューティング(HPC)
スーパーコンピュータや専門のデータセンターでは、複雑な計算やシミュレーションを高速に実行するためにHBMが採用されます。ディープラーニングとAI
ニューラルネットワークの学習と推論は、大量のデータと高速な計算が必要です。HBMは、その高帯域幅でAIチップの性能を最大限に引きだすことができます。
2024年5月現在、AI向けデバイスが各半導体メーカーからリリースされ始めており、今後もHBMの需要は増加していくものと考えられます。
参考文献
#半導体 #半導体関連 #半導体株 #半導体って何 #半導体の基礎
よろしければサポートもよろしくお願いいたします.頂いたサポートは主に今後の書評執筆用のために使わせていただきます!