サムスン電子は、8 層 HBM3E メモリ チップに対する Nvidia の厳格なテストに合格し、急速に成長する AI チップ業界の主要サプライヤーとしての地位を確立しました。 HBM (High Bandwidth Memory) は、超高速で大量のデータを処理できるように設計された特殊なタイプの DRAM です。これは、人工知能アプリケーションに必要な複雑な計算を実行するための重要なコンポーネントです。最新の HBM3E は、HBM3 よりもさらに高いパフォーマンスとエネルギー効率を提供します。
Nvidia の承認を確保することは、HBM チップの熱と電力消費に関する課題に以前から直面していたサムスンにとってハードルでした。同社はその後、AI アプリケーションの要求が高まる中、Nvidia の基準を満たすためにこれらの問題に取り組んできました。サムスンは、SKハイニックスやマイクロンなどの企業とともに、この需要に応えようと競っている。
サムスンの 12 層 HBM3E チップはまだ評価中ですが、いずれにせよ、8 層バージョンの承認は同社にとって一歩前進です。 Nvidia は最近、Samsung の第 4 世代高帯域幅メモリ チップである HBM3 を初めてクリアしました。ただし、ロイターは以前、このチップは中国固有の Nvidia グラフィック カードでのみ使用される可能性が高いと述べました。
免責事項: 提供されるすべてのリソースの一部はインターネットからのものです。お客様の著作権またはその他の権利および利益の侵害がある場合は、詳細な理由を説明し、著作権または権利および利益の証拠を提出して、電子メール [email protected] に送信してください。 できるだけ早く対応させていただきます。
Copyright© 2022 湘ICP备2022001581号-3