Samsung Electronics a passé avec succès les tests rigoureux de Nvidia pour ses puces mémoire HBM3E à 8 couches, se positionnant ainsi comme un fournisseur clé pour le secteur en croissance rapide des puces d'IA. HBM, ou High Bandwidth Memory, est un type spécialisé de DRAM conçu pour gérer des quantités massives de données à une vitesse fulgurante. Il s’agit d’un composant crucial pour alimenter les calculs complexes requis pour les applications d’intelligence artificielle. HBM3E, la dernière itération, offre des performances et une efficacité énergétique encore supérieures à celles du HBM3.
Obtenir l'approbation de Nvidia était un obstacle pour Samsung, qui avait déjà été confronté à des problèmes liés à la consommation de chaleur et d'énergie de ses puces HBM. La société a depuis résolu ces problèmes pour répondre aux normes de Nvidia, à mesure que les applications d'IA deviennent de plus en plus exigeantes. Samsung, aux côtés de sociétés comme SK Hynix et Micron, se bat pour répondre à cette demande.
Alors que les puces HBM3E à 12 couches de Samsung sont encore en cours d'évaluation, l'approbation de la version à 8 couches est malgré tout un pas en avant pour l'entreprise. Nvidia a également récemment autorisé pour la première fois les puces de mémoire à large bande passante de quatrième génération de Samsung, HBM3. Cependant, Reuters avait précédemment déclaré que les puces ne seraient probablement utilisées que dans les cartes graphiques Nvidia spécifiques à la Chine.
Clause de non-responsabilité: Toutes les ressources fournies proviennent en partie d'Internet. En cas de violation de vos droits d'auteur ou d'autres droits et intérêts, veuillez expliquer les raisons détaillées et fournir une preuve du droit d'auteur ou des droits et intérêts, puis l'envoyer à l'adresse e-mail : [email protected]. Nous nous en occuperons pour vous dans les plus brefs délais.
Copyright© 2022 湘ICP备2022001581号-3