AIモデルの稼働に必要なメモリ(DRAM)の価格が過去1年で約7倍に急騰していることが明らかになりました。GPUに注目が集まりがちなAIインフラコスト議論において、メモリが新たなボトルネックとして浮上しています。 特にHBM(高帯域幅メモリ)の需要がハイパースケーラーの大規模データセンター投資と相まって急増しています。エンタープライズAI展開においてもメモリコストの管理が重要な課題となっています。