記憶装置間の高速化手法

用語HDD,メモリ

記事内に広告が含まれています。

本記事では、記憶装置間の速度差を埋めて、待ち時間によるロスを防ぐための手法の一つを紹介します。

その前に、CPUのレジスタと主記憶装置(メインメモリ)とハードディスク(HDD/SSD)の間では、大きな速度差があります。

この速度差を防ぐための手法がキャッシュになります。
またレジスタとメモリ間に設けるキャッシュメモリ※と、メインメモリとハードディスク(HDD/SSD)の間に設けるディスクキャッシュなどがあります。

※上記の図のようにCPUの中にキャッシュメモリが入っていて、処理の高速化が図られています。

キャッシュメモリとディスクキャッシュ

・キャッシュメモリ
キャッシュメモリは、1次キャッシュ、2次キャッシュ…と、重ねて設置できる装置になります。
CPUに内蔵できる容量はすごく小さいものになるので、「それより低速だけど、その分容量を大きく持てる」メモリをCPUの外側に増設することで、キャッシュ効果が期待できます。

キャッシュ効果:CPUが主記憶装置から読み込んだデータはキャッシュメモリに保持されるので、同じデータを読むときは、高速なキャッシュメモリから取得することができます。これにより処理の高速化が図れます。

DRAMは主記憶装置に使われるので、DRAMより速いSRAMがキャッシュメモリとして使われます。

・ディスクキャッシュ
キャッシュメモリと同じ役割を、主記憶装置とHDD/SSD間で担うのがディスクキャッシュになります。
ディスクキャッシュは、専用の半導体メモリを搭載したり、主記憶装置の一部を間借りするなどして実装します。

以上が高速化の手法の紹介になります。

システムトラストでは一緒に働いていただける仲間を募集中です。
株式会社システムトラスト

システムトラストでは、システムエンジニア、プログラマーなどを随時募集中です。気軽にご相談ください。

お問合せ