Perkembangan kecerdasan buatan (AI) telah mendorong kebutuhan besar akan infrastruktur komputasi yang mampu mengelola data dalam skala masif dengan kinerja tinggi.
Seiring meningkatnya kompleksitas model AI — terutama dalam konteks inferensi dan pelatihan tingkat lanjut — tantangan utama bukan hanya pada akselerator seperti GPU tetapi juga pada sistem penyimpanan.
Dalam konteks ini, kolaborasi antara SK hynix, produsen memori dan penyimpanan global, dengan NVIDIA, pemimpin dalam akselerasi AI melalui unit pemroses grafis, menjadi sorotan industri teknologi.
Kedua perusahaan ini tengah mengembangkan generasi baru Solid State Drive (SSD) yang dirancang khusus untuk memenuhi tuntutan beban kerja AI dengan kinerja yang mampu mencapai orde magnitudo lebih tinggi dibandingkan SSD konvensional.
Inisiatif ini mencerminkan pergeseran paradigma dalam desain arsitektur sistem penyimpanan untuk AI, yang berpotensi mengubah hubungan antara memori, penyimpanan, dan komputasi dalam data center dan infrastruktur AI.
Postingan ini membahas secara komprehensif latar belakang, motif, teknologi inti, tantangan, serta implikasi dari pengembangan AI-optimized SSD yang diproyeksikan menawarkan kinerja hingga 10× lipat dibandingkan solusi saat ini.
Daftar Isi
- 1 Latar Belakang Industri Memori dan SSD dalam AI
- 2 Motivasi Kolaborasi SK hynix dan NVIDIA
- 3 Konsep Teknologi: AI-Optimized SSD
- 4 Dasar Arsitektural dan Perubahan Filosofi Desain
- 5 Tantangan Teknologi dan Implementasi
- 6 Implikasi terhadap Arsitektur Sistem AI
- 7 Dampak Ekonomi dan Rantai Pasok
- 8 Tantangan Ketersediaan dan Kebutuhan Standar Industri
- 9 Implikasi bagi Pengguna Akhir dan Masa Depan Infrastruktur AI
- 10 Kesimpulan
Latar Belakang Industri Memori dan SSD dalam AI
Perkembangan aplikasi AI modern memberikan tekanan ekstrem pada komponen teknologi informasi tradisional. SSD telah menggantikan hard disk drive (HDD) sebagai solusi penyimpanan utama karena latensi yang lebih rendah, throughput yang lebih tinggi, serta efisiensi energi yang unggul.
Namun, kebutuhan AI skala besar — khususnya untuk model-model besar dan tugas inferensi yang intensif — mengungkap batas-batas arsitektur SSD konvensional.
SSD tradisional telah dirancang untuk keperluan enterprise dan konsumen yang berorientasi pada konsumsi data umum. Mereka mencatat metrik IOPS dan bandwidth yang tinggi, tetapi tetap jauh di bawah tuntutan akses data elektronik yang simultan dan deterministik yang dituntut oleh AI inference.
Hal ini memunculkan kebutuhan akan storage yang tidak hanya berkapasitas besar tetapi juga mampu menangani input/output operations per second (IOPS) dalam jumlah sangat besar, serta integrasi yang lebih erat dengan pemrosesan AI.
Motivasi Kolaborasi SK hynix dan NVIDIA
SK hynix memiliki rekam jejak panjang sebagai penyedia memori DRAM, NAND flash, dan komponen penyimpanan canggih lainnya yang menjadi tulang punggung industri semikonduktor global.
Sementara itu, NVIDIA telah menjadi kekuatan dominan dalam GPU untuk AI dan komputasi tinggi. Kolaborasi kedua entitas ini bukan sekadar sinergi antara pemasok dan pembeli — melainkan sebuah upaya bersama untuk mendesain generasi penyimpanan yang berorientasi AI dari bawah ke atas.
Motivasi utama pengembangan AI SSD ini terletak pada bottleneck akses data yang menghambat efisiensi performa sistem AI saat ini. Proses inferensi dalam model besar sering membutuhkan akses terus-menerus terhadap parameter model yang ukurannya bisa mencapai ratusan gigabyte atau lebih.
Memori seperti HBM atau DRAM, meskipun cepat, sangat mahal dan kapasitasnya terbatas; sedangkan SSD konvensional tidak cukup cepat untuk menggantikan memori dalam operasi real-time yang diperlukan oleh sistem AI.
Dengan teknologi ini, SK hynix dan NVIDIA berupaya menjembatani kekosongan antara penyimpanan dan memori, memberikan sebuah pseudo-memory tier yang menggabungkan kapasitas besar dengan kinerja lebih tinggi daripada SSD tradisional.
Konsep Teknologi: AI-Optimized SSD
Pengembangan AI-optimized SSD ini dikenal dengan kode nama “Storage Next” di sisi NVIDIA dan “AI-NP” (AI NAND Performance) di pihak SK hynix.
Konsep fundamentalnya adalah untuk merancang SSD yang lebih dari sekadar media penyimpanan data pasif, tetapi sebagai bagian aktif dari jalur data komputasi AI.
SSD konvensional beroperasi di luar jalur memori dan umumnya diakses melalui bus PCIe dengan protokol NVMe. Namun, dalam arsitektur penyimpanan yang ditujukan untuk AI, controller SSD dan NAND flash perlu dioptimalkan agar mampu menangani permintaan akses data yang sangat cepat, deterministik, dan paralel.
Ide dasarnya adalah menggeser SSD lebih dekat ke titik eksekusi komputasi data AI, sehingga mengurangi latensi dan mempertahankan throughput tinggi di sepanjang jalur data — sebuah desain yang hampir mendekati memori hierarchy daripada media penyimpanan tradisional.
Target performa yang diumumkan dalam proyek ini adalah mencapai hingga 100 juta IOPS, sebuah angka yang hampir sepuluh kali lipat lebih tinggi dibandingkan SSD enterprise tercepat saat ini.
Untuk perspektif, kinerja IOPS SSD konsumen atau enterprise biasanya berada dalam kisaran puluhan ribu hingga ratusan ribu IOPS. Target 100 juta IOPS menunjukkan lompatan arsitektural besar yang memerlukan desain ulang pada controller, firmware, dan konektivitas NAND yang terintegrasi erat dengan subsistem AI.
Dasar Arsitektural dan Perubahan Filosofi Desain
Superskalanya kinerja yang ditargetkan bukan hanya tentang kecepatan mentah; ini juga mencerminkan filosofi desain baru di mana SSD menjadi lebih dekat kepada unit memori berperforma tinggi.
Dalam sistem AI saat ini, memory wall — perbedaan drastis antara kemampuan pemrosesan GPU dan kecepatan akses memori utama — menjadi tantangan.
Teknologi AI SSD bukan bertujuan menggantikan memori seperti HBM atau DRAM, tetapi menyediakan lapisan tambahan yang mampu menangani beban kerja akses data yang besar tanpa membebani memori utama.
Arsitektur ini kemungkinan memerlukan pendekatan controller SSD yang lebih cerdas, algoritma wear leveling dan garbage collection yang dioptimalkan untuk pola akses AI, serta integrasi yang erat dengan perangkat lunak AI.
Firmware dan software stack akan memerlukan drivers dan APIs khusus untuk memanfaatkan sepenuhnya kemampuan paralel dan throughput tinggi tersebut.
Selain itu, konektivitas dengan GPU — baik melalui PCIe generasi terbaru maupun interkoneksi khusus — akan menjadi komponen penting dalam mencapai target performa tersebut. Desain semacam ini mencerminkan evolusi SSD dari media penyimpanan pasif menjadi co-processor data untuk beban kerja AI.
Tantangan Teknologi dan Implementasi
Mengembangkan SSD dengan kinerja hingga 10× lipat dibandingkan solusi konvensional menyimpan tantangan besar. Pertama, controller SSD harus mampu menangani banyak paralelisme pada tingkat input/output yang belum pernah dicapai sebelumnya.
Hal ini bukan hanya masalah kecepatan akses, tetapi juga efisiensi dalam menyeimbangkan beban kerja, memprioritaskan permintaan, dan mengoptimalkan penggunaan NAND.
Kedua, NAND flash sendiri memiliki batasan fisik. Meningkatkan IOPS berarti harus mengatasi karakteristik latensi baca/tulis NAND, yang secara alami masih lebih lambat dibandingkan DRAM atau HBM.
Solusi arsitektural seperti multi-channel NAND, parallel flash dies, atau penggunaan teknologi stacked architecture akan diperlukan untuk mengatasi batasan tersebut.
Ketiga, konsumsi energi dan disipasi panas menjadi perhatian krusial. SSD berkecepatan sangat tinggi yang memproses miliaran operasi per detik akan menghasilkan energi signifikan yang harus dikelola dengan baik. Dalam konteks data center, efisiensi kinerja per watt adalah faktor utama dalam desain sistem skala besar.
Terakhir, perangkat lunak dan API yang mendukung integrasi antara AI SSD dan perangkat lunak framework AI harus dibangun dari dasar. Ini termasuk dukungan untuk model distribusi data, pemetaan memori latar belakang, serta optimasi tingkat tinggi untuk inference dan training workloads.
Perubahan ini melibatkan perangkat lunak sistem, runtime libraries, dan mungkin standar industri baru untuk pengaksesan data pada skala ekstrim.
Implikasi terhadap Arsitektur Sistem AI
Jika berhasil, SSD AI ini akan memengaruhi arsitektur sistem AI secara signifikan. Dalam sistem data center tradisional, memori hierarchy umumnya dimulai dari register CPU/GPU, selanjutnya DRAM/HBM, kemudian SSD/NAND, lalu HDD atau arsip.
Dengan hadirnya SSD AI super cepat, suatu lapisan baru akan mengisi celah antara DRAM/HBM dan SSD biasa, yang memungkinkan sistem mengakses dataset besar atau model parameter tanpa harus memuat semuanya ke memori utama.
Pendekatan ini dapat mengubah pola implementasi sistem besar seperti data pipeline AI, caching strategi, dan arsitektur distributed training/inference.
Misalnya, model besar yang sebelumnya memerlukan seluruh parameter di memori DRAM/HBM bisa dipartisi, sebagian berada pada lapisan AI SSD dengan latensi rendah yang mendekati memori utama.
Hal ini juga dapat memperluas skenario penggunaan AI di mana kapasitas memori menjadi penghambat — seperti model dengan skala triliunan parameter atau sistem rekomendasi besar — sehingga mengurangi kebutuhan investasi pada memori DRAM/HBM yang sangat mahal.
Dengan demikian, AI SSD tidak hanya sekedar perangkat penyimpanan, tetapi menjadi komponen struktural integral dari sistem AI generasi baru.
Dampak Ekonomi dan Rantai Pasok
Kolaborasi SK hynix dan NVIDIA juga memiliki implikasi signifikan terhadap ekonomi industri semikonduktor global. Permintaan akan NAND flash dan SSD dengan spesifikasi tinggi diperkirakan akan meningkat tajam seiring adopsi teknologi ini.
Sebelum ini, pasar NAND flash telah mengalami tekanan pasokan karena permintaan AI, dan adopsi SSD AI bertarget tinggi mungkin memperluas kebutuhan produksi yang dibutuhkan oleh data center, cloud provider, dan perusahaan teknologi besar lainnya.
Peningkatan produksi NAND dan SSD berteknologi tinggi juga dapat menimbulkan efek terhadap harga pasar, struktur rantai pasok, dan persaingan antara produsen memory chip global.
Produsen besar lain mungkin mencari kolaborasi atau investasi serupa untuk mengikuti perubahan pasar ini. Hal ini menunjukkan bahwa inovasi SSD tidak hanya teknis, tetapi juga strategis bagi posisi pemain utama.
Tantangan Ketersediaan dan Kebutuhan Standar Industri
Seiring dengan peningkatan permintaan, tantangan for supply chain akan muncul. Produksi NAND flash kelas tinggi yang mampu memenuhi spesifikasi ekstrem ini akan menuntut fasilitas manufaktur canggih, investasi besar, dan stabilitas pasokan bahan baku serta peralatan manufaktur.
Tekanan ini dapat menyebabkan kompetisi yang sengit antar produsen, dan mempercepat konsolidasi industri.
Selain itu, agar SSD AI dapat tersebar luas diterima dalam ekosistem luas pengembang dan data center, diperlukan standar industri baru atau dukungan dari consortium teknologi. Hal ini penting untuk kompatibilitas, interoperabilitas, dan adopsi luas di seluruh platform perangkat keras dan perangkat lunak.
Implikasi bagi Pengguna Akhir dan Masa Depan Infrastruktur AI
Bagi pengguna akhir — terutama perusahaan cloud, data center, dan lembaga penelitian besar — SSD AI super cepat ini menjanjikan perubahan besar dalam cara mereka merancang sistem komputasi.
Infrastruktur yang saat ini mengandalkan kombinasi DRAM, SSD, dan HDD dapat mengalami transformasi dengan lapisan penyimpanan yang lebih dekat dengan memori utama dalam hal performa tetapi tetap memiliki kapasitas unggul.
Dalam jangka panjang, inovasi semacam ini akan memengaruhi desain arsitektur pusat data, rencana investasi teknologi, serta paradigma pemrosesan AI pada skala besar.
Sistem generative AI, pembelajaran mesin dalam skala industri, dan aplikasi real-time yang kompleks akan mendapatkan manfaat besar dari kemampuan input/output extrem tersebut.
Kesimpulan
Kolaborasi antara SK hynix dan NVIDIA dalam mengembangkan SSD AI-optimized yang mampu mencapai kinerja hingga 10× lipat dari SSD konvensional merupakan terobosan penting dalam evolusi arsitektur komputasi AI.
Inisiatif ini lahir dari kebutuhan untuk mengatasi bottleneck pada akses data di sistem AI modern, dan berpotensi menciptakan lapisan baru dalam hierarki memori/penyimpanan yang mengubah cara perangkat keras AI dirancang.
Proyek ini — meskipun masih dalam tahap proof of concept dengan target prototype pada akhir 2026 dan adopsi lebih luas pada 2027 — menunjukkan perubahan mendasar dalam cara industri melihat hubungan antara memori, penyimpanan, dan komputasi.
Kolaborasi strategis ini tidak hanya teknis tetapi juga ekonomi, menandai fase baru pertumbuhan teknologi semikonduktor dan infrastruktur AI global.
Original Post By roperzh











