Alat di Balik Fitur AI Canggih – Mengenal Edge AI Server Low-Cost ProLiant DL320 Gen11 Bersama HPE

Kali ini, kami ingin bahas secara sederhana mengenai Artificial Intelligence atau AI yang saat ini marak digunakan.
Sudah banyak teknologi berbasis AI yang bisa kita gunakan, seperti chatbot, image generator, voice generator, dan lain sebagainya. Selain itu, banyak perangkat di sekitar kita yang juga hadir dengan kemampuan memanfaatkan AI. AI sudah ada di Smart TV, security camera, laptop, dan juga smartphone yang kita gunakan. Untuk komputer, tahun 2024 ini sudah dikatakan tahunnya AI PC.
Di smartphone, AI pun sudah banyak digunakan untuk beragam fitur baru, mulai dari edit foto sampai sebagai penerjemah, dan banyak lagi. Nah, proses AI di komputer, tablet, smartphone ini bahasa kerennya disebut sebagai proses inference. Ini bisa dianggap sebagai “proses berpikir” atau pengambilan keputusan berdasarkan model AI yang sudah tersedia.
Bingung? OK gini deh. Inference ini sama seperti kita, dalam kehidupan sehari-hari, saat mengambil keputusan atau mau melakukan sesuatu. Ah, saya mau menggambar mobil, misalnya.
Nah, kita menggambar mobil berdasarkan pengalaman dari pelajaran atau pelatihan yang kita terima kan? Nah pengalaman hasil belajar atau berlatih itu adalah si model AI-nya. Jadi inference adalah kita saat mengambil keputusan atau melakukan sesuatu. Dan model AI adalah pengalaman yang kita miliki.
OK kembali ke AI di perangkat elektronik ya.
Inference atau proses berpikir AI ini memang bisa saja dikerjakan di smartphone atau laptop. Tapi, untuk pekerjaan yang ekstra rumit dan ekstra detail, tentunya akan butuh kemampuan pengolahan yang lebih kencang dari yang ada di laptop atau smartphone. Kalau inference sudah rumit dan model AI-nya pun sudah besar (anggap ini seperti orang yang sudah berpengalaman puluhan tahun), mungkin kita sudah butuh komputer desktop yang kencang. Atau, bahkan komputer kelas server.

Komputer kelas server ini biasanya yang dipakai oleh layanan AI seperti ChatGPT, misalnya. Dia butuh server besar dan tentunya tidak murah, karena melayani orang dalam jumlah sangat banyak. Masalah akan timbul kalau kita butuh kemampuan AI super kencang, tapi data yang mau diolah tidak boleh di-share ke pihak luar, alias datanya rahasia. Ga mungkin dong kita pakai solusi server yang cenderung umum dan bisa diakses semua orang seperti yang disediakan OpenAI dengan ChatGPT-nya.
Lalu, solusinya apa? Nah, mari kita bahas yang satu ini.
Membahas AI Bersama HPE dan Intel
OK, semoga belum ngebul ya menerima info mengenai dasar AI tadi. Itu sudah disederhanakan sekali lho sebenarnya.
OK sekarang mari kita lanjut membahas mengenai perangkat yang bisa melakukan pemrosesan AI atau inference yang kompleks sekali, tapi tidak dengan menggunakan layanan umum yang tentunya bisa menghadirkan resiko keamanan data penting.

Nah untuk kebutuhan seperti ini, sekarang ini sudah tersedia komputer kelas server untuk melakukan inference atau proses berpikir menggunakan model AI yang kompleks dan tidak bisa di-handle oleh laptop atau smartphone terkini sekali pun.
Contohnya adalah server HPE ProLiant DL320 Gen11 ini.
Server ini menggunakan satu prosesor Intel Xeon Scalable Generasi ke 4 atau ke 5, dengan jumlah core sampai 60 core. Kapasitas RAM yang didukung sampai 2 TB DDR5-5600. Ini adalah server low-cost “1U 1P” yang dioptimalkan untuk mendukung Edge AI, termasuk untuk kebutuhan Computer Vision. Untuk kebutuhan tersebut, server ini bisa menampung sampai empat buah GPU accelerator.

Edge AI? Computer Vision? Apa itu? Nah, kita akan coba cari tahu terkait hal-hal tersebut bersama dengan HPE dan Intel di video berikut ini!