Awal tahun ini, Intel Corporation menggelar Intel Vision. Salah satu topik terhangat yang dibahas pada acara tersebut adalah kecerdasan buatan (AI).

Terlepas dari semua sensasinya, AI bukanlah hal baru. AI telah bekerja bersama manusia selama ber­tahun-tahun, mulai dari mengurangi kesalahan produksi hingga membantu pengguna mengambil gambar yang lebih baik pada smartphone mereka.

Sudah menjadi rahasia umum bahwa AI dapat merevolusi industri dan meningkatkan kehidupan dengan berbagai cara. Di Indonesia, misalnya, kepo­lisian telah menggunakan AI untuk mendeteksi pelanggaran lalu lintas dalam program Electronic Traffic Law Enforcement (ETLE), dan para peneliti telah mengembangkan metode berbasis pembelajaran mesin untuk mengidentifikasi jenis kanker darah (Leukemia).

Namun, AI telah mendominasi berita utama global dalam beberapa bulan terakhir, berkat kemunculan ChatGPT–aplikasi generative AI yang mengambil sejumlah besar data yang dicerna untuk meniru konten yang dibuat oleh manusia.

Yang telah dilakukan ChatGPT adalah memu­dahkan orang-orang untuk memahami kekuatan AI, dan bahwa setiap orang siap melakukan eksplorasi dengan AI di ujung jari mereka.

Baca Juga: YT Menjadi Bangsa Merdeka dengan Mengutamakan Bahasa Negara

Hasilnya, gelombang baru AI ini telah mendorong banyak perusahaan mencari cara untuk mening­katkan kemampuan AI mereka. Memang, AI tidak lagi hanya tentang asisten suara.

AI telah menjadi lebih menarik dan dapat mem­ban­tu orang-orang dengan berbagai cara, seperti mem­buat kode situs web, atau menciptakan musik dan karya seni baru. Namun, apa yang jarang dibi­ca­ra­kan adalah komplek­sitas komputasi yang diper­lukan untuk berhasil mene­rapkan AI. Dari perangkat elektronik consumer hingga perangkat edge dan cloud, permintaan komputasi mau tidak mau akan melonjak seiring dengan berkem­bangnya AI.

Demokratisasi AI Dimulai dengan Komputasi

Model AI di masa depan hanya akan mencerna data dalam jumlah yang lebih besar untuk menghasilkan respons yang berguna bagi berbagai perusahaan.

Untuk memulai dengan langkah yang benar, suatu organisasi atau perusahaan harus memulai dengan tantangan bisnis yang ingin mereka pecahkan atau hasil bisnis yang ingin mereka capai, dan meman­faatkan AI dengan cara yang efisien dan hemat biaya dengan komputasi dan software yang tepat, yang diperlukan untuk mengaktifkannya.

Semua ini hanya akan berarti jika AI terjadi secara real-time dan akurat, serta komputasi yang sangat esensial untuk memberikan kecepatan dan kinerja yang diperlukan untuk melatih model-model, membuat keputusan atau prediksi, melakukan pengenalan gambar dan ucapan, serta mening­katkan sistem AI.

Bayangkan komputasi sebagai “otak” yang membantu mesin memahami dunia dan memu­tuskan tindakan yang akan diambil selanjutnya.

Inilah sebabnya, seiring dengan kemajuan AI dan algoritmanya, begitu pula “otak” untuk meningkatkan kemampuan yang dibutuhkan.

Mereka tidak hanya perlu mempercepat kinerja AI, tetapi juga melakukannya dengan cara yang lebih efisien, aman, dapat ditingkatkan, dan berkelanjutan. Untuk mencapai hal ini dan mendemokratisasi AI, komputasi yang heterogen dan ekosistem terbuka untuk berbagai skenario AI menjadi sangat penting.

AI membutuhkan Komputasi Heterogen

Kecepatan dan performa yang lebih cepat akan menjadi ekspektasi standar terhadap AI dari para penggunanya di masa depan.

Meskipun ini berarti permintaan akan daya komputasi akan tumbuh secara eksponensial, tidak masuk akal jika perusahaan-perusahaan hanya menambahkan lebih banyak Central Processing Unit (CPU) dan Graphics Processing unit (GPU), atau membangun lebih banyak data center untuk mengaktifkan AI. Untuk mendukung perkembangan AI, ada dua area utama yang harus dipertimbangkan oleh sebuah organisasi.

Pertama, mengidentifikasi jenis beban kerja AI yang dibutuhkan. Apakah itu untuk chatbot AI untuk berinteraksi dengan pelanggan, model generative AI yang besar seperti ChatGPT untuk membuat konten baru, solusi pengenalan gambar untuk menemukan kesalahan, atau beberapa jenis beban kerja AI lainnya?

Dan yang kedua, biaya juga menjadi pertimbangan penting untuk menentukan apakah solusi AI dapat dengan mudah diakses oleh semua orang.

Berlawanan dengan kepercayaan konvensional bahwa semua beban kerja AI membutuhkan GPU; kenyataannya adalah sering kali cara alternatif yang lebih efisien untuk menyelesaikan beberapa task yang ditenagai oleh AI adalah dengan general purpose CPU–yaitu CPU yang sama yang telah memberi daya pada banyak data center saat ini.

Sebagai contoh, beban kerja untuk melatih language model seperti GPT-3. Melatih language model sebesar itu dapat menghabiskan biaya jutaan dolar AS untuk satu model, namun sebagian besar organisasi mungkin tidak perlu skala sebesar itu dan sebaliknya hanya membutuhkan pelatihan untuk model-model yang lebih kecil.

Bahkan, sebagian besar organisasi hanya butuh model-model yang sudah dilatih dan melakukan penyempurnaan dengan data set mereka sendiri yang lebih kecil tapi sudah terkurasi. Proses penyem­purnaan ini dapat dilakukan hanya dalam hitungan menit menggunakan software Intel AI dan software open source standar industri lainnya, yang berjalan di general purpose CPU.

Dalam skenario di mana memang ada kebutuhan untuk melatih language model yang besar, akselerator AI khusus seperti Intel Gaudi2 bisa menjadi alternatif bagi GPU tradisional. Bahkan, Gaudi2 memberikan keunggulan berupa biaya yang kompetitif bagi pelanggan, baik dalam biaya server maupun sistem.

Performa MLPerf-validated akselerator tesebut ditambah kemajuan software yang akan datang membuat Gaudi2 menjadi alternatif yang menarik dalam hal harga/kinerja bagi GPU seperti Nvidia H100.

Oleh karena itu, untuk mengatasi tantangan-tantangan AI diperlukan pendekatan holistik yang memperhitungkan berbagai contoh kasus, beban kerja, dan kebutuhan daya yang sangat beragam.

Ini berarti bahwa aplikasi AI yang berbeda akan memerlukan konfigurasi komputasi yang berbeda, yang dibuat khusus dengan presisi tinggi, dan dapat terdiri dari beragam arsitektur dan hardware yang dapat menjalankan keseluruhan CPU, GPU, Field Programmable Gate Arrays (FPGA) atau akselerator lainnya.

Singkatnya, tidak ada satu pendekatan yang cocok untuk semua dalam hal komputasi, dan yang lebih penting lagi bahwa platform komputasi harus fleksibel dan dapat ditingkatkan untuk kebutuhan-kebutuhan beban kerja yang terus berubah, dalam rangka mencapai kepraktisan AI.

AI Membutuhkan Ekosistem Terbuka

Saat ini, meskipun kita banyak berbicara tentang chip, AI juga terkait dengan masalah software. Untuk mendemokratisasi AI, kita membutuhkan ekosistem terbuka, dan software adalah kunci untuk mencapai kekuatan dan skalabilitas AI.

Tanpa berbagai kerangka kerja software dan perangkat yang dioptimalkan untuk mendukung hardware yang menjalankan beban kerja AI, kinerja yang out-of-the-box tidak akan dapat memenuhi kebutuhan bisnis secara optimal.

Para developer membutuhkan pendekatan membuat kode atau program satu kali dan menjalankannya di mana saja (build-once-and-deploy-everywhere) dengan solusi yang fleksibel, terbuka, dan hemat energi, yang memungkinkan semua bentuk AI. Salah satu tool tersebut adalah oneAPI Toolkits dari Intel, yang memungkinkan perusahaan untuk menulis kode sekali saja dan menjalankannya di berbagai platform hardware.

Tools seperti ini membantu perusahaan-perusahaan untuk memaksimalkan kinerja beban kerja AI serta meminimalkan biaya dan kompleksitas pengelolaan berbagai platform hardware. AI yang didasarkan pada ekosistem terbuka membuatnya dapat diakses secara lebih luas dan hemat biaya.

Hal ini menghilangkan hambatan yang membatasi kemajuan, dan memungkinkan para developer untuk membangun dan menerapkan AI di mana saja dengan memprioritaskan daya, harga, dan kinerja, dengan menggunakan hardware dan software yang paling masuk akal bagi mereka untuk setiap pekerjaan.

Berinvestasi di masa depan AI

Tidak diragukan lagi, AI menjadi semakin kuat, dan telah membuka berbagai kemungkinan baru yang pertama kali dilihat oleh banyak perusahaan. Baik banyak perusahaan yang menjalankan AI di cloud maupun membuat solusi di on-prem, mereka harus siap menghadapi masa depan di mana permintaan komputasi akan meroket.

Dan AI akan membutuhkan fondasi untuk mendukung berbagai aspek desain, pengembangan, dan penerapan model AI di berbagai platform komputasi yang berbeda seiring dengan perkembangannya.

Namun, untuk benar-benar menuai manfaat dari AI, tergantung pada bagaimana perusahaan-perusahaan berinvestasi dalam kemampuan yang diperlukan untuk mendapatkan yang terbaik dari AI–dan lingkungan komputasi yang heterogen serta ekosistem terbuka yang melindungi investasi yang bisa terus memberi imbal balik di masa depan akan menjadi penting ketika perusahaan-perusahaan mempersiapkan diri menyambut apa yang akan terjadi di masa depan dengan AI. (*)