Pada uji coba ini, fokusnya adalah seberapa cepat GPU dalam laptop atau PC bisa mengalikan ratusan angka secara paralel. Uji coba dilakukan dengan menjalankan operasi C = A × B pada dua matrix berukuran 64×64, dengan aktivasi sederhana menggunakan fungsi tanh(). Operasi ini merupakan esensi dari model kecerdasan buatan seperti GPT, Stable Diffusion, dan hampir semua sistem neural modern. Meskipun bukan model AI sebenarnya, uji coba ini meniru salah satu langkah paling berat dalam prosesnya, yaitu matrix multiply.
Proses matrix multiply pada GPU dieksekusi oleh ratusan thread secara bersamaan melalui WebGPU compute shader. Sebuah perhitungan kecil sudah menghasilkan ratusan ribu operasi, dan jika diulang beberapa kali, GPU akan melakukan jutaan operasi dalam hitungan milidetik. Penting untuk memahami bahwa proses ini merupakan langkah kunci dalam banyak model AI yang digunakan saat ini.
Uji coba dilakukan dengan beberapa langkah, termasuk pembuatan buffer GPU, penulisan shader WGSL untuk rumus perkalian dan penjumlahan matrix di GPU, pengaturan workgroup 8×8, iterasi beberapa kali untuk mengukur performa rata-rata, dan perhitungan waktu total dan perkiraan operasi per detik. Shader yang digunakan adalah otak kecil dari proses tersebut, di mana setiap thread GPU mengambil bagian dari matrix A dan B untuk menghasilkan output pada matrix C dengan efek non-linear melalui fungsi tanh().
Uji coba ini juga dilengkapi dengan demo yang memungkinkan pengguna melihat hasil komputasi GPU secara langsung. Semakin cepat waktu GPU dan semakin besar operasi per detik, semakin efisien GPU dalam menjalankan operasi AI. Melalui visualisasi matrix multiply, proses ini dapat lebih mudah dipahami, terutama dalam konteks pengambilan keputusan dalam model AI.
Kesimpulannya, eksperimen mini ini bukan hanya sebagai benchmark semata, tetapi sebagai contoh konkret bagaimana browser dapat menjalankan simulasi AI compute melalui GPU menggunakan WebGPU tanpa perlu library besar. Dengan teknologi ini, JavaScript dapat lebih terlibat dalam bidang machine learning langsung dari browser, membuka potensi untuk menjalankan model kecil secara lokal tanpa harus mengirim data ke server. Dengan demikian, WebGPU dapat membuka pintu menuju masa depan AI di browser.


