Johns Hopkins Tantang Model AI Study Bernilai Miliaran Dolar
Johns Hopkins AI study mengungkap bahwa memilih desain arsitektur yang tepat bisa mempercepat pembelajaran sistem kecerdasan buatan. Penelitian ini menunjukkan bahwa AI dengan struktur biologis mampu menghasilkan pola aktivitas mirip otak manusia bahkan sebelum dilatih.
Desain AI Lebih Penting dari Data Besar
Penelitian yang diterbitkan di Nature Machine Intelligence menegaskan bahwa desain model AI mungkin lebih krusial dibanding proses deep learning yang memakan waktu berbulan-bulan, energi besar, dan biaya miliaran dolar.
Menurut Mick Bonner, asisten profesor ilmu kognitif di Johns Hopkins AI study, saat ini tren AI adalah membanjiri model dengan data dan membangun pusat komputasi raksasa. Padahal, manusia belajar melihat dengan data yang sangat sedikit. Desain arsitektur yang menyerupai otak bisa memberi AI titik awal yang lebih unggul.
Menguji Arsitektur AI dengan Aktivitas Otak
Tim peneliti menguji tiga kategori utama desain jaringan: transformer, fully connected networks, dan convolutional networks. Mereka memodifikasi arsitektur ini untuk membuat puluhan jaringan saraf buatan, lalu membandingkan respons AI terhadap gambar dengan aktivitas otak manusia dan primata.
Baca juga: Gold Nanoclusters, Super Atom yang Bisa Perkuat Quantum Computer
Hasilnya, transformer dan fully connected networks tidak banyak berubah meski ditambah neuron buatan. Sebaliknya, modifikasi pada convolutional neural networks menghasilkan pola aktivitas yang lebih mirip otak manusia.
Arsitektur Lebih Berpengaruh dari yang Diduga
Convolutional neural networks tanpa pelatihan ternyata bisa menyaingi sistem AI konvensional yang biasanya dilatih dengan jutaan gambar. Hal ini menunjukkan bahwa arsitektur berperan lebih besar daripada yang selama ini diperkirakan.
Bonner menegaskan, jika data besar memang faktor utama, maka seharusnya tidak mungkin mencapai AI mirip otak hanya dengan modifikasi arsitektur. Namun penelitian ini membuktikan sebaliknya: dengan blueprint yang tepat dan inspirasi dari biologi, pembelajaran AI bisa dipercepat secara dramatis.
Para peneliti kini berfokus mengembangkan algoritma pembelajaran sederhana yang meniru biologi. Tujuannya adalah menciptakan kerangka kerja deep learning baru yang lebih efisien, hemat energi, dan tetap akurat.
Referensi: “Convolutional architectures are cortex-aligned de novo” by Atlas Kazemian, Eric Elmoznino and Michael F. Bonner, 13 November 2025, Nature Machine Intelligence.
DOI: 10.1038/s42256-025-01142-3


