Kehebohan seputar “agen AI” – janji robot AI generatif yang mengotomatiskan tugas dan membentuk kembali pekerjaan – telah melampaui kenyataan. Meskipun tahun 2025 disebut-sebut sebagai tahun terobosan, hasil sebenarnya adalah penundaan momen transformasional ini tanpa batas waktu. Semakin banyak penelitian yang menunjukkan bahwa keterbatasan mendasar dalam arsitektur AI saat ini dapat menghalangi munculnya sistem yang sepenuhnya otomatis dan andal.

Hambatan Matematika terhadap Kecerdasan Buatan

Sebuah studi baru-baru ini yang jarang dilaporkan, “Stasiun Halusinasi: Pada Beberapa Keterbatasan Dasar Model Bahasa Berbasis Transformer,” berpendapat bahwa Model Bahasa Besar (LLM) memiliki batasan matematis bawaan yang mencegahnya melakukan tugas-tugas kompleks dengan andal. Menurut Vishal Sikka, mantan CTO SAP dan pengusaha AI, model-model ini “tidak dapat diandalkan,” bahkan dengan kemampuan penalaran tingkat lanjut. Artinya aplikasi penting seperti pengendalian pembangkit listrik tenaga nuklir masih berada di luar jangkauan teknologi AI saat ini.

Pengkodean sebagai Fajar Palsu?

Terlepas dari keterbatasan ini, industri AI menekankan kemajuan di bidang coding, dimana agen AI telah menunjukkan beberapa keberhasilan. Demis Hassabis dari Google di Davos melaporkan terobosan dalam mengurangi “halusinasi” – kesalahan yang disebabkan oleh AI – dan startup seperti Harmonic mendorong narasi agen. Harmonic, yang didirikan bersama oleh CEO Robinhood Vlad Tenev, mengklaim alat pengkodean AI miliknya, Aristoteles, menggunakan verifikasi matematis formal untuk memastikan keandalan. Namun, pendekatan ini saat ini terbatas pada domain yang dapat diverifikasi seperti kode, tidak termasuk tugas subjektif atau kreatif seperti menulis esai.

Halusinasi: Cacat Inheren?

Kenyataannya adalah halusinasi AI masih tersebar luas. Penelitian OpenAI sendiri menunjukkan bahwa bahkan model tercanggih seperti ChatGPT secara konsisten memalsukan informasi, dan mustahil untuk salah melaporkan fakta dengan akurasi 100%. Ketidakandalan ini menghambat penerapan secara luas di lingkungan perusahaan, karena kesalahan dapat mengganggu alur kerja dan meniadakan nilai potensial.

Jalan Maju Pragmatis

Para pemimpin industri mengakui bahwa halusinasi masih terus terjadi, namun yakin bahwa halusinasi tersebut dapat dikurangi melalui pagar pembatas dan mekanisme penyaringan. Sikka menyarankan untuk membangun komponen di sekitar LLM untuk mengatasi keterbatasannya, sementara Achim dari Harmonic berpendapat bahwa halusinasi bahkan mungkin diperlukan untuk mendorong AI melampaui kecerdasan manusia. Konsensus industri ini adalah kesenjangan antara hambatan dan halusinasi akan menyempit seiring berjalannya waktu, sehingga mengarah pada perbaikan bertahap, bukan revolusi mendadak.

Gambaran Lebih Besar: Otomatisasi Tidak Dapat Dihindari, Keandalan Merupakan Trade-Off yang Konstan

Terlepas dari kendala matematis dan praktis, momentum di balik agen AI tidak dapat disangkal. Insentif finansial dan tekanan persaingan menjamin keberlanjutan investasi dan pembangunan. Seiring berkembangnya sistem AI, mereka pasti akan melakukan lebih banyak tugas kognitif, meskipun keandalannya masih belum sempurna. Hasil akhirnya bukanlah apakah agen AI akan ada, namun seberapa besar risiko yang dapat ditoleransi oleh masyarakat demi kecepatan dan penghematan biaya.

Pada akhirnya, pertanyaannya bukanlah mengenai AI yang “baik” atau “buruk”, namun apa yang dilakukan oleh teknologi untuk membentuk kembali aktivitas manusia, seperti yang dikemukakan oleh pionir komputer Alan Kay. Kita mungkin sedang memasuki era otomatisasi kognitif besar-besaran, yang konsekuensinya kemungkinan besar tidak mungkin diverifikasi secara matematis.