Ketakutan memiliki mata besarИИ - ForkLog: cryptocurrency, AI, singularitas, masa depan

img-6086d8792646fd5f-6638815773356060# Ketakutan memperbesar mata

Seberapa sering Anda mendengar ramalan tentang akhir dunia di mana kekuatan utama dimainkan oleh kecerdasan buatan yang mahakuasa? Minimal sekali seminggu, seorang pengusaha atau selebriti mengungkapkan kekhawatiran tentang masa depan yang menakutkan di bawah kekuasaannya.

Tentu saja, tokoh terkenal plus prediksi suram adalah resep sempurna untuk judul yang mencolok. Tetapi jika sebelumnya materi yang dibuat berdasarkan pola ini mencerminkan kemajuan teknologi yang nyata dan terkadang menakutkan, sekarang semakin sering ini tampak seperti pemasaran kosong atau sekadar ketidakpahaman terhadap inti dari apa yang sedang terjadi.

Mengapa kita masih takut dengan cerita-cerita buruk tentang “Terminator”, padahal chatbot modern sering berbohong dengan lancang dan tidak mampu mengingat lima baris dialog? Dan yang paling utama — siapa yang diuntungkan dari ini?

Tidak Mengesankan

Langsung saja, perlu dicatat: teknologi AI telah melompati langkah besar dalam dekade terakhir. Sistem modern mampu menulis teks yang koheren, mengenali pola dalam kumpulan data besar, dan menciptakan konten visual. Baru-baru ini, mesin belum mampu menggantikan pekerjaan manusia secara menyeluruh.

Prospek kemajuan ini menakutkan. Namun saat ini, pengembangan produk massal hanya berhenti pada diskusi tentang apa yang disebut kecerdasan buatan umum dan peluncuran model bahasa yang hampir sama (kadang-kadang yang terbaru bahkan lebih buruk dari pendahulunya).

Apa yang kita miliki akhirnya: alat bantu yang dilatih untuk melakukan tugas-tugas sederhana dengan teks dan kadang-kadang gambar. Orang-orang menggunakannya untuk coding ringan atau menulis posting media sosial. Namun, hasilnya sering kali memerlukan pengecekan ulang — neural network belum mampu menangani pekerjaan yang lebih kompleks.

Anda sekarang bisa meminta chatbot favorit Anda menulis disertasi doktor tentang topik “X”: dan Anda akan mendapatkan teks yang sulit dipahami dengan tautan dari halaman pertama atau kedua mesin pencari. Untuk meningkatkan hasil, disarankan menggunakan prompt yang diperluas, tetapi ini hanyalah penyesuaian yang lebih halus pada “bahasa mesin” dan pelatihan lanjutan.

Dengan penggunaan AI yang berkepanjangan, mungkin setiap pengguna menyadari keterbatasan model saat ini. Semua kemajuan akhirnya terhambat oleh volume basis data untuk pelatihan dan kapasitas server, sementara faktor “kecerdasan” sendiri menjadi kurang penting.

Kecerdasan Tanpa Otak

Untuk memahami konteksnya, perlu dijelaskan mekanisme kerja AI. Singkatnya, model bahasa besar dari chatbot klasik bekerja seperti ini:

  1. Teks masukan dipecah menjadi token (bagian kata, simbol).
  2. Setiap token diberi vektor numerik.
  3. Model menganalisis hubungan antar token dan menentukan kata mana yang paling penting untuk memahami konteks.
  4. Berdasarkan itu, LLM “memprediksi” token berikutnya, membentuk jawaban.

“Prediksi” ini tidak dilakukan dari kekosongan. Untuk itu, model telah menjalani pelatihan awal pada basis data besar, biasanya dari sumber terbuka di internet. Di situlah neural network mendapatkan seluruh “kecerdasannya”.

Model bahasa tidak “memahami” teks dalam arti manusia, melainkan menghitung pola statistik. Semua chatbot modern terkemuka menggunakan arsitektur dasar yang sama dengan nama “Transformer”, yang bekerja berdasarkan prinsip ini.

Tentu saja, ini adalah perbandingan kasar, tetapi LLM bisa disebut sebagai kalkulator yang sangat kuat berbasis basis data besar. Alat yang kuat, diperlukan, dan mempermudah banyak aspek kehidupan kita, tetapi menganggap teknologi ini sebagai kecerdasan penuh masih terlalu dini.

Chatbot modern lebih mirip iterasi baru mesin pencari (halo, Gemini di Google) daripada asisten serba tahu yang bisa dibawa ke saku.

Lebih dari itu, masih ada pertanyaan tentang keandalan jawaban AI. Setelah melihat statistik halusinasi dan kebohongan neural network, muncul keinginan kuat untuk kembali ke “cari di Google” yang klasik.

Perbandingan akurasi jawaban GPT-5 dan o4-mini. Sumber: OpenAI.## Ketakutan?

Poin utama pendukung kiamat adalah bahwa “AI menjadi lebih pintar secara eksponensial”, sehingga begitu melampaui kecerdasan manusia, manusia sebagai spesies akan berakhir.

AI modern, tanpa diragukan lagi, sudah melampaui kita dalam hal keakuratan pengolahan dan transformasi data. Misalnya, neural network bisa menceritakan ulang Wikipedia secara cukup detail. Tapi di situlah pengetahuannya terbatas. Lebih tepatnya, model tidak akan mampu menggunakannya untuk “tujuan pribadi”, karena tidak memiliki kemampuan itu, dan juga karena itu bukan tugasnya.

Selain itu, sudah diketahui bahwa kecerdasan buatan tidak memahami dunia di sekitar kita. Hukum fisika bagi AI adalah hutan belantara.

Semua perkembangan model bahasa berujung pada perluasan spektrum prediksi (menebak token). Namun, AI dengan cepat mendekati batas kemampuan pelatihan teks, dan semakin sering terdengar gagasan tentang perlunya menciptakan “kecerdasan spasial”.

Tapi jika kelemahan teknologi ini sendiri masih bisa diidentifikasi dan pekerjaan di bidang ini sudah berjalan, maka pertanyaan yang lebih kompleks tetap terbuka.

Bahkan bagi manusia, banyak aspek dari struktur otak tetap menjadi misteri. Apalagi mereplikasi struktur kompleks ini dalam lingkungan digital.

Selain itu, hambatan lain yang hampir tak tertembus bagi AI adalah kreativitas — kemampuan untuk menciptakan sesuatu yang baru. Secara teknis, LLM tidak mampu keluar dari batas arsitekturnya, karena kerjanya didasarkan pada pengolahan data yang sudah ada.

Dengan demikian, masa depan AI secara langsung bergantung pada informasi yang manusia berikan padanya, dan saat ini semua materi pelatihan diarahkan semata-mata untuk manfaat manusia.

Sebagai catatan adil, perlu disebutkan Elon Musk dan Grok-nya. Pada satu titik, pengguna memperhatikan bias chatbot dan kecenderungan untuk melebih-lebihkan kemampuan miliarder tersebut. Sinyal ini cukup mengkhawatirkan dari sudut etika, tetapi kemungkinan “neuro-Elon” tidak akan mampu membahayakan manusia secara fisik.

Seperti yang sudah menjadi kebiasaan, satu-satunya tujuan aplikasi kecerdasan buatan adalah untuk memenuhi permintaan pengguna. Chatbot tidak memiliki kehendak atau keinginan sendiri, dan dalam waktu dekat paradigma ini kemungkinan besar tidak akan berubah.

Anatomi Ketakutan

Lalu, mengapa kita masih takut dengan AI yang ternyata tidak terlalu “pintar” ini? Jawaban utamanya ada di permukaan.

Jika tidak mempertimbangkan ketidakpahaman terhadap teknologi, alasan paling sederhana adalah keserakahan akan uang atau popularitas.

Mari kita lihat kasus salah satu “nabi kiamat” — Eliezer Yudkowsky. Peneliti AI dan penulis buku If Anyone Builds It, Everyone Dies (“Jika ada yang membangunnya, semua akan mati”) sejak 2000-an memperingatkan tentang superintelligence AI yang konon akan asing terhadap nilai-nilai manusia.

Sampul buku. Sumber: Instaread.“Superintelligence” belum terlihat, yang sering diakui Yudkowsky sendiri. Tapi ini tidak menghentikannya tampil di podcast dengan pernyataan keras dan menjual buku.

Fisikawan terkenal dan “bapak pendiri AI” Geoffrey Hinton juga pernah mengungkapkan kekhawatiran apokaliptik. Ia memperkirakan kemungkinan bahwa teknologi dengan probabilitas 10-20% akan menyebabkan kepunahan manusia dalam 30 tahun ke depan.

Menurut Hinton, seiring meningkatnya kemampuan, strategi “mengendalikan AI” mungkin tidak lagi efektif, dan sistem agen akan berusaha bertahan hidup dan memperluas kendali.

Dalam hal ini, belum jelas siapa dan untuk tujuan apa yang akan memberi neural network “kehendak hidup”. Hinton terus bekerja di bidang pelatihan neural network dan pada 2024 dinominasikan untuk Nobel atas pencapaian di bidang ini, dan awal 2026 menjadi ilmuwan kedua dalam sejarah setelah Yoshua Bengio yang mencapai 1 juta kutipan.

Yang mengejutkan, prediksi yang lebih realistis tampaknya datang dari Andrew Yoon, salah satu pendiri Google Brain. Ia menyebut AI sebagai teknologi yang “sangat terbatas” dan yakin bahwa dalam waktu dekat algoritma tidak akan mampu menggantikan manusia.

Jelas, ada juga peramal tajam dan terkenal di bidang lain. Kehadiran mereka dalam industri AI bisa dibenarkan oleh kecintaan besar masyarakat terhadap fiksi ilmiah. Siapa yang tidak ingin merasakan sensasi cerita seperti Philip K. Dick atau Robert Sheckley, dengan satu-satunya perbedaan bahwa alur cerita sudah berlangsung di dunia nyata saat ini.

Pertanyaan yang lebih besar muncul dari pernyataan perusahaan besar yang seolah-olah tanpa sadar memperingatkan tentang ancaman terhadap lapangan kerja dan memprediksi perkembangan AI yang pesat. Jika poin kedua sebagian besar menjelaskan perlunya pengurangan biaya, poin pertama secara tidak langsung mendorong interpretasi konspirasi yang lebih besar.

Misalnya, salah satu perusahaan terbesar di dunia — Amazon — dalam enam bulan terakhir memecat lebih dari 30.000 karyawan. Manajemen menyebutnya sebagai bagian dari rencana optimisasi dan pengaruh otomatisasi, termasuk penerapan AI.

Pengembangan robot gudang tidak dihentikan. Tapi, para pengkritik menganggap masalahnya jauh lebih sederhana — dalam pemecatan massal di perusahaan, penyebabnya adalah manajemen SDM yang buruk selama pandemi COVID-19.

Amazon bukan satu-satunya contoh. Perusahaan AI dari Silicon Valley terus memperluas jumlah karyawan dan menyewa ruang baru.

Selain itu, bahkan pada 2023, hampir semua perusahaan yang sama menandatangani dokumen dari Center for AI Safety tentang perlambatan pengembangan teknologi — yang konon menganggap kecerdasan buatan sebagai “risiko eksistensial” setara dengan pandemi dan perang nuklir.

Pernyataan Center for AI Safety. Sumber: aistatement.com. Seiring waktu, surat ini terlupakan, pekerjaan di bidang ini berlanjut, dan ancaman nyata belum muncul.

Secara korporat, dalam era diskusi tentang gelembung AI yang membesar, rujukan pada perubahan teknologi tampak lebih nyaman sebagai penjelasan daripada mengakui kesalahan struktural dalam manajemen sumber daya manusia. Namun, pernyataan semacam ini menciptakan gambaran palsu tentang apa yang sebenarnya terjadi dan mengalihkan perhatian dari masalah nyata — disinformasi dan deepfake.

Kecerdasan buatan tidak mencuri pekerjaan, ia mengubah pendekatan terhadap pekerjaan itu sendiri, dalam beberapa aspek menyederhanakannya. Meski sebuah studi terbatas dari Harvard menunjukkan bahwa AI justru kadang memperumit dan memperlambat proses di dalam perusahaan.

Teknologi ini pasti akan merambah semua bidang kehidupan kita: pendidikan, ilmu pengetahuan, perdagangan, politik. Tapi dalam bentuk apa ia akan hadir, hanya manusia yang bisa menentukan. Saat ini, neural network belum memiliki hak suara.

Tidak Bisa Dijangkau

Pembicaraan di atas tentang AI yang dapat diakses umum seperti chatbot dan generator gambar. Tentu saja, di balik pintu tertutup, ada pengembangan yang lebih serius.

Di antara yang relatif sederhana: model bahasa besar di bidang kedokteran atau arkeologi. Misalnya, membantu mensintesis protein baru, atau memecahkan kode dokumen kuno yang tidak bisa dianalisis secara tradisional.

Namun, hasil dari penelitian, pengujian, dan peluncuran ini harus dipantau melalui laporan internal yang sulit diakses atau melalui publikasi di media khusus, sehingga tingkat pengetahuan tentangnya mendekati nol. Meski sangat mungkin, bahwa di bidang ini saat ini terjadi terobosan terbesar.

Kemungkinan besar, “mesin kiamat AI” tidak akan muncul bahkan di laboratorium tertutup. Semua model serba spesifik ini hanya mampu melakukan apa yang memang mereka dirancang untuk lakukan.

Ketakutan tentang AI yang keluar dari kendali hanyalah cerminan dari ketakutan kita sendiri: kehilangan pekerjaan atau pertanyaan etika yang lebih kompleks. Tapi selama manusia yang menentukan masa depan teknologi ini, memberi arah perkembangan dan tujuan, AI tetap menjadi alat, bukan subjek yang memiliki kehendak sendiri.

Berbicara tentang risiko potensial memang penting. Mengarang teori kiamat — itu bagian dari sifat manusia. Tapi, hal-hal seperti itu harus selalu dipandang dengan skeptisisme atau bahkan ironi. Jika kita punya tombol “matikan”, dunia kita tidak akan terancam oleh superintelligence digital apa pun.

Vasiliy Smirnov

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)