Pada pandangan pertama, AI dan Web3 tampaknya menjadi teknologi yang independen, masing-masing didasarkan pada prinsip yang berbeda secara fundamental dan melayani fungsi yang berbeda. Namun, eksplorasi yang lebih dalam mengungkapkan bahwa kedua teknologi ini memiliki potensi untuk menyeimbangkan perdagangan satu sama lain, dengan kekuatan unik mereka saling melengkapi dan meningkatkan satu sama lain. Balaji Srinivasan dengan elegan mengartikulasikan konsep kemampuan yang saling melengkapi ini pada konferensi SuperAI, memicu perbandingan rinci tentang bagaimana kedua teknologi ini berinteraksi.
token muncul dari pendekatan bottom-up, bangkit dari upaya terdesentralisasi para penggemar jaringan anonim dan berkembang selama satu dekade melalui upaya kolaboratif berbagai entitas independen di seluruh dunia. sebaliknya, kecerdasan buatan telah dikembangkan melalui pendekatan top-down, didominasi oleh beberapa raksasa teknologi yang menetapkan ritme dan dinamika industri. hambatan masuk dalam AI lebih ditentukan oleh intensitas sumber daya daripada kompleksitas teknis.
kedua teknologi ini juga memiliki sifat yang berbeda secara mendasar. token adalah sistem deterministik yang menghasilkan hasil yang tidak dapat diubah, seperti prediktabilitas fungsi hash atau bukti pengetahuan nol. ini sangat bertentangan dengan sifat probabilitas dan seringkali tidak terduga dari kecerdasan buatan.
Demikian pula, teknologi kriptografi unggul dalam validasi, memastikan keaslian dan keamanan transaksi serta membangun proses dan sistem tanpa kepercayaan, sedangkan kecerdasan buatan berfokus pada generasi, menciptakan konten digital yang kaya. Namun, memastikan asal-usul konten dan mencegah pencurian identitas menjadi tantangan dalam pembuatan konten digital.
Untungnya, token memberikan kontrapoin terhadap kelimpahan digital - kelangkaan digital. Mereka menawarkan alat yang relatif matang yang dapat diterapkan pada teknologi AI untuk memastikan provenans konten dan mengatasi masalah pencurian identitas.
keuntungan yang mencolok dari token adalah kemampuannya untuk menarik perangkat keras dan modal substantial ke dalam jaringan yang terkoordinasi untuk mencapai tujuan-tujuan tertentu. kemampuan ini sangat bermanfaat untuk kecerdasan buatan, yang mengkonsumsi jumlah daya komputasi yang besar. memobilisasi sumber daya yang kurang dimanfaatkan untuk menyediakan daya komputasi yang lebih terjangkau dapat signifikan meningkatkan efisiensi kecerdasan buatan.
dengan membandingkan kedua teknologi ini, kita tidak hanya menghargai kontribusi individu mereka tetapi juga melihat bagaimana mereka secara bersama-sama dapat membuka jalan baru dalam teknologi dan ekonomi. setiap teknologi dapat mengatasi kekurangan yang lain, menciptakan masa depan yang lebih terintegrasi dan inovatif. posting blog ini bertujuan untuk mengeksplorasi lanskap industri ai x web3 yang muncul, berfokus pada beberapa vertikal baru di persimpangan kedua teknologi ini.
sumber: iosg ventures
jaringan komputasi digunakan terutama untuk dua fungsi utama: pelatihan dan inferensi. permintaan untuk jaringan ini berasal dari proyek web 2.0 dan web 3.0. di ruang web 3.0, proyek seperti bittensor memanfaatkan sumber daya komputasi untuk penyetelan model. untuk inferensi, proyek web 3.0 menekankan pada verifikasi proses. fokus ini telah menyebabkan munculnya inferensi yang dapat diverifikasi sebagai vertikal pasar, dengan proyek-proyek yang menjelajahi cara mengintegrasikan inferensi kecerdasan buatan ke dalam kontrak pintar sambil mempertahankan prinsip desentralisasi.
Sumber: iosg ventures
dalam integrasi ai dan web3, data merupakan komponen inti. data adalah aset strategis dalam persaingan ai, menjadi sumber daya kunci bersama sumber daya komputasi. namun, kategori ini sering diabaikan karena sebagian besar perhatian industri difokuskan pada lapisan komputasi. pada kenyataannya, primitif menyediakan banyak arah nilai menarik dalam proses akuisisi data, terutama termasuk dua arah tingkat tinggi berikut:
mengakses data internet publik
mengakses data yang dilindungi
Mengakses Data Internet Publik: Arah ini bertujuan untuk membangun jaringan crawler terdistribusi yang dapat merayapi seluruh Internet dalam beberapa hari, memperoleh kumpulan data besar atau mengakses data Internet yang sangat spesifik secara real-time. Namun, untuk merayapi kumpulan data besar di Internet, permintaan jaringan sangat tinggi, membutuhkan setidaknya beberapa ratus node untuk memulai beberapa pekerjaan yang berarti. Untungnya, Grass, jaringan crawler node terdistribusi, sudah memiliki lebih dari 2 juta node yang secara aktif berbagi bandwidth Internet dengan jaringan, yang bertujuan untuk merayapi seluruh Internet. Ini menunjukkan potensi besar insentif ekonomi dalam menarik sumber daya yang berharga.
Meskipun GRASS menyediakan lingkungan kompetitif yang adil untuk data publik, tantangan untuk memanfaatkan data potensial — khususnya, akses ke kumpulan data kepemilikan — tetap ada. Secara khusus, sejumlah besar data masih disimpan dengan cara yang dilindungi privasi karena sifatnya yang sensitif. Banyak startup menggunakan alat kriptografi yang memungkinkan pengembang AI memanfaatkan struktur data dasar dari kumpulan data eksklusif untuk membangun dan menyempurnakan model bahasa besar sambil menjaga informasi sensitif tetap pribadi.
Teknologi seperti pembelajaran federasi, privasi diferensial, lingkungan eksekusi tepercaya, enkripsi homomorfik sepenuhnya, dan komputasi multi-pihak memberikan tingkat perlindungan privasi dan trade-off yang berbeda. Makalah penelitian Bagel merangkum gambaran yang sangat baik tentang teknologi ini. Teknologi ini tidak hanya melindungi privasi data selama proses pembelajaran mesin tetapi juga mencapai solusi AI yang dilindungi privasi yang komprehensif di lapisan komputasi.
Teknologi asal data dan model bertujuan untuk membangun proses yang meyakinkan pengguna bahwa mereka berinteraksi dengan model dan data yang dimaksud. Selain itu, teknologi ini memberikan jaminan keaslian dan asalnya. Misalnya, watermarking, sejenis teknologi asal model, menyematkan tanda tangan langsung ke dalam algoritma pembelajaran mesin, lebih khusus lagi ke dalam bobot model, sehingga selama pengambilan, dapat diverifikasi apakah inferensi berasal dari model yang dimaksud.
dalam hal aplikasi, kemungkinan desain tidak terbatas. dalam lanskap industri di atas, kami telah mencantumkan beberapa kasus pengembangan yang sangat diantisipasi saat teknologi ai diterapkan dalam bidang web 3.0. karena kasus penggunaan ini sebagian besar dapat dijelaskan sendiri, kami tidak akan mengomentari lebih lanjut. Namun, perlu dicatat bahwa persimpangan ai dan web 3.0 memiliki potensi untuk mengubah banyak vertikal dalam bidang ini, karena primitif baru ini memberikan kebebasan lebih kepada pengembang untuk menciptakan kasus penggunaan inovatif dan mengoptimalkan yang sudah ada.
integrasi ai dan web3 membawa lanskap yang penuh dengan inovasi dan potensi. Dengan memanfaatkan keuntungan unik dari setiap teknologi, kita dapat menangani berbagai tantangan dan membuka jalur teknologi baru. Saat kita menjelajahi industri yang sedang muncul ini, sinergi antara ai dan web3 dapat mendorong kemajuan, membentuk pengalaman digital masa depan kita, dan mengubah cara kita berinteraksi secara online.
fusi kelangkaan digital dan kelimpahan digital, mobilisasi sumber daya yang kurang digunakan untuk mencapai efisiensi komputasi, dan penetapan praktik data yang aman dan melindungi privasi akan menentukan era evolusi teknologi generasi berikutnya.
Namun, kita harus mengakui bahwa industri ini masih dalam tahap awal, dan lanskap saat ini mungkin dengan cepat menjadi ketinggalan zaman. Kecepatan inovasi yang cepat berarti solusi terbaru saat ini mungkin segera digantikan oleh terobosan baru. Namun demikian, konsep-konsep dasar yang dibahas - seperti jaringan komputasi, platform agen, dan protokol data - menyoroti kemungkinan besar mengintegrasikan AI dengan web3.
artikel ini direproduksi dari [深潮TechFlow], hak cipta menjadi milik penulis asli [iosg ventures], jika Anda memiliki keberatan terhadap cetak ulang, silakan hubungiGate belajartim, dan tim akan menanganinya secepat mungkin sesuai dengan prosedur yang relevan.
disclaimer: pandangan dan opini yang terungkap dalam artikel ini hanya mewakili pandangan pribadi penulis dan tidak merupakan saran investasi apa pun.
versi bahasa lain dari artikel ini diterjemahkan oleh tim pembelajaran Gate dan tidak disebutkan dalamGate.io, artikel yang diterjemahkan tidak boleh direproduksi, didistribusikan, atau diplagiat.
Share
Pada pandangan pertama, AI dan Web3 tampaknya menjadi teknologi yang independen, masing-masing didasarkan pada prinsip yang berbeda secara fundamental dan melayani fungsi yang berbeda. Namun, eksplorasi yang lebih dalam mengungkapkan bahwa kedua teknologi ini memiliki potensi untuk menyeimbangkan perdagangan satu sama lain, dengan kekuatan unik mereka saling melengkapi dan meningkatkan satu sama lain. Balaji Srinivasan dengan elegan mengartikulasikan konsep kemampuan yang saling melengkapi ini pada konferensi SuperAI, memicu perbandingan rinci tentang bagaimana kedua teknologi ini berinteraksi.
token muncul dari pendekatan bottom-up, bangkit dari upaya terdesentralisasi para penggemar jaringan anonim dan berkembang selama satu dekade melalui upaya kolaboratif berbagai entitas independen di seluruh dunia. sebaliknya, kecerdasan buatan telah dikembangkan melalui pendekatan top-down, didominasi oleh beberapa raksasa teknologi yang menetapkan ritme dan dinamika industri. hambatan masuk dalam AI lebih ditentukan oleh intensitas sumber daya daripada kompleksitas teknis.
kedua teknologi ini juga memiliki sifat yang berbeda secara mendasar. token adalah sistem deterministik yang menghasilkan hasil yang tidak dapat diubah, seperti prediktabilitas fungsi hash atau bukti pengetahuan nol. ini sangat bertentangan dengan sifat probabilitas dan seringkali tidak terduga dari kecerdasan buatan.
Demikian pula, teknologi kriptografi unggul dalam validasi, memastikan keaslian dan keamanan transaksi serta membangun proses dan sistem tanpa kepercayaan, sedangkan kecerdasan buatan berfokus pada generasi, menciptakan konten digital yang kaya. Namun, memastikan asal-usul konten dan mencegah pencurian identitas menjadi tantangan dalam pembuatan konten digital.
Untungnya, token memberikan kontrapoin terhadap kelimpahan digital - kelangkaan digital. Mereka menawarkan alat yang relatif matang yang dapat diterapkan pada teknologi AI untuk memastikan provenans konten dan mengatasi masalah pencurian identitas.
keuntungan yang mencolok dari token adalah kemampuannya untuk menarik perangkat keras dan modal substantial ke dalam jaringan yang terkoordinasi untuk mencapai tujuan-tujuan tertentu. kemampuan ini sangat bermanfaat untuk kecerdasan buatan, yang mengkonsumsi jumlah daya komputasi yang besar. memobilisasi sumber daya yang kurang dimanfaatkan untuk menyediakan daya komputasi yang lebih terjangkau dapat signifikan meningkatkan efisiensi kecerdasan buatan.
dengan membandingkan kedua teknologi ini, kita tidak hanya menghargai kontribusi individu mereka tetapi juga melihat bagaimana mereka secara bersama-sama dapat membuka jalan baru dalam teknologi dan ekonomi. setiap teknologi dapat mengatasi kekurangan yang lain, menciptakan masa depan yang lebih terintegrasi dan inovatif. posting blog ini bertujuan untuk mengeksplorasi lanskap industri ai x web3 yang muncul, berfokus pada beberapa vertikal baru di persimpangan kedua teknologi ini.
sumber: iosg ventures
jaringan komputasi digunakan terutama untuk dua fungsi utama: pelatihan dan inferensi. permintaan untuk jaringan ini berasal dari proyek web 2.0 dan web 3.0. di ruang web 3.0, proyek seperti bittensor memanfaatkan sumber daya komputasi untuk penyetelan model. untuk inferensi, proyek web 3.0 menekankan pada verifikasi proses. fokus ini telah menyebabkan munculnya inferensi yang dapat diverifikasi sebagai vertikal pasar, dengan proyek-proyek yang menjelajahi cara mengintegrasikan inferensi kecerdasan buatan ke dalam kontrak pintar sambil mempertahankan prinsip desentralisasi.
Sumber: iosg ventures
dalam integrasi ai dan web3, data merupakan komponen inti. data adalah aset strategis dalam persaingan ai, menjadi sumber daya kunci bersama sumber daya komputasi. namun, kategori ini sering diabaikan karena sebagian besar perhatian industri difokuskan pada lapisan komputasi. pada kenyataannya, primitif menyediakan banyak arah nilai menarik dalam proses akuisisi data, terutama termasuk dua arah tingkat tinggi berikut:
mengakses data internet publik
mengakses data yang dilindungi
Mengakses Data Internet Publik: Arah ini bertujuan untuk membangun jaringan crawler terdistribusi yang dapat merayapi seluruh Internet dalam beberapa hari, memperoleh kumpulan data besar atau mengakses data Internet yang sangat spesifik secara real-time. Namun, untuk merayapi kumpulan data besar di Internet, permintaan jaringan sangat tinggi, membutuhkan setidaknya beberapa ratus node untuk memulai beberapa pekerjaan yang berarti. Untungnya, Grass, jaringan crawler node terdistribusi, sudah memiliki lebih dari 2 juta node yang secara aktif berbagi bandwidth Internet dengan jaringan, yang bertujuan untuk merayapi seluruh Internet. Ini menunjukkan potensi besar insentif ekonomi dalam menarik sumber daya yang berharga.
Meskipun GRASS menyediakan lingkungan kompetitif yang adil untuk data publik, tantangan untuk memanfaatkan data potensial — khususnya, akses ke kumpulan data kepemilikan — tetap ada. Secara khusus, sejumlah besar data masih disimpan dengan cara yang dilindungi privasi karena sifatnya yang sensitif. Banyak startup menggunakan alat kriptografi yang memungkinkan pengembang AI memanfaatkan struktur data dasar dari kumpulan data eksklusif untuk membangun dan menyempurnakan model bahasa besar sambil menjaga informasi sensitif tetap pribadi.
Teknologi seperti pembelajaran federasi, privasi diferensial, lingkungan eksekusi tepercaya, enkripsi homomorfik sepenuhnya, dan komputasi multi-pihak memberikan tingkat perlindungan privasi dan trade-off yang berbeda. Makalah penelitian Bagel merangkum gambaran yang sangat baik tentang teknologi ini. Teknologi ini tidak hanya melindungi privasi data selama proses pembelajaran mesin tetapi juga mencapai solusi AI yang dilindungi privasi yang komprehensif di lapisan komputasi.
Teknologi asal data dan model bertujuan untuk membangun proses yang meyakinkan pengguna bahwa mereka berinteraksi dengan model dan data yang dimaksud. Selain itu, teknologi ini memberikan jaminan keaslian dan asalnya. Misalnya, watermarking, sejenis teknologi asal model, menyematkan tanda tangan langsung ke dalam algoritma pembelajaran mesin, lebih khusus lagi ke dalam bobot model, sehingga selama pengambilan, dapat diverifikasi apakah inferensi berasal dari model yang dimaksud.
dalam hal aplikasi, kemungkinan desain tidak terbatas. dalam lanskap industri di atas, kami telah mencantumkan beberapa kasus pengembangan yang sangat diantisipasi saat teknologi ai diterapkan dalam bidang web 3.0. karena kasus penggunaan ini sebagian besar dapat dijelaskan sendiri, kami tidak akan mengomentari lebih lanjut. Namun, perlu dicatat bahwa persimpangan ai dan web 3.0 memiliki potensi untuk mengubah banyak vertikal dalam bidang ini, karena primitif baru ini memberikan kebebasan lebih kepada pengembang untuk menciptakan kasus penggunaan inovatif dan mengoptimalkan yang sudah ada.
integrasi ai dan web3 membawa lanskap yang penuh dengan inovasi dan potensi. Dengan memanfaatkan keuntungan unik dari setiap teknologi, kita dapat menangani berbagai tantangan dan membuka jalur teknologi baru. Saat kita menjelajahi industri yang sedang muncul ini, sinergi antara ai dan web3 dapat mendorong kemajuan, membentuk pengalaman digital masa depan kita, dan mengubah cara kita berinteraksi secara online.
fusi kelangkaan digital dan kelimpahan digital, mobilisasi sumber daya yang kurang digunakan untuk mencapai efisiensi komputasi, dan penetapan praktik data yang aman dan melindungi privasi akan menentukan era evolusi teknologi generasi berikutnya.
Namun, kita harus mengakui bahwa industri ini masih dalam tahap awal, dan lanskap saat ini mungkin dengan cepat menjadi ketinggalan zaman. Kecepatan inovasi yang cepat berarti solusi terbaru saat ini mungkin segera digantikan oleh terobosan baru. Namun demikian, konsep-konsep dasar yang dibahas - seperti jaringan komputasi, platform agen, dan protokol data - menyoroti kemungkinan besar mengintegrasikan AI dengan web3.
artikel ini direproduksi dari [深潮TechFlow], hak cipta menjadi milik penulis asli [iosg ventures], jika Anda memiliki keberatan terhadap cetak ulang, silakan hubungiGate belajartim, dan tim akan menanganinya secepat mungkin sesuai dengan prosedur yang relevan.
disclaimer: pandangan dan opini yang terungkap dalam artikel ini hanya mewakili pandangan pribadi penulis dan tidak merupakan saran investasi apa pun.
versi bahasa lain dari artikel ini diterjemahkan oleh tim pembelajaran Gate dan tidak disebutkan dalamGate.io, artikel yang diterjemahkan tidak boleh direproduksi, didistribusikan, atau diplagiat.