AI + Web3: Menara dan Lapangan

Menengah5/13/2025, 12:33:43 PM
Artikel ini menggali peluang Web3 dalam tumpukan teknologi kecerdasan buatan (AI), termasuk berbagi daya komputasi, perlindungan privasi data, pelatihan model dan inferensi, serta menjelajahi bagaimana AI memberdayakan keuangan, infrastruktur, dan narasi baru Web3, dari jaringan daya komputasi terdesentralisasi hingga awal dingin Agen AI, dari keamanan transaksi on-chain hingga NFT generatif, integrasi AI dan Web3 membuka era baru yang penuh inovasi dan peluang.

TL;DR:

  • Konsep AI proyek Web3 telah menjadi target investasi menarik di pasar primer dan sekunder.
  • Peluang-peluang untuk Web3 di industri Kecerdasan Buatan terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang - meliputi data, penyimpanan, dan komputasi; sementara itu, membentuk model open-source dan pasar terdesentralisasi untuk Agensi Kecerdasan Buatan.
  • AI memainkan peran kunci dalam industri Web3, terutama dalam keuangan on-chain (pembayaran cryptocurrency, perdagangan, analisis data) dan bantuan pengembangan.
  • Manfaat AI+Web3 terletak pada saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 untuk lepas dari pembatasan.

Pengantar

Dalam dua tahun terakhir, perkembangan AI telah dipercepat, seperti efek kupu-kupu yang dipicu oleh Chatgpt, tidak hanya membuka dunia baru kecerdasan buatan generatif tetapi juga menciptakan tren di Web3 yang jauh.

Dengan restu konsep AI, pembiayaan pasar cryptocurrency telah meningkat secara signifikan dibandingkan dengan perlambatan. Menurut statistik media, hanya dalam setengah pertama tahun 2024, total 64 proyek Web3+AI menyelesaikan pembiayaan, dan sistem operasi berbasis AI Zyber365 mencapai jumlah pembiayaan tertinggi sebesar 100 juta dolar AS dalam putaran Seri A.

Pasar sekunder lebih makmur, dan data dari situs web agregasi terenkripsi Coingecko menunjukkan bahwa dalam waktu sedikit lebih dari setahun, total nilai pasar dari trek AI telah mencapai $485 miliar, dengan volume perdagangan 24 jam hampir $86 miliar; manfaat yang jelas dibawa oleh kemajuan teknologi AI mainstream, setelah model teks-ke-video Sora milik OpenAI dirilis, harga rata-rata sektor AI naik 151%; efek AI juga meradiasi ke salah satu sektor kriptokurensi yang menyerap emas Meme: konsep MemeCoin pertama AI Agent - GOAT dengan cepat menjadi populer dan mencapai valuasi $1,4 miliar, berhasil memicu gejolak AI Meme.

Penelitian dan topik tentang AI+Web3 sama-sama diminati. Dari AI+Depin hingga AI Memecoin dan sampai pada AI Agent dan AI DAO saat ini, emosi FOMO sudah tertinggal di belakang kecepatan rotasi narasi baru.

AI+Web3, gabungan istilah ini penuh dengan uang panas, tren, dan fantasi masa depan, tak terelakkan terlihat sebagai pernikahan yang diatur oleh modal. Sepertinya sulit bagi kita untuk membedakan apakah itu tanah rumah para spekulan atau malam fajar di bawah jubah yang mempesona ini.

Untuk menjawab pertanyaan ini, pertimbangan kunci bagi kedua belah pihak adalah apakah yang lain akan menjadi lebih baik? Dapatkah mereka mendapatkan manfaat dari pola-pola satu sama lain? Dalam artikel ini, kami juga mencoba menguji situasi ini dari sudut pandang berdiri di atas bahu para pendahulu: Bagaimana Web3 dapat berperan dalam berbagai aspek tumpukan teknologi AI, dan apa vitalitas baru yang bisa AI bawa ke Web3?

Apa kesempatan yang dimiliki Web3 di bawah tumpukan AI?

Sebelum kita menyelami topik ini, kita perlu memahami tumpukan teknis dari model-model besar AI:


Sumber Gambar: Delphi Digital

Dalam istilah yang lebih sederhana, “model besar” ini mirip dengan otak manusia. Pada tahap awal, otak ini seperti bayi yang baru lahir, yang perlu mengamati dan menyerap banyak informasi eksternal untuk memahami dunia. Ini adalah tahap “pengumpulan” data; karena komputer tidak memiliki beberapa indera seperti manusia, sebelum pelatihan, informasi eksternal yang tidak berlabel dalam skala besar perlu “diproses sebelumnya” agar dapat diubah menjadi format yang dapat dipahami dan digunakan oleh komputer.

Setelah memasukkan data, AI membangun model yang memiliki kemampuan untuk memahami dan meramalkan melalui ‘pelatihan’, yang dapat dilihat sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia eksternal. Parameter-parameter model tersebut seperti kemampuan berbahasa yang terus menerus disesuaikan oleh bayi selama proses pembelajaran. Ketika konten pembelajaran mulai berspesialisasi, atau ketika menerima umpan balik dari berinteraksi dengan orang lain dan membuat koreksi, masuk ke tahap ‘penyetelan’ dari model-model besar.

Saat anak-anak tumbuh besar dan belajar berbicara, mereka dapat memahami makna dan mengekspresikan perasaan dan pemikiran mereka dalam percakapan baru, yang mirip dengan 'inferensi' dari model AI besar. Model dapat memprediksi dan menganalisis input bahasa dan teks baru. Bayi mengekspresikan perasaan mereka, mendeskripsikan objek, dan menyelesaikan berbagai masalah melalui kemampuan bahasa, yang juga mirip dengan aplikasi model AI besar dalam berbagai tugas tertentu selama tahap inferensi setelah menyelesaikan pelatihan, seperti klasifikasi gambar, pengenalan suara, dll.

Sementara Agen AI lebih dekat dengan bentuk berikutnya dari model besar - mampu mengeksekusi tugas secara independen dan mengejar tujuan kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga mampu mengingat, merencanakan, dan berinteraksi dengan dunia menggunakan alat.

Saat ini, mengatasi titik-titik rasa sakit AI dalam berbagai tumpukan, Web3 awalnya telah membentuk ekosistem berlapis, saling terhubung, yang mencakup berbagai tahap proses model AI.

Pertama, Lapisan Dasar: Airbnb dari kekuatan komputasi dan data

Daya komputasi

Saat ini, salah satu biaya tertinggi dari AI adalah kekuatan komputasi dan energi yang diperlukan untuk melatih model dan model inferensi.

Salah satu contohnya adalah bahwa LLAMA3 Meta memerlukan 16.000 H100GPU yang diproduksi oleh NVIDIA (unit pemrosesan grafis teratas yang dirancang khusus untuk kecerdasan buatan dan beban kerja komputasi berkinerja tinggi) untuk menyelesaikan pelatihan dalam 30 hari. Versi 80GB terakhir tersebut dijual dengan harga antara $30.000 dan $40.000, memerlukan investasi perangkat keras sebesar $4-7 miliar (GPU + chip jaringan). Selain itu, pelatihan bulanan mengonsumsi 16 miliar kilowatt-jam, dengan pengeluaran energi hampir $20 juta per bulan.

Untuk dekompresi kekuatan komputasi AI, ini juga adalah bidang terawal di mana Web3 berpotongan dengan AI - DePin (jaringan infrastruktur fisik terdesentralisasi). Saat ini, situs web data DePin Ninja telah menampilkan lebih dari 1400 proyek, termasuk proyek perwakilan berbagi kekuatan komputasi GPU seperti io.net, Aethir, Akash, Render Network, dan lainnya.

Logika utamanya adalah: Platform ini memungkinkan individu atau entitas dengan sumber daya GPU yang menganggur untuk menyumbangkan daya komputasinya secara terdesentralisasi tanpa izin, meningkatkan pemanfaatan sumber daya GPU yang kurang dimanfaatkan melalui pasar online yang mirip dengan Uber atau Airbnb bagi pembeli dan penjual, memungkinkan pengguna akhir untuk memperoleh sumber daya komputasi yang lebih hemat biaya dan efisien; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran terhadap mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan menghadapi denda yang sesuai.

Fitur-fiturnya adalah:

  • Mengumpulkan sumber daya GPU yang menganggur: Pemasok utamanya adalah pusat data independen pihak ketiga kecil dan menengah, sumber daya kekuatan komputasi berlebih dari operator seperti pertambangan terenkripsi, dan perangkat keras pertambangan dengan mekanisme konsensus PoS, seperti FileCoin dan penambang ETH. Saat ini, juga ada proyek yang didedikasikan untuk meluncurkan perangkat dengan hambatan masuk yang lebih rendah, seperti exolab yang memanfaatkan perangkat lokal seperti MacBook, iPhone, iPad untuk membentuk jaringan kekuatan komputasi untuk menjalankan inferensi model berskala besar.
  • Menghadapi pasar ekor panjang dari kekuatan komputasi AI: a. “Dari segi teknologi,” pasar kekuatan komputasi terdesentralisasi lebih cocok untuk langkah-langkah penalaran. Pelatihan bergantung pada kemampuan pemrosesan data yang dibawa oleh GPU skala klaster super besar, sementara penalaran relatif rendah dalam kinerja komputasi GPU, seperti Aethir yang fokus pada pekerjaan rendering latensi rendah dan aplikasi inferensi AI. b. “Dari segi permintaan,” pihak yang membutuhkan kekuatan komputasi kecil dan menengah tidak akan melatih model besar mereka sendiri, tetapi hanya memilih untuk mengoptimalkan dan menyempurnakan beberapa model utama, dan skenario-skenario ini secara alami cocok untuk sumber daya kekuatan komputasi menganggur yang terdistribusi.
  • Kepemilikan terdesentralisasi: Signifikansi teknologi dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya mereka, menyesuaikan secara fleksibel sesuai permintaan, dan memperoleh keuntungan pada saat yang sama.

Data

Data adalah dasar dari AI. Tanpa data, komputasi tidak berguna, dan hubungan antara data dan model seperti peribahasa 'Sampah masuk, Sampah keluar'. Kuantitas dan kualitas data menentukan kualitas output dari model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa, kemampuan pemahaman, dan bahkan nilai dan kinerja yang dihumanisasi dari model. Saat ini, dilemma permintaan data AI terutama berfokus pada empat aspek berikut:

  • Kelaparan data: pelatihan model AI sangat bergantung pada jumlah data yang besar. Informasi publik menunjukkan bahwa jumlah parameter untuk pelatihan GPT-4 oleh OpenAI telah mencapai tingkat triliun.
  • Kualitas data: Dengan kombinasi AI dan berbagai industri, kebutuhan baru telah diajukan untuk ketepatan waktu, keragaman, profesionalisme data khusus industri, dan penerimaan sumber data baru seperti sentimen media sosial.
  • Masalah Privasi dan Kepatuhan: Saat ini, berbagai negara dan perusahaan secara bertahap menyadari pentingnya kumpulan data berkualitas tinggi dan memberlakukan pembatasan terhadap pengambilan data.
  • Biaya pemrosesan data yang tinggi: banyak data, pemrosesan yang kompleks. Informasi publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.

Saat ini, solusi web3 tercermin dalam empat aspek berikut:

1. Pengumpulan Data: Data dunia nyata yang tersedia secara bebas untuk diambil semakin menipis, dan biaya perusahaan AI untuk data telah meningkat dari tahun ke tahun. Namun, pada saat yang sama, pengeluaran ini belum diteruskan kepada kontributor nyata data; platform sepenuhnya menikmati penciptaan nilai yang dibawa oleh data, seperti Reddit menghasilkan total $203 juta dalam pendapatan melalui perjanjian lisensi data dengan perusahaan AI.

Visi Web3 adalah memungkinkan pengguna yang benar-benar berkontribusi juga berpartisipasi dalam penciptaan nilai yang dibawa oleh data, dan untuk memperoleh data pribadi dan berharga pengguna lebih secara efisien melalui jaringan terdistribusi dan mekanisme insentif.

  • Sebagai lapisan data terdesentralisasi dan jaringan, pengguna dapat menangkap data real-time dari seluruh Internet dengan menjalankan node Grass, berkontribusi pada bandwidth yang tidak terpakai dan meneruskan lalu lintas, serta menerima imbalan token;
  • Vana memperkenalkan konsep unik dari Data Liquidity Pool (DLP), di mana pengguna dapat mengunggah data pribadi mereka (seperti catatan belanja, kebiasaan menjelajah, aktivitas media sosial, dll.) ke DLP tertentu dan memilih secara selektif apakah untuk memberi izin data ini untuk penggunaan pihak ketiga tertentu;
  • Di PublicAI, pengguna dapat menggunakan tag klasifikasi #AI atau #Web3 pada X@PublicAIPengumpulan data dapat dicapai.

2. Pra-pemrosesan data: Dalam pemrosesan data AI, karena data yang dikumpulkan biasanya bising dan mengandung kesalahan, data tersebut harus dibersihkan dan dikonversi ke dalam format yang dapat digunakan sebelum melatih model, melibatkan tugas-tugas berulang standarisasi, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit proses manual dalam industri AI, yang telah melahirkan industri pengannotasi data. Seiring dengan peningkatan persyaratan model terhadap kualitas data, ambang batas bagi pengannotasi data juga meningkat. Tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi dari Web3.

  • Saat ini, Grass dan OpenLayer keduanya sedang mempertimbangkan untuk menambahkan anotasi data sebagai langkah kunci.
  • Synesis mengusulkan konsep 'Train2earn', menekankan kualitas data, di mana pengguna dapat diberi imbalan dengan menyediakan data yang dianotasi, komentar, atau bentuk input lainnya.
  • Proyek pelabelan data Sapien membuat tugas pelabelan menjadi permainan dan memungkinkan pengguna untuk bertaruh poin untuk mendapatkan lebih banyak poin.

3. Privasi Data dan Keamanan: Perlu dijelaskan bahwa privasi data dan keamanan merupakan dua konsep yang berbeda. Privasi data melibatkan penanganan data sensitif, sementara keamanan data melindungi informasi data dari akses, penghancuran, dan pencurian yang tidak sah. Sebagai hasilnya, keuntungan dan skenario aplikasi potensial dari teknologi privasi Web3 tercermin dalam dua aspek: (1) pelatihan data sensitif; (2) kolaborasi data: beberapa pemilik data dapat berpartisipasi dalam pelatihan kecerdasan buatan bersama tanpa harus membagikan data asli mereka.

Teknologi privasi umum di Web3 saat ini termasuk:

  • Lingkungan Eksekusi Terpercaya (TEE), seperti Protokol Super;
  • Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io, atau Jaringan Inco;
  • Teknologi bukti nol pengetahuan (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti pengetahuan nol dari lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor aktivitas, reputasi, dan data identitas dari situs web eksternal secara aman tanpa mengungkapkan informasi sensitif.

Namun, bidang ini masih dalam tahap awal, dengan sebagian besar proyek masih dalam tahap eksplorasi. Saat ini, salah satu dilema adalah biaya komputasi yang terlalu tinggi, dengan beberapa contoh seperti:

  • Kerangka zkML EZKL memerlukan sekitar 80 menit untuk menghasilkan bukti dari model 1M-nanoGPT.
  • Menurut data Modulus Labs, overhead zkML lebih dari 1000 kali lebih tinggi dari perhitungan murni.

4. Penyimpanan Data: Setelah mendapatkan data, diperlukan tempat untuk menyimpan data pada rantai dan menggunakan LLM yang dihasilkan oleh data tersebut. Dengan ketersediaan data (DA) sebagai isu inti, sebelum upgrade Ethereum Danksharding, throughputnya adalah 0,08MB. Pada saat yang sama, pelatihan dan inferensi real-time dari model AI umumnya memerlukan throughput data sebesar 50 hingga 100GB per detik. Perbedaan kuantitas ini membuat solusi on-chain yang ada tidak memadai saat menghadapi 'aplikasi AI yang membutuhkan sumber daya intensif'.

  • 0g.AI adalah proyek representatif dalam kategori ini. Ini adalah solusi penyimpanan terpusat yang dirancang untuk kebutuhan AI berkinerja tinggi, dengan fitur utama termasuk kinerja tinggi dan skalabilitas, mendukung pengunggahan dan pengunduhan cepat kumpulan data dalam skala besar melalui teknologi sharding dan pengkodean erasure canggih, dengan kecepatan transfer data mencapai 5GB per detik.

Dua, Middleware: Pelatihan dan Inferensi dari Model

Pasar desentralisasi model sumber terbuka

Debat tentang apakah model AI harus open source atau closed source tidak pernah berhenti. Inovasi kolektif yang dibawa oleh open source adalah keuntungan yang tidak dapat diimbangi oleh model closed source. Namun, di bawah asumsi model tanpa keuntungan, bagaimana model open source dapat meningkatkan motivasi pengembang? Ini adalah arah yang patut dipertimbangkan. Pendiri Baidu, Robin Li, menegaskan pada bulan April tahun ini, “Model open source akan tertinggal lebih jauh.

Dalam hal ini, Web3 mengusulkan kemungkinan pasar model open-source terdesentralisasi, yaitu dengan membuat model itu sendiri menjadi token, menyimpan sebagian token untuk tim, dan mengarahkan sebagian dari pendapatan masa depan model ke pemegang token.

  • Protokol Bittensor membentuk model open-source dari pasar P2P, terdiri dari puluhan 'subnet', di mana penyedia sumber daya (komputasi, pengumpulan/penyimpanan data, bakat machine learning) bersaing satu sama lain untuk memenuhi tujuan pemilik subnet tertentu. Subnet dapat berinteraksi dan belajar satu sama lain, sehingga mencapai kecerdasan yang lebih besar. Hadiah didistribusikan melalui pemungutan suara komunitas dan dialokasikan lebih lanjut di antara subnet berdasarkan kinerja kompetitif.
  • ORA memperkenalkan konsep Penawaran Model Awal (IMO), menggambarkan model AI untuk pembelian, penjualan, dan pengembangan pada jaringan terdesentralisasi.
  • Sentient, platform AGI terdesentralisasi, memberikan insentif kepada orang untuk bekerja sama, membangun, mereplikasi, dan memperluas model AI, memberi penghargaan kepada kontributor.
  • Spectral Nova berfokus pada penciptaan dan penerapan model AI dan ML.

Verifikasi Inferensi

Untuk dilema 'kotak hitam' dalam proses penalaran AI, solusi standar Web3 adalah memiliki beberapa validator mengulangi operasi yang sama dan membandingkan hasilnya. Namun, karena kekurangan 'chip Nvidia' kelas atas saat ini, tantangan yang jelas dihadapi oleh pendekatan ini adalah biaya tinggi dari penalaran AI.

Sebuah solusi yang lebih menjanjikan adalah melakukan bukti ZK dari perhitungan inferensi AI di luar rantai, di mana satu pihak pembuktian dapat membuktikan kepada pemeriksa lain bahwa pernyataan tertentu benar tanpa mengungkapkan informasi tambahan selain pernyataan tersebut benar, memungkinkan verifikasi tanpa izin dari perhitungan model AI di rantai. Ini memerlukan bukti di rantai dengan cara terenkripsi bahwa perhitungan di luar rantai telah diselesaikan dengan benar (misalnya, kumpulan data tidak dimanipulasi), sambil memastikan semua data tetap bersifat rahasia.

Keuntungan utama termasuk:

  • Skalabilitas: Bukti pengetahuan nol dapat dengan cepat mengonfirmasi sejumlah besar komputasi di luar rantai. Bahkan ketika jumlah transaksi meningkat, satu bukti pengetahuan nol dapat memverifikasi semua transaksi.
  • Perlindungan privasi: Informasi detail tentang data dan model AI tetap dirahasiakan, sementara semua pihak dapat memverifikasi bahwa data dan model tidak telah dimanipulasi.
  • Tidak perlu mempercayai: Anda dapat mengonfirmasi perhitungan tanpa bergantung pada pihak-pihak terpusat.
  • Integrasi Web2: Menurut definisi, Web2 terintegrasi di luar rantai, yang berarti penalaran yang dapat diverifikasi dapat membantu membawa kumpulan data dan komputasi kecerdasan buatan (AI) ke dalam rantai. Hal ini membantu meningkatkan adopsi Web3.

Saat ini, teknologi verifikasi Web3 untuk penalaran yang dapat diverifikasi adalah sebagai berikut:

  • ZKML: Menggabungkan bukti pengetahuan nol dengan pembelajaran mesin untuk memastikan privasi dan kerahasiaan data dan model, memungkinkan komputasi yang dapat diverifikasi tanpa mengungkapkan sifat-sifat dasar tertentu. Modulus Labs telah merilis pembuktian ZK berbasis ZKML untuk membangun kecerdasan buatan, untuk memverifikasi secara efektif apakah penyedia kecerdasan buatan di rantai memanipulasi algoritma yang dieksekusi dengan benar, namun saat ini klien utamanya adalah DApps di rantai.
  • opML: Menggunakan prinsip agregasi optimis, dengan memverifikasi waktu terjadinya perselisihan, meningkatkan skalabilitas dan efisiensi perhitungan ML, dalam model ini, hanya bagian kecil dari hasil yang dihasilkan oleh 'validator' yang perlu diverifikasi, tetapi pengurangan biaya ekonomi diatur cukup tinggi untuk meningkatkan biaya penipuan oleh validator dan menghemat perhitungan yang berlebihan.
  • TeeML: Gunakan lingkungan eksekusi tepercaya untuk menjalankan perhitungan ML secara aman, melindungi data dan model dari penyusupan dan akses tidak sah.

Tiga, Lapisan Aplikasi: AI Agent

Pengembangan AI saat ini telah menunjukkan pergeseran fokus dari kemampuan model ke lanskap AI Agents. Perusahaan teknologi seperti OpenAI, AI unicorn Anthropic, Microsoft, dll., beralih ke pengembangan AI Agents, berusaha untuk menembus dataran teknis LLM saat ini.

OpenAI mendefinisikan AI Agent sebagai sistem yang didorong oleh LLM sebagai otaknya, memiliki kemampuan untuk secara otonom memahami persepsi, merencanakan, mengingat, dan menggunakan alat, serta dapat menyelesaikan tugas-tugas kompleks secara otomatis. Ketika AI bertransisi dari menjadi alat yang digunakan menjadi subjek yang dapat menggunakan alat, ia menjadi AI Agent. Inilah juga alasan mengapa AI Agent dapat menjadi asisten cerdas yang paling ideal bagi manusia.

Apa yang bisa Web3 bawa ke Agen?

1. Desentralisasi
Desentralisasi Web3 dapat membuat sistem Agen lebih terdesentralisasi dan otonom. Mekanisme insentif dan hukuman bagi stakers dan delegasi dapat mempromosikan demokratisasi sistem Agen, dengan GaiaNet, Theoriq, dan HajimeAI semua berusaha melakukannya.

2, Cold Start
Pengembangan dan iterasi AI Agent seringkali memerlukan dukungan keuangan yang besar, dan Web3 dapat membantu proyek AI Agent yang menjanjikan untuk mendapatkan pendanaan tahap awal dan cold start.

  • Protokol Virtual meluncurkan platform penciptaan AI Agent dan penerbitan token fun.virtuals, di mana pengguna dapat mendeploy AI Agent dengan sekali klik dan mencapai distribusi token AI Agent yang adil 100%.
  • Spectral telah mengusulkan konsep produk yang mendukung penerbitan aset AI Agent di rantai: menerbitkan token melalui IAO (Penawaran Agen Awal), AI Agent dapat langsung memperoleh dana dari investor, sambil menjadi anggota pemerintahan DAO, memberikan investor kesempatan untuk berpartisipasi dalam pengembangan proyek dan berbagi keuntungan masa depan.

Bagaimana AI memberdayakan Web3?

Dampak AI pada proyek Web3 sangat jelas, karena menguntungkan teknologi blockchain dengan mengoptimalkan operasi on-chain (seperti eksekusi kontrak cerdas, optimisasi likuiditas, dan keputusan tata kelola yang didorong AI). Pada saat yang sama, ini juga dapat memberikan wawasan berbasis data yang lebih baik, meningkatkan keamanan on-chain, dan meletakkan dasar untuk aplikasi berbasis Web3 baru.

Satu, kecerdasan buatan dan keuangan on-chain

AI dan Cryptoeconomics

Pada 31 Agustus, CEO Coinbase Brian Armstrong mengumumkan transaksi pertama terenkripsi AI-to-AI di jaringan Base, menyatakan bahwa AI Agents sekarang dapat bertransaksi dengan manusia, pedagang, atau AI lain di Base menggunakan USD, dengan transaksi instan, global, dan gratis.

Selain pembayaran, Luna dari Virtuals Protocol juga pertama kalinya menunjukkan bagaimana AI Agents secara otonom menjalankan transaksi on-chain, menarik perhatian dan memposisikan AI Agents sebagai entitas cerdas yang mampu menangkap lingkungan, membuat keputusan, dan mengambil tindakan, sehingga dilihat sebagai masa depan keuangan on-chain. Saat ini, skenario potensial untuk AI Agents adalah sebagai berikut:

1. Pengumpulan informasi dan prediksi: Membantu investor mengumpulkan pengumuman bursa, informasi publik proyek, emosi panik, risiko opini publik, dll., menganalisis dan mengevaluasi fundamental aset, kondisi pasar secara real time, dan memprediksi tren dan risiko.

2. Manajemen Aset: Memberikan pengguna dengan target investasi yang sesuai, mengoptimalkan alokasi aset, dan secara otomatis mengeksekusi perdagangan.

3. Pengalaman keuangan: Membantu investor memilih metode perdagangan on-chain tercepat, mengotomatisasi operasi manual seperti transaksi lintas rantai dan penyesuaian biaya gas, mengurangi ambang batas dan biaya kegiatan keuangan on-chain.

Bayangkan skenario ini: Anda memberi instruksi kepada AI Agent sebagai berikut, "Saya memiliki 1000USDT, tolong bantu saya menemukan kombinasi hasil tertinggi dengan periode kunci tidak lebih dari seminggu." AI Agent akan memberikan saran berikut: "Saya menyarankan alokasi awal sebesar 50% di A, 20% di B, 20% di X, dan 10% di Y. Saya akan memantau tingkat bunga dan mengamati perubahan tingkat risiko mereka, dan melakukan rebalancing bila diperlukan." Selain itu, mencari proyek airdrop potensial dan tanda komunitas populer dari proyek Memecoin adalah tindakan masa depan yang mungkin dilakukan oleh AI Agent.


Sumber gambar: Biconomy

Saat ini, dompet AI Agent Bitte dan protokol interaksi AI Wayfinder sedang melakukan upaya seperti itu. Mereka semua mencoba untuk mengakses API model OpenAI, memungkinkan pengguna untuk memerintahkan agen untuk menyelesaikan berbagai operasi on-chain dalam antarmuka jendela obrolan yang mirip dengan ChatGPT. Misalnya, prototipe pertama yang dirilis oleh WayFinder pada bulan April tahun ini menunjukkan empat operasi dasar: swap, kirim, jembatan, dan staking pada mainnet Base, Polygon, dan Ethereum.

Saat ini, platform Agen terdesentralisasi Morpheus juga mendukung pengembangan Agen tersebut, seperti yang ditunjukkan oleh Biconomy, menunjukkan sebuah proses di mana izin dompet tidak diperlukan untuk memberi wewenang kepada Agen AI untuk menukar ETH dengan USDC.

Keamanan AI dan transaksi on-chain

Di dunia Web3, keamanan transaksi on-chain sangat penting. Teknologi AI dapat digunakan untuk meningkatkan keamanan dan perlindungan privasi transaksi on-chain, dengan skenario potensial termasuk:

Pemantauan perdagangan: Teknologi data real-time memantau aktivitas perdagangan abnormal, menyediakan infrastruktur peringatan real-time bagi pengguna dan platform.

Analisis risiko: Membantu platform menganalisis data perilaku trading pelanggan dan mengevaluasi tingkat risiko mereka.

Sebagai contoh, platform keamanan Web3 SeQure menggunakan kecerdasan buatan untuk mendeteksi dan mencegah serangan jahat, perilaku penipuan, dan kebocoran data, serta menyediakan mekanisme pemantauan dan peringatan real-time untuk memastikan keamanan dan stabilitas transaksi on-chain. Alat keamanan serupa termasuk Sentinel yang didukung kecerdasan buatan.

Kedua, AI dan infrastruktur on-chain

AI dan data on-chain

Teknologi AI memainkan peran penting dalam pengumpulan dan analisis data on-chain, seperti:

  • Web3 Analytics: platform analitik berbasis AI yang menggunakan algoritma pembelajaran mesin dan penambangan data untuk mengumpulkan, memproses, dan menganalisis data on-chain.
  • MinMax AI: Ini menyediakan alat analisis data berbasis AI on-chain untuk membantu pengguna menemukan peluang pasar dan tren potensial.
  • Kaito: Platform pencarian Web3 berbasis mesin pencari LLM.
  • Berikut: Terintegrasi dengan ChatGPT, mengumpulkan dan mengintegrasikan informasi relevan yang tersebar di berbagai situs web dan platform komunitas untuk disajikan.
  • Skenario aplikasi lainnya adalah orakel, AI dapat memperoleh harga dari berbagai sumber untuk menyediakan data harga yang akurat. Misalnya, Upshot menggunakan AI untuk menilai harga yang volatile dari NFT, memberikan kesalahan persentase sebesar 3-10% melalui lebih dari seratus juta evaluasi per jam.

AI dan Pengembangan&Audit

Baru-baru ini, sebuah editor kode AI Web2, Cursor, telah menarik banyak perhatian di komunitas pengembang. Di platformnya, pengguna hanya perlu menggambarkan dalam bahasa alami, dan Cursor dapat secara otomatis menghasilkan kode HTML, CSS, dan JavaScript yang sesuai, sangat menyederhanakan proses pengembangan perangkat lunak. Logika ini juga berlaku untuk meningkatkan efisiensi pengembangan Web3.

Saat ini, mendeploy kontrak pintar dan DApps di rantai publik biasanya memerlukan penggunaan bahasa pengembangan eksklusif seperti Solidity, Rust, Move, dan lainnya. Visi dari bahasa pengembangan baru adalah untuk memperluas ruang desain dari blockchain terdesentralisasi, sehingga lebih cocok untuk pengembangan DApp. Namun, mengingat kekurangan besar pengembang Web3, pendidikan pengembang selalu menjadi masalah yang lebih menantang.

Saat ini, AI dalam membantu pengembangan Web3 dapat membayangkan skenario termasuk: generasi kode otomatis, verifikasi dan pengujian kontrak pintar, penyebaran dan pemeliharaan DApps, penyelesaian kode cerdas, jawaban dialog AI terhadap isu-isu pengembangan sulit, dll. Dengan bantuan AI, ini tidak hanya membantu meningkatkan efisiensi dan akurasi pengembangan, tetapi juga mengurangi ambang pemrograman, memungkinkan non-pemrogram untuk mentransformasikan ide-ide mereka menjadi aplikasi praktis, membawa vitalitas baru bagi pengembangan teknologi terdesentralisasi.

Saat ini, yang paling mencolok adalah platform peluncuran token dengan sekali klik, seperti Clanker, sebuah 'Token Bot' yang didorong AI yang dirancang untuk penyebaran token DIY yang cepat. Anda hanya perlu menandai Clanker pada klien protokol SocialFi Farcaster seperti Warpcast atau Supercast, memberi tahu ide token Anda, dan itu akan meluncurkan token untuk Anda di rantai publik Base.

Ada juga platform pengembangan kontrak, seperti Spectral, yang menyediakan fungsi generasi dan implementasi satu klik untuk kontrak pintar untuk menurunkan ambang pengembangan Web3, memungkinkan pengguna pemula bahkan untuk mengompilasi dan mendeploy kontrak pintar.

Dalam hal audit, platform audit Web3 Fuzzland menggunakan kecerdasan buatan untuk membantu pemeriksa mengecek kerentanan kode, memberikan penjelasan dalam bahasa alami untuk membantu profesional audit. Fuzzland juga menggunakan kecerdasan buatan untuk memberikan penjelasan dalam bahasa alami untuk spesifikasi formal dan kode kontrak, serta beberapa contoh kode untuk membantu pengembang memahami masalah potensial dalam kode.

Tiga, AI dan Narasi Web3 Baru

Kenaikan generative AI membawa kemungkinan baru bagi narasi baru dari Web3.

NFT: AI menyuntikkan kreativitas ke dalam NFT generatif. Melalui teknologi AI, berbagai karya seni dan karakter yang unik dan beragam dapat dihasilkan. NFT generatif ini dapat menjadi karakter, properti, atau elemen adegan dalam permainan, dunia virtual, atau metaverse, seperti Bicasso di bawah Binance, di mana pengguna dapat menghasilkan NFT dengan mengunggah gambar dan memasukkan kata kunci untuk komputasi AI. Proyek serupa termasuk Solvo, Nicho, IgmnAI, dan CharacterGPT.

GameFi: Dengan generasi bahasa alami, generasi gambar, dan kemampuan NPC cerdas seputar AI, diharapkan GameFi dapat meningkatkan efisiensi dan inovasi dalam produksi konten game. Sebagai contoh, permainan rantai pertama AI Hero dari Binaryx memungkinkan pemain untuk menjelajahi berbagai pilihan plot melalui keacakan AI; begitu pula dengan permainan teman virtual Sleepless AI, di mana pemain dapat membuka gameplay yang dipersonalisasi melalui interaksi yang berbeda berdasarkan AIGC dan LLM.

DAO: Saat ini, AI juga diharapkan dapat diterapkan pada DAO, membantu melacak interaksi komunitas, mencatat kontribusi, memberi hadiah kepada anggota yang paling berkontribusi, pemungutan suara perwakilan, dan sebagainya. Sebagai contoh, ai16z menggunakan AI Agent untuk mengumpulkan informasi pasar on-chain dan off-chain, menganalisis konsensus komunitas, dan membuat keputusan investasi dengan kombinasi saran dari anggota DAO.

Signifikansi integrasi AI+Web3: Tower dan Square

Di jantung Florence, Italia, terletaklah alun-alun pusat, tempat pertemuan politik yang paling penting bagi penduduk setempat dan wisatawan. Berdiri di sini adalah menara balai kota setinggi 95 meter, menciptakan efek estetika dramatis dengan alun-alun, menginspirasi profesor sejarah Universitas Harvard, Neil Ferguson, untuk menjelajahi sejarah dunia jaringan dan hierarki dalam bukunya 'Square and Tower,' menunjukkan pasang surut kedua selama waktu.

Metafora yang sangat bagus ini tidak keluar dari tempatnya ketika diterapkan pada hubungan antara AI dan Web3 saat ini. Jika melihat jangka panjang, hubungan sejarah non-linear antara keduanya, bisa dilihat bahwa persegi lebih mungkin menghasilkan hal-hal baru dan kreatif daripada menara, tetapi menara masih memiliki legitimasi dan vitalitas yang kuat.

Dengan kemampuan untuk mengelompokkan data daya komputasi energi di perusahaan teknologi, AI telah melepaskan imajinasi yang belum pernah terjadi sebelumnya, memimpin raksasa teknologi utama untuk bertaruh besar, memperkenalkan berbagai iterasi dari berbagai chatbot hingga 'model besar yang mendasar' seperti GPT-4, GP4-4o. Sebuah robot pemrograman otomatis (Devin) dan Sora, dengan kemampuan awal untuk mensimulasikan dunia fisik nyata, muncul satu demi satu, memperbesar imajinasi AI secara tak terbatas.

Pada saat yang sama, AI pada dasarnya adalah industri yang berskala besar dan terpusat, dan revolusi teknologi ini akan mendorong perusahaan teknologi yang secara bertahap telah mendapatkan dominasi struktural di 'era Internet' menuju puncak tinggi yang lebih sempit. Kekuatan besar, aliran kas monopoli, dan kumpulan data besar yang diperlukan untuk mendominasi era kecerdasan membentuk hambatan yang lebih tinggi bagi AI.

Saat menara semakin tinggi dan para pengambil keputusan di balik layar menyusut, sentralisasi AI membawa banyak bahaya tersembunyi. Bagaimana massa yang berkumpul di alun-alun dapat menghindari bayangan di bawah menara? Ini adalah masalah yang diharapkan diatasi oleh Web3.

Pada dasarnya, sifat-sifat inherent dari blockchain meningkatkan sistem kecerdasan buatan dan membawa kemungkinan-kemungkinan baru, terutama:

  • Di era kecerdasan buatan, ‘kode adalah hukum’—mencapai aturan eksekusi otomatis sistem transparan melalui kontrak pintar dan verifikasi enkripsi, memberikan hadiah kepada audiens yang lebih dekat dengan target.
  • Ekonomi token - menciptakan dan mengkoordinasikan perilaku peserta melalui mekanisme token, staking, pengurangan, imbalan token, dan hukuman.
  • Pemerintahan terdesentralisasi - mendorong kita untuk mempertanyakan sumber informasi dan mendorong pendekatan yang lebih kritis dan berwawasan terhadap teknologi kecerdasan buatan, mencegah bias, informasi yang keliru, dan manipulasi, akhirnya menumbuhkan masyarakat yang lebih berpengetahuan dan berdaya.

Pengembangan Kecerdasan Buatan juga telah membawa vitalitas baru ke Web3, mungkin dampak Web3 terhadap Kecerdasan Buatan memerlukan waktu untuk dibuktikan, tetapi dampak Kecerdasan Buatan terhadap Web3 adalah langsung: apakah itu kegilaan Meme atau Agen AI yang membantu menurunkan hambatan masuk untuk aplikasi on-chain, semuanya jelas.

Ketika Web3 didefinisikan sebagai keegoisan oleh sekelompok kecil orang, serta terjebak dalam keraguan tentang mereplikasi industri tradisional, penambahan AI membawa masa depan yang bisa diperkirakan: basis pengguna Web2 yang lebih stabil & dapat diskalakan, model bisnis yang lebih inovatif, dan layanan.

Kita hidup di dunia di mana ‘menara dan lapangan’ hidup berdampingan, meskipun AI dan Web3 memiliki timeline dan titik awal yang berbeda, tujuan akhir mereka adalah bagaimana membuat mesin lebih baik melayani kemanusiaan, dan tidak ada yang bisa mendefinisikan sungai yang deras. Kami menantikan masa depan AI+Web3.

Pernyataan:

  1. Artikel ini diambil dari [TechFlow], hak cipta dimiliki oleh penulis asli [Coinspire],如对转载有异议,请联系Tim Pembelajaran Gate, tim akan memprosesnya sesegera mungkin sesuai dengan prosedur yang relevan.
  2. Penafian: Pandangan dan opini yang terdapat dalam artikel ini semata-mata milik penulis dan tidak merupakan nasihat investasi apa pun.
  3. Artikel diterjemahkan ke dalam bahasa lain oleh tim Gate Learn, jika tidak disebutkanGate.ioDi bawah keadaan apa pun artikel yang diterjemahkan boleh disalin, diedarkan, atau diplagiatkan.

AI + Web3: Menara dan Lapangan

Menengah5/13/2025, 12:33:43 PM
Artikel ini menggali peluang Web3 dalam tumpukan teknologi kecerdasan buatan (AI), termasuk berbagi daya komputasi, perlindungan privasi data, pelatihan model dan inferensi, serta menjelajahi bagaimana AI memberdayakan keuangan, infrastruktur, dan narasi baru Web3, dari jaringan daya komputasi terdesentralisasi hingga awal dingin Agen AI, dari keamanan transaksi on-chain hingga NFT generatif, integrasi AI dan Web3 membuka era baru yang penuh inovasi dan peluang.

TL;DR:

  • Konsep AI proyek Web3 telah menjadi target investasi menarik di pasar primer dan sekunder.
  • Peluang-peluang untuk Web3 di industri Kecerdasan Buatan terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang - meliputi data, penyimpanan, dan komputasi; sementara itu, membentuk model open-source dan pasar terdesentralisasi untuk Agensi Kecerdasan Buatan.
  • AI memainkan peran kunci dalam industri Web3, terutama dalam keuangan on-chain (pembayaran cryptocurrency, perdagangan, analisis data) dan bantuan pengembangan.
  • Manfaat AI+Web3 terletak pada saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 untuk lepas dari pembatasan.

Pengantar

Dalam dua tahun terakhir, perkembangan AI telah dipercepat, seperti efek kupu-kupu yang dipicu oleh Chatgpt, tidak hanya membuka dunia baru kecerdasan buatan generatif tetapi juga menciptakan tren di Web3 yang jauh.

Dengan restu konsep AI, pembiayaan pasar cryptocurrency telah meningkat secara signifikan dibandingkan dengan perlambatan. Menurut statistik media, hanya dalam setengah pertama tahun 2024, total 64 proyek Web3+AI menyelesaikan pembiayaan, dan sistem operasi berbasis AI Zyber365 mencapai jumlah pembiayaan tertinggi sebesar 100 juta dolar AS dalam putaran Seri A.

Pasar sekunder lebih makmur, dan data dari situs web agregasi terenkripsi Coingecko menunjukkan bahwa dalam waktu sedikit lebih dari setahun, total nilai pasar dari trek AI telah mencapai $485 miliar, dengan volume perdagangan 24 jam hampir $86 miliar; manfaat yang jelas dibawa oleh kemajuan teknologi AI mainstream, setelah model teks-ke-video Sora milik OpenAI dirilis, harga rata-rata sektor AI naik 151%; efek AI juga meradiasi ke salah satu sektor kriptokurensi yang menyerap emas Meme: konsep MemeCoin pertama AI Agent - GOAT dengan cepat menjadi populer dan mencapai valuasi $1,4 miliar, berhasil memicu gejolak AI Meme.

Penelitian dan topik tentang AI+Web3 sama-sama diminati. Dari AI+Depin hingga AI Memecoin dan sampai pada AI Agent dan AI DAO saat ini, emosi FOMO sudah tertinggal di belakang kecepatan rotasi narasi baru.

AI+Web3, gabungan istilah ini penuh dengan uang panas, tren, dan fantasi masa depan, tak terelakkan terlihat sebagai pernikahan yang diatur oleh modal. Sepertinya sulit bagi kita untuk membedakan apakah itu tanah rumah para spekulan atau malam fajar di bawah jubah yang mempesona ini.

Untuk menjawab pertanyaan ini, pertimbangan kunci bagi kedua belah pihak adalah apakah yang lain akan menjadi lebih baik? Dapatkah mereka mendapatkan manfaat dari pola-pola satu sama lain? Dalam artikel ini, kami juga mencoba menguji situasi ini dari sudut pandang berdiri di atas bahu para pendahulu: Bagaimana Web3 dapat berperan dalam berbagai aspek tumpukan teknologi AI, dan apa vitalitas baru yang bisa AI bawa ke Web3?

Apa kesempatan yang dimiliki Web3 di bawah tumpukan AI?

Sebelum kita menyelami topik ini, kita perlu memahami tumpukan teknis dari model-model besar AI:


Sumber Gambar: Delphi Digital

Dalam istilah yang lebih sederhana, “model besar” ini mirip dengan otak manusia. Pada tahap awal, otak ini seperti bayi yang baru lahir, yang perlu mengamati dan menyerap banyak informasi eksternal untuk memahami dunia. Ini adalah tahap “pengumpulan” data; karena komputer tidak memiliki beberapa indera seperti manusia, sebelum pelatihan, informasi eksternal yang tidak berlabel dalam skala besar perlu “diproses sebelumnya” agar dapat diubah menjadi format yang dapat dipahami dan digunakan oleh komputer.

Setelah memasukkan data, AI membangun model yang memiliki kemampuan untuk memahami dan meramalkan melalui ‘pelatihan’, yang dapat dilihat sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia eksternal. Parameter-parameter model tersebut seperti kemampuan berbahasa yang terus menerus disesuaikan oleh bayi selama proses pembelajaran. Ketika konten pembelajaran mulai berspesialisasi, atau ketika menerima umpan balik dari berinteraksi dengan orang lain dan membuat koreksi, masuk ke tahap ‘penyetelan’ dari model-model besar.

Saat anak-anak tumbuh besar dan belajar berbicara, mereka dapat memahami makna dan mengekspresikan perasaan dan pemikiran mereka dalam percakapan baru, yang mirip dengan 'inferensi' dari model AI besar. Model dapat memprediksi dan menganalisis input bahasa dan teks baru. Bayi mengekspresikan perasaan mereka, mendeskripsikan objek, dan menyelesaikan berbagai masalah melalui kemampuan bahasa, yang juga mirip dengan aplikasi model AI besar dalam berbagai tugas tertentu selama tahap inferensi setelah menyelesaikan pelatihan, seperti klasifikasi gambar, pengenalan suara, dll.

Sementara Agen AI lebih dekat dengan bentuk berikutnya dari model besar - mampu mengeksekusi tugas secara independen dan mengejar tujuan kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga mampu mengingat, merencanakan, dan berinteraksi dengan dunia menggunakan alat.

Saat ini, mengatasi titik-titik rasa sakit AI dalam berbagai tumpukan, Web3 awalnya telah membentuk ekosistem berlapis, saling terhubung, yang mencakup berbagai tahap proses model AI.

Pertama, Lapisan Dasar: Airbnb dari kekuatan komputasi dan data

Daya komputasi

Saat ini, salah satu biaya tertinggi dari AI adalah kekuatan komputasi dan energi yang diperlukan untuk melatih model dan model inferensi.

Salah satu contohnya adalah bahwa LLAMA3 Meta memerlukan 16.000 H100GPU yang diproduksi oleh NVIDIA (unit pemrosesan grafis teratas yang dirancang khusus untuk kecerdasan buatan dan beban kerja komputasi berkinerja tinggi) untuk menyelesaikan pelatihan dalam 30 hari. Versi 80GB terakhir tersebut dijual dengan harga antara $30.000 dan $40.000, memerlukan investasi perangkat keras sebesar $4-7 miliar (GPU + chip jaringan). Selain itu, pelatihan bulanan mengonsumsi 16 miliar kilowatt-jam, dengan pengeluaran energi hampir $20 juta per bulan.

Untuk dekompresi kekuatan komputasi AI, ini juga adalah bidang terawal di mana Web3 berpotongan dengan AI - DePin (jaringan infrastruktur fisik terdesentralisasi). Saat ini, situs web data DePin Ninja telah menampilkan lebih dari 1400 proyek, termasuk proyek perwakilan berbagi kekuatan komputasi GPU seperti io.net, Aethir, Akash, Render Network, dan lainnya.

Logika utamanya adalah: Platform ini memungkinkan individu atau entitas dengan sumber daya GPU yang menganggur untuk menyumbangkan daya komputasinya secara terdesentralisasi tanpa izin, meningkatkan pemanfaatan sumber daya GPU yang kurang dimanfaatkan melalui pasar online yang mirip dengan Uber atau Airbnb bagi pembeli dan penjual, memungkinkan pengguna akhir untuk memperoleh sumber daya komputasi yang lebih hemat biaya dan efisien; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran terhadap mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan menghadapi denda yang sesuai.

Fitur-fiturnya adalah:

  • Mengumpulkan sumber daya GPU yang menganggur: Pemasok utamanya adalah pusat data independen pihak ketiga kecil dan menengah, sumber daya kekuatan komputasi berlebih dari operator seperti pertambangan terenkripsi, dan perangkat keras pertambangan dengan mekanisme konsensus PoS, seperti FileCoin dan penambang ETH. Saat ini, juga ada proyek yang didedikasikan untuk meluncurkan perangkat dengan hambatan masuk yang lebih rendah, seperti exolab yang memanfaatkan perangkat lokal seperti MacBook, iPhone, iPad untuk membentuk jaringan kekuatan komputasi untuk menjalankan inferensi model berskala besar.
  • Menghadapi pasar ekor panjang dari kekuatan komputasi AI: a. “Dari segi teknologi,” pasar kekuatan komputasi terdesentralisasi lebih cocok untuk langkah-langkah penalaran. Pelatihan bergantung pada kemampuan pemrosesan data yang dibawa oleh GPU skala klaster super besar, sementara penalaran relatif rendah dalam kinerja komputasi GPU, seperti Aethir yang fokus pada pekerjaan rendering latensi rendah dan aplikasi inferensi AI. b. “Dari segi permintaan,” pihak yang membutuhkan kekuatan komputasi kecil dan menengah tidak akan melatih model besar mereka sendiri, tetapi hanya memilih untuk mengoptimalkan dan menyempurnakan beberapa model utama, dan skenario-skenario ini secara alami cocok untuk sumber daya kekuatan komputasi menganggur yang terdistribusi.
  • Kepemilikan terdesentralisasi: Signifikansi teknologi dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya mereka, menyesuaikan secara fleksibel sesuai permintaan, dan memperoleh keuntungan pada saat yang sama.

Data

Data adalah dasar dari AI. Tanpa data, komputasi tidak berguna, dan hubungan antara data dan model seperti peribahasa 'Sampah masuk, Sampah keluar'. Kuantitas dan kualitas data menentukan kualitas output dari model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa, kemampuan pemahaman, dan bahkan nilai dan kinerja yang dihumanisasi dari model. Saat ini, dilemma permintaan data AI terutama berfokus pada empat aspek berikut:

  • Kelaparan data: pelatihan model AI sangat bergantung pada jumlah data yang besar. Informasi publik menunjukkan bahwa jumlah parameter untuk pelatihan GPT-4 oleh OpenAI telah mencapai tingkat triliun.
  • Kualitas data: Dengan kombinasi AI dan berbagai industri, kebutuhan baru telah diajukan untuk ketepatan waktu, keragaman, profesionalisme data khusus industri, dan penerimaan sumber data baru seperti sentimen media sosial.
  • Masalah Privasi dan Kepatuhan: Saat ini, berbagai negara dan perusahaan secara bertahap menyadari pentingnya kumpulan data berkualitas tinggi dan memberlakukan pembatasan terhadap pengambilan data.
  • Biaya pemrosesan data yang tinggi: banyak data, pemrosesan yang kompleks. Informasi publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.

Saat ini, solusi web3 tercermin dalam empat aspek berikut:

1. Pengumpulan Data: Data dunia nyata yang tersedia secara bebas untuk diambil semakin menipis, dan biaya perusahaan AI untuk data telah meningkat dari tahun ke tahun. Namun, pada saat yang sama, pengeluaran ini belum diteruskan kepada kontributor nyata data; platform sepenuhnya menikmati penciptaan nilai yang dibawa oleh data, seperti Reddit menghasilkan total $203 juta dalam pendapatan melalui perjanjian lisensi data dengan perusahaan AI.

Visi Web3 adalah memungkinkan pengguna yang benar-benar berkontribusi juga berpartisipasi dalam penciptaan nilai yang dibawa oleh data, dan untuk memperoleh data pribadi dan berharga pengguna lebih secara efisien melalui jaringan terdistribusi dan mekanisme insentif.

  • Sebagai lapisan data terdesentralisasi dan jaringan, pengguna dapat menangkap data real-time dari seluruh Internet dengan menjalankan node Grass, berkontribusi pada bandwidth yang tidak terpakai dan meneruskan lalu lintas, serta menerima imbalan token;
  • Vana memperkenalkan konsep unik dari Data Liquidity Pool (DLP), di mana pengguna dapat mengunggah data pribadi mereka (seperti catatan belanja, kebiasaan menjelajah, aktivitas media sosial, dll.) ke DLP tertentu dan memilih secara selektif apakah untuk memberi izin data ini untuk penggunaan pihak ketiga tertentu;
  • Di PublicAI, pengguna dapat menggunakan tag klasifikasi #AI atau #Web3 pada X@PublicAIPengumpulan data dapat dicapai.

2. Pra-pemrosesan data: Dalam pemrosesan data AI, karena data yang dikumpulkan biasanya bising dan mengandung kesalahan, data tersebut harus dibersihkan dan dikonversi ke dalam format yang dapat digunakan sebelum melatih model, melibatkan tugas-tugas berulang standarisasi, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit proses manual dalam industri AI, yang telah melahirkan industri pengannotasi data. Seiring dengan peningkatan persyaratan model terhadap kualitas data, ambang batas bagi pengannotasi data juga meningkat. Tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi dari Web3.

  • Saat ini, Grass dan OpenLayer keduanya sedang mempertimbangkan untuk menambahkan anotasi data sebagai langkah kunci.
  • Synesis mengusulkan konsep 'Train2earn', menekankan kualitas data, di mana pengguna dapat diberi imbalan dengan menyediakan data yang dianotasi, komentar, atau bentuk input lainnya.
  • Proyek pelabelan data Sapien membuat tugas pelabelan menjadi permainan dan memungkinkan pengguna untuk bertaruh poin untuk mendapatkan lebih banyak poin.

3. Privasi Data dan Keamanan: Perlu dijelaskan bahwa privasi data dan keamanan merupakan dua konsep yang berbeda. Privasi data melibatkan penanganan data sensitif, sementara keamanan data melindungi informasi data dari akses, penghancuran, dan pencurian yang tidak sah. Sebagai hasilnya, keuntungan dan skenario aplikasi potensial dari teknologi privasi Web3 tercermin dalam dua aspek: (1) pelatihan data sensitif; (2) kolaborasi data: beberapa pemilik data dapat berpartisipasi dalam pelatihan kecerdasan buatan bersama tanpa harus membagikan data asli mereka.

Teknologi privasi umum di Web3 saat ini termasuk:

  • Lingkungan Eksekusi Terpercaya (TEE), seperti Protokol Super;
  • Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io, atau Jaringan Inco;
  • Teknologi bukti nol pengetahuan (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti pengetahuan nol dari lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor aktivitas, reputasi, dan data identitas dari situs web eksternal secara aman tanpa mengungkapkan informasi sensitif.

Namun, bidang ini masih dalam tahap awal, dengan sebagian besar proyek masih dalam tahap eksplorasi. Saat ini, salah satu dilema adalah biaya komputasi yang terlalu tinggi, dengan beberapa contoh seperti:

  • Kerangka zkML EZKL memerlukan sekitar 80 menit untuk menghasilkan bukti dari model 1M-nanoGPT.
  • Menurut data Modulus Labs, overhead zkML lebih dari 1000 kali lebih tinggi dari perhitungan murni.

4. Penyimpanan Data: Setelah mendapatkan data, diperlukan tempat untuk menyimpan data pada rantai dan menggunakan LLM yang dihasilkan oleh data tersebut. Dengan ketersediaan data (DA) sebagai isu inti, sebelum upgrade Ethereum Danksharding, throughputnya adalah 0,08MB. Pada saat yang sama, pelatihan dan inferensi real-time dari model AI umumnya memerlukan throughput data sebesar 50 hingga 100GB per detik. Perbedaan kuantitas ini membuat solusi on-chain yang ada tidak memadai saat menghadapi 'aplikasi AI yang membutuhkan sumber daya intensif'.

  • 0g.AI adalah proyek representatif dalam kategori ini. Ini adalah solusi penyimpanan terpusat yang dirancang untuk kebutuhan AI berkinerja tinggi, dengan fitur utama termasuk kinerja tinggi dan skalabilitas, mendukung pengunggahan dan pengunduhan cepat kumpulan data dalam skala besar melalui teknologi sharding dan pengkodean erasure canggih, dengan kecepatan transfer data mencapai 5GB per detik.

Dua, Middleware: Pelatihan dan Inferensi dari Model

Pasar desentralisasi model sumber terbuka

Debat tentang apakah model AI harus open source atau closed source tidak pernah berhenti. Inovasi kolektif yang dibawa oleh open source adalah keuntungan yang tidak dapat diimbangi oleh model closed source. Namun, di bawah asumsi model tanpa keuntungan, bagaimana model open source dapat meningkatkan motivasi pengembang? Ini adalah arah yang patut dipertimbangkan. Pendiri Baidu, Robin Li, menegaskan pada bulan April tahun ini, “Model open source akan tertinggal lebih jauh.

Dalam hal ini, Web3 mengusulkan kemungkinan pasar model open-source terdesentralisasi, yaitu dengan membuat model itu sendiri menjadi token, menyimpan sebagian token untuk tim, dan mengarahkan sebagian dari pendapatan masa depan model ke pemegang token.

  • Protokol Bittensor membentuk model open-source dari pasar P2P, terdiri dari puluhan 'subnet', di mana penyedia sumber daya (komputasi, pengumpulan/penyimpanan data, bakat machine learning) bersaing satu sama lain untuk memenuhi tujuan pemilik subnet tertentu. Subnet dapat berinteraksi dan belajar satu sama lain, sehingga mencapai kecerdasan yang lebih besar. Hadiah didistribusikan melalui pemungutan suara komunitas dan dialokasikan lebih lanjut di antara subnet berdasarkan kinerja kompetitif.
  • ORA memperkenalkan konsep Penawaran Model Awal (IMO), menggambarkan model AI untuk pembelian, penjualan, dan pengembangan pada jaringan terdesentralisasi.
  • Sentient, platform AGI terdesentralisasi, memberikan insentif kepada orang untuk bekerja sama, membangun, mereplikasi, dan memperluas model AI, memberi penghargaan kepada kontributor.
  • Spectral Nova berfokus pada penciptaan dan penerapan model AI dan ML.

Verifikasi Inferensi

Untuk dilema 'kotak hitam' dalam proses penalaran AI, solusi standar Web3 adalah memiliki beberapa validator mengulangi operasi yang sama dan membandingkan hasilnya. Namun, karena kekurangan 'chip Nvidia' kelas atas saat ini, tantangan yang jelas dihadapi oleh pendekatan ini adalah biaya tinggi dari penalaran AI.

Sebuah solusi yang lebih menjanjikan adalah melakukan bukti ZK dari perhitungan inferensi AI di luar rantai, di mana satu pihak pembuktian dapat membuktikan kepada pemeriksa lain bahwa pernyataan tertentu benar tanpa mengungkapkan informasi tambahan selain pernyataan tersebut benar, memungkinkan verifikasi tanpa izin dari perhitungan model AI di rantai. Ini memerlukan bukti di rantai dengan cara terenkripsi bahwa perhitungan di luar rantai telah diselesaikan dengan benar (misalnya, kumpulan data tidak dimanipulasi), sambil memastikan semua data tetap bersifat rahasia.

Keuntungan utama termasuk:

  • Skalabilitas: Bukti pengetahuan nol dapat dengan cepat mengonfirmasi sejumlah besar komputasi di luar rantai. Bahkan ketika jumlah transaksi meningkat, satu bukti pengetahuan nol dapat memverifikasi semua transaksi.
  • Perlindungan privasi: Informasi detail tentang data dan model AI tetap dirahasiakan, sementara semua pihak dapat memverifikasi bahwa data dan model tidak telah dimanipulasi.
  • Tidak perlu mempercayai: Anda dapat mengonfirmasi perhitungan tanpa bergantung pada pihak-pihak terpusat.
  • Integrasi Web2: Menurut definisi, Web2 terintegrasi di luar rantai, yang berarti penalaran yang dapat diverifikasi dapat membantu membawa kumpulan data dan komputasi kecerdasan buatan (AI) ke dalam rantai. Hal ini membantu meningkatkan adopsi Web3.

Saat ini, teknologi verifikasi Web3 untuk penalaran yang dapat diverifikasi adalah sebagai berikut:

  • ZKML: Menggabungkan bukti pengetahuan nol dengan pembelajaran mesin untuk memastikan privasi dan kerahasiaan data dan model, memungkinkan komputasi yang dapat diverifikasi tanpa mengungkapkan sifat-sifat dasar tertentu. Modulus Labs telah merilis pembuktian ZK berbasis ZKML untuk membangun kecerdasan buatan, untuk memverifikasi secara efektif apakah penyedia kecerdasan buatan di rantai memanipulasi algoritma yang dieksekusi dengan benar, namun saat ini klien utamanya adalah DApps di rantai.
  • opML: Menggunakan prinsip agregasi optimis, dengan memverifikasi waktu terjadinya perselisihan, meningkatkan skalabilitas dan efisiensi perhitungan ML, dalam model ini, hanya bagian kecil dari hasil yang dihasilkan oleh 'validator' yang perlu diverifikasi, tetapi pengurangan biaya ekonomi diatur cukup tinggi untuk meningkatkan biaya penipuan oleh validator dan menghemat perhitungan yang berlebihan.
  • TeeML: Gunakan lingkungan eksekusi tepercaya untuk menjalankan perhitungan ML secara aman, melindungi data dan model dari penyusupan dan akses tidak sah.

Tiga, Lapisan Aplikasi: AI Agent

Pengembangan AI saat ini telah menunjukkan pergeseran fokus dari kemampuan model ke lanskap AI Agents. Perusahaan teknologi seperti OpenAI, AI unicorn Anthropic, Microsoft, dll., beralih ke pengembangan AI Agents, berusaha untuk menembus dataran teknis LLM saat ini.

OpenAI mendefinisikan AI Agent sebagai sistem yang didorong oleh LLM sebagai otaknya, memiliki kemampuan untuk secara otonom memahami persepsi, merencanakan, mengingat, dan menggunakan alat, serta dapat menyelesaikan tugas-tugas kompleks secara otomatis. Ketika AI bertransisi dari menjadi alat yang digunakan menjadi subjek yang dapat menggunakan alat, ia menjadi AI Agent. Inilah juga alasan mengapa AI Agent dapat menjadi asisten cerdas yang paling ideal bagi manusia.

Apa yang bisa Web3 bawa ke Agen?

1. Desentralisasi
Desentralisasi Web3 dapat membuat sistem Agen lebih terdesentralisasi dan otonom. Mekanisme insentif dan hukuman bagi stakers dan delegasi dapat mempromosikan demokratisasi sistem Agen, dengan GaiaNet, Theoriq, dan HajimeAI semua berusaha melakukannya.

2, Cold Start
Pengembangan dan iterasi AI Agent seringkali memerlukan dukungan keuangan yang besar, dan Web3 dapat membantu proyek AI Agent yang menjanjikan untuk mendapatkan pendanaan tahap awal dan cold start.

  • Protokol Virtual meluncurkan platform penciptaan AI Agent dan penerbitan token fun.virtuals, di mana pengguna dapat mendeploy AI Agent dengan sekali klik dan mencapai distribusi token AI Agent yang adil 100%.
  • Spectral telah mengusulkan konsep produk yang mendukung penerbitan aset AI Agent di rantai: menerbitkan token melalui IAO (Penawaran Agen Awal), AI Agent dapat langsung memperoleh dana dari investor, sambil menjadi anggota pemerintahan DAO, memberikan investor kesempatan untuk berpartisipasi dalam pengembangan proyek dan berbagi keuntungan masa depan.

Bagaimana AI memberdayakan Web3?

Dampak AI pada proyek Web3 sangat jelas, karena menguntungkan teknologi blockchain dengan mengoptimalkan operasi on-chain (seperti eksekusi kontrak cerdas, optimisasi likuiditas, dan keputusan tata kelola yang didorong AI). Pada saat yang sama, ini juga dapat memberikan wawasan berbasis data yang lebih baik, meningkatkan keamanan on-chain, dan meletakkan dasar untuk aplikasi berbasis Web3 baru.

Satu, kecerdasan buatan dan keuangan on-chain

AI dan Cryptoeconomics

Pada 31 Agustus, CEO Coinbase Brian Armstrong mengumumkan transaksi pertama terenkripsi AI-to-AI di jaringan Base, menyatakan bahwa AI Agents sekarang dapat bertransaksi dengan manusia, pedagang, atau AI lain di Base menggunakan USD, dengan transaksi instan, global, dan gratis.

Selain pembayaran, Luna dari Virtuals Protocol juga pertama kalinya menunjukkan bagaimana AI Agents secara otonom menjalankan transaksi on-chain, menarik perhatian dan memposisikan AI Agents sebagai entitas cerdas yang mampu menangkap lingkungan, membuat keputusan, dan mengambil tindakan, sehingga dilihat sebagai masa depan keuangan on-chain. Saat ini, skenario potensial untuk AI Agents adalah sebagai berikut:

1. Pengumpulan informasi dan prediksi: Membantu investor mengumpulkan pengumuman bursa, informasi publik proyek, emosi panik, risiko opini publik, dll., menganalisis dan mengevaluasi fundamental aset, kondisi pasar secara real time, dan memprediksi tren dan risiko.

2. Manajemen Aset: Memberikan pengguna dengan target investasi yang sesuai, mengoptimalkan alokasi aset, dan secara otomatis mengeksekusi perdagangan.

3. Pengalaman keuangan: Membantu investor memilih metode perdagangan on-chain tercepat, mengotomatisasi operasi manual seperti transaksi lintas rantai dan penyesuaian biaya gas, mengurangi ambang batas dan biaya kegiatan keuangan on-chain.

Bayangkan skenario ini: Anda memberi instruksi kepada AI Agent sebagai berikut, "Saya memiliki 1000USDT, tolong bantu saya menemukan kombinasi hasil tertinggi dengan periode kunci tidak lebih dari seminggu." AI Agent akan memberikan saran berikut: "Saya menyarankan alokasi awal sebesar 50% di A, 20% di B, 20% di X, dan 10% di Y. Saya akan memantau tingkat bunga dan mengamati perubahan tingkat risiko mereka, dan melakukan rebalancing bila diperlukan." Selain itu, mencari proyek airdrop potensial dan tanda komunitas populer dari proyek Memecoin adalah tindakan masa depan yang mungkin dilakukan oleh AI Agent.


Sumber gambar: Biconomy

Saat ini, dompet AI Agent Bitte dan protokol interaksi AI Wayfinder sedang melakukan upaya seperti itu. Mereka semua mencoba untuk mengakses API model OpenAI, memungkinkan pengguna untuk memerintahkan agen untuk menyelesaikan berbagai operasi on-chain dalam antarmuka jendela obrolan yang mirip dengan ChatGPT. Misalnya, prototipe pertama yang dirilis oleh WayFinder pada bulan April tahun ini menunjukkan empat operasi dasar: swap, kirim, jembatan, dan staking pada mainnet Base, Polygon, dan Ethereum.

Saat ini, platform Agen terdesentralisasi Morpheus juga mendukung pengembangan Agen tersebut, seperti yang ditunjukkan oleh Biconomy, menunjukkan sebuah proses di mana izin dompet tidak diperlukan untuk memberi wewenang kepada Agen AI untuk menukar ETH dengan USDC.

Keamanan AI dan transaksi on-chain

Di dunia Web3, keamanan transaksi on-chain sangat penting. Teknologi AI dapat digunakan untuk meningkatkan keamanan dan perlindungan privasi transaksi on-chain, dengan skenario potensial termasuk:

Pemantauan perdagangan: Teknologi data real-time memantau aktivitas perdagangan abnormal, menyediakan infrastruktur peringatan real-time bagi pengguna dan platform.

Analisis risiko: Membantu platform menganalisis data perilaku trading pelanggan dan mengevaluasi tingkat risiko mereka.

Sebagai contoh, platform keamanan Web3 SeQure menggunakan kecerdasan buatan untuk mendeteksi dan mencegah serangan jahat, perilaku penipuan, dan kebocoran data, serta menyediakan mekanisme pemantauan dan peringatan real-time untuk memastikan keamanan dan stabilitas transaksi on-chain. Alat keamanan serupa termasuk Sentinel yang didukung kecerdasan buatan.

Kedua, AI dan infrastruktur on-chain

AI dan data on-chain

Teknologi AI memainkan peran penting dalam pengumpulan dan analisis data on-chain, seperti:

  • Web3 Analytics: platform analitik berbasis AI yang menggunakan algoritma pembelajaran mesin dan penambangan data untuk mengumpulkan, memproses, dan menganalisis data on-chain.
  • MinMax AI: Ini menyediakan alat analisis data berbasis AI on-chain untuk membantu pengguna menemukan peluang pasar dan tren potensial.
  • Kaito: Platform pencarian Web3 berbasis mesin pencari LLM.
  • Berikut: Terintegrasi dengan ChatGPT, mengumpulkan dan mengintegrasikan informasi relevan yang tersebar di berbagai situs web dan platform komunitas untuk disajikan.
  • Skenario aplikasi lainnya adalah orakel, AI dapat memperoleh harga dari berbagai sumber untuk menyediakan data harga yang akurat. Misalnya, Upshot menggunakan AI untuk menilai harga yang volatile dari NFT, memberikan kesalahan persentase sebesar 3-10% melalui lebih dari seratus juta evaluasi per jam.

AI dan Pengembangan&Audit

Baru-baru ini, sebuah editor kode AI Web2, Cursor, telah menarik banyak perhatian di komunitas pengembang. Di platformnya, pengguna hanya perlu menggambarkan dalam bahasa alami, dan Cursor dapat secara otomatis menghasilkan kode HTML, CSS, dan JavaScript yang sesuai, sangat menyederhanakan proses pengembangan perangkat lunak. Logika ini juga berlaku untuk meningkatkan efisiensi pengembangan Web3.

Saat ini, mendeploy kontrak pintar dan DApps di rantai publik biasanya memerlukan penggunaan bahasa pengembangan eksklusif seperti Solidity, Rust, Move, dan lainnya. Visi dari bahasa pengembangan baru adalah untuk memperluas ruang desain dari blockchain terdesentralisasi, sehingga lebih cocok untuk pengembangan DApp. Namun, mengingat kekurangan besar pengembang Web3, pendidikan pengembang selalu menjadi masalah yang lebih menantang.

Saat ini, AI dalam membantu pengembangan Web3 dapat membayangkan skenario termasuk: generasi kode otomatis, verifikasi dan pengujian kontrak pintar, penyebaran dan pemeliharaan DApps, penyelesaian kode cerdas, jawaban dialog AI terhadap isu-isu pengembangan sulit, dll. Dengan bantuan AI, ini tidak hanya membantu meningkatkan efisiensi dan akurasi pengembangan, tetapi juga mengurangi ambang pemrograman, memungkinkan non-pemrogram untuk mentransformasikan ide-ide mereka menjadi aplikasi praktis, membawa vitalitas baru bagi pengembangan teknologi terdesentralisasi.

Saat ini, yang paling mencolok adalah platform peluncuran token dengan sekali klik, seperti Clanker, sebuah 'Token Bot' yang didorong AI yang dirancang untuk penyebaran token DIY yang cepat. Anda hanya perlu menandai Clanker pada klien protokol SocialFi Farcaster seperti Warpcast atau Supercast, memberi tahu ide token Anda, dan itu akan meluncurkan token untuk Anda di rantai publik Base.

Ada juga platform pengembangan kontrak, seperti Spectral, yang menyediakan fungsi generasi dan implementasi satu klik untuk kontrak pintar untuk menurunkan ambang pengembangan Web3, memungkinkan pengguna pemula bahkan untuk mengompilasi dan mendeploy kontrak pintar.

Dalam hal audit, platform audit Web3 Fuzzland menggunakan kecerdasan buatan untuk membantu pemeriksa mengecek kerentanan kode, memberikan penjelasan dalam bahasa alami untuk membantu profesional audit. Fuzzland juga menggunakan kecerdasan buatan untuk memberikan penjelasan dalam bahasa alami untuk spesifikasi formal dan kode kontrak, serta beberapa contoh kode untuk membantu pengembang memahami masalah potensial dalam kode.

Tiga, AI dan Narasi Web3 Baru

Kenaikan generative AI membawa kemungkinan baru bagi narasi baru dari Web3.

NFT: AI menyuntikkan kreativitas ke dalam NFT generatif. Melalui teknologi AI, berbagai karya seni dan karakter yang unik dan beragam dapat dihasilkan. NFT generatif ini dapat menjadi karakter, properti, atau elemen adegan dalam permainan, dunia virtual, atau metaverse, seperti Bicasso di bawah Binance, di mana pengguna dapat menghasilkan NFT dengan mengunggah gambar dan memasukkan kata kunci untuk komputasi AI. Proyek serupa termasuk Solvo, Nicho, IgmnAI, dan CharacterGPT.

GameFi: Dengan generasi bahasa alami, generasi gambar, dan kemampuan NPC cerdas seputar AI, diharapkan GameFi dapat meningkatkan efisiensi dan inovasi dalam produksi konten game. Sebagai contoh, permainan rantai pertama AI Hero dari Binaryx memungkinkan pemain untuk menjelajahi berbagai pilihan plot melalui keacakan AI; begitu pula dengan permainan teman virtual Sleepless AI, di mana pemain dapat membuka gameplay yang dipersonalisasi melalui interaksi yang berbeda berdasarkan AIGC dan LLM.

DAO: Saat ini, AI juga diharapkan dapat diterapkan pada DAO, membantu melacak interaksi komunitas, mencatat kontribusi, memberi hadiah kepada anggota yang paling berkontribusi, pemungutan suara perwakilan, dan sebagainya. Sebagai contoh, ai16z menggunakan AI Agent untuk mengumpulkan informasi pasar on-chain dan off-chain, menganalisis konsensus komunitas, dan membuat keputusan investasi dengan kombinasi saran dari anggota DAO.

Signifikansi integrasi AI+Web3: Tower dan Square

Di jantung Florence, Italia, terletaklah alun-alun pusat, tempat pertemuan politik yang paling penting bagi penduduk setempat dan wisatawan. Berdiri di sini adalah menara balai kota setinggi 95 meter, menciptakan efek estetika dramatis dengan alun-alun, menginspirasi profesor sejarah Universitas Harvard, Neil Ferguson, untuk menjelajahi sejarah dunia jaringan dan hierarki dalam bukunya 'Square and Tower,' menunjukkan pasang surut kedua selama waktu.

Metafora yang sangat bagus ini tidak keluar dari tempatnya ketika diterapkan pada hubungan antara AI dan Web3 saat ini. Jika melihat jangka panjang, hubungan sejarah non-linear antara keduanya, bisa dilihat bahwa persegi lebih mungkin menghasilkan hal-hal baru dan kreatif daripada menara, tetapi menara masih memiliki legitimasi dan vitalitas yang kuat.

Dengan kemampuan untuk mengelompokkan data daya komputasi energi di perusahaan teknologi, AI telah melepaskan imajinasi yang belum pernah terjadi sebelumnya, memimpin raksasa teknologi utama untuk bertaruh besar, memperkenalkan berbagai iterasi dari berbagai chatbot hingga 'model besar yang mendasar' seperti GPT-4, GP4-4o. Sebuah robot pemrograman otomatis (Devin) dan Sora, dengan kemampuan awal untuk mensimulasikan dunia fisik nyata, muncul satu demi satu, memperbesar imajinasi AI secara tak terbatas.

Pada saat yang sama, AI pada dasarnya adalah industri yang berskala besar dan terpusat, dan revolusi teknologi ini akan mendorong perusahaan teknologi yang secara bertahap telah mendapatkan dominasi struktural di 'era Internet' menuju puncak tinggi yang lebih sempit. Kekuatan besar, aliran kas monopoli, dan kumpulan data besar yang diperlukan untuk mendominasi era kecerdasan membentuk hambatan yang lebih tinggi bagi AI.

Saat menara semakin tinggi dan para pengambil keputusan di balik layar menyusut, sentralisasi AI membawa banyak bahaya tersembunyi. Bagaimana massa yang berkumpul di alun-alun dapat menghindari bayangan di bawah menara? Ini adalah masalah yang diharapkan diatasi oleh Web3.

Pada dasarnya, sifat-sifat inherent dari blockchain meningkatkan sistem kecerdasan buatan dan membawa kemungkinan-kemungkinan baru, terutama:

  • Di era kecerdasan buatan, ‘kode adalah hukum’—mencapai aturan eksekusi otomatis sistem transparan melalui kontrak pintar dan verifikasi enkripsi, memberikan hadiah kepada audiens yang lebih dekat dengan target.
  • Ekonomi token - menciptakan dan mengkoordinasikan perilaku peserta melalui mekanisme token, staking, pengurangan, imbalan token, dan hukuman.
  • Pemerintahan terdesentralisasi - mendorong kita untuk mempertanyakan sumber informasi dan mendorong pendekatan yang lebih kritis dan berwawasan terhadap teknologi kecerdasan buatan, mencegah bias, informasi yang keliru, dan manipulasi, akhirnya menumbuhkan masyarakat yang lebih berpengetahuan dan berdaya.

Pengembangan Kecerdasan Buatan juga telah membawa vitalitas baru ke Web3, mungkin dampak Web3 terhadap Kecerdasan Buatan memerlukan waktu untuk dibuktikan, tetapi dampak Kecerdasan Buatan terhadap Web3 adalah langsung: apakah itu kegilaan Meme atau Agen AI yang membantu menurunkan hambatan masuk untuk aplikasi on-chain, semuanya jelas.

Ketika Web3 didefinisikan sebagai keegoisan oleh sekelompok kecil orang, serta terjebak dalam keraguan tentang mereplikasi industri tradisional, penambahan AI membawa masa depan yang bisa diperkirakan: basis pengguna Web2 yang lebih stabil & dapat diskalakan, model bisnis yang lebih inovatif, dan layanan.

Kita hidup di dunia di mana ‘menara dan lapangan’ hidup berdampingan, meskipun AI dan Web3 memiliki timeline dan titik awal yang berbeda, tujuan akhir mereka adalah bagaimana membuat mesin lebih baik melayani kemanusiaan, dan tidak ada yang bisa mendefinisikan sungai yang deras. Kami menantikan masa depan AI+Web3.

Pernyataan:

  1. Artikel ini diambil dari [TechFlow], hak cipta dimiliki oleh penulis asli [Coinspire],如对转载有异议,请联系Tim Pembelajaran Gate, tim akan memprosesnya sesegera mungkin sesuai dengan prosedur yang relevan.
  2. Penafian: Pandangan dan opini yang terdapat dalam artikel ini semata-mata milik penulis dan tidak merupakan nasihat investasi apa pun.
  3. Artikel diterjemahkan ke dalam bahasa lain oleh tim Gate Learn, jika tidak disebutkanGate.ioDi bawah keadaan apa pun artikel yang diterjemahkan boleh disalin, diedarkan, atau diplagiatkan.
Start Now
Sign up and get a
$100
Voucher!