AI và sự kết hợp DePIN: Sự nổi lên và phát triển của mạng lưới tính toán GPU Phi tập trung

AI và DePIN giao thoa: Sự trỗi dậy của mạng tính toán GPU phi tập trung

Kể từ năm 2023, AI và DePIN đã trở thành những xu hướng nóng trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ khám phá giao thoa giữa hai yếu tố này và nghiên cứu sự phát triển của các giao thức liên quan.

Trong ngăn xếp công nghệ AI, mạng DePIN cung cấp tài nguyên tính toán để hỗ trợ AI. Sự phát triển của các công ty công nghệ lớn đã dẫn đến tình trạng thiếu GPU, khiến các nhà phát triển khác khó có thể có đủ GPU để tính toán. Điều này thường buộc các nhà phát triển phải chọn nhà cung cấp dịch vụ đám mây tập trung, nhưng do cần ký hợp đồng phần cứng hiệu suất cao dài hạn không linh hoạt, dẫn đến hiệu quả thấp.

DePIN cung cấp một giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn, thông qua việc khuyến khích tài nguyên đóng góp bằng token. Mạng DePIN trong lĩnh vực AI sẽ tích hợp tài nguyên GPU từ các chủ sở hữu cá nhân thành một nguồn cung thống nhất, phục vụ cho những người dùng cần phần cứng. Điều này không chỉ mang lại tính tùy chỉnh và truy cập theo nhu cầu cho các nhà phát triển, mà còn tạo ra thu nhập bổ sung cho các chủ sở hữu GPU.

AI và DePIN giao điểm

Tổng quan về mạng DePIN AI

Các dự án đều nhằm mục tiêu xây dựng mạng lưới tính toán GPU. Dưới đây sẽ giới thiệu đặc điểm, trọng tâm thị trường và thành tựu của từng dự án.

Render là tiên phong trong mạng tính toán GPU P2P, ban đầu tập trung vào việc tạo nội dung đồ họa, sau đó mở rộng sang các nhiệm vụ tính toán AI.

Đặc điểm:

  • Được thành lập bởi công ty đồ họa đám mây OTOY
  • Các công ty lớn trong ngành giải trí như Paramount Pictures, PUBG sử dụng mạng GPU của họ
  • Hợp tác với Stability AI và Endeavor, tích hợp mô hình AI với quy trình làm việc render nội dung 3D.
  • Phê duyệt nhiều máy khách tính toán, tích hợp nhiều GPU của mạng DePIN hơn

Akash được định vị là một sản phẩm thay thế "siêu đám mây" hỗ trợ lưu trữ, tính toán GPU và CPU. Sử dụng nền tảng container và các nút tính toán được quản lý bởi Kubernetes, phần mềm có thể được triển khai liền mạch trên nhiều môi trường.

Đặc điểm:

  • Hướng tới các nhiệm vụ tính toán rộng rãi từ tính toán tổng quát đến lưu trữ mạng
  • AkashML hỗ trợ chạy hơn 15,000 mô hình trên Hugging Face
  • Ứng dụng chatbot mô hình LLM của Mistral AI, SDXL của Stability AI, v.v.
  • Hỗ trợ nền tảng triển khai vũ trụ ảo, AI và học liên bang

io.net cung cấp cụm đám mây GPU phân tán, chuyên dùng cho các trường hợp AI và ML. Tích hợp tài nguyên GPU từ các lĩnh vực như trung tâm dữ liệu, thợ đào tiền mã hóa.

Đặc điểm:

  • IO-SDK tương thích với các framework như PyTorch và Tensorflow, có thể tự động mở rộng theo nhu cầu tính toán.
  • Hỗ trợ tạo 3 loại cụm khác nhau, có thể khởi động trong vòng 2 phút
  • Hợp tác tích hợp tài nguyên GPU với Render, Filecoin, Aethir và các bên khác

Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Sử dụng các công nghệ như chứng minh học tập, giao thức định vị chính xác dựa trên đồ thị để nâng cao hiệu quả xác minh.

Đặc điểm:

  • Chi phí mỗi giờ cho GPU tương đương V100 khoảng 0.40 đô la, tiết kiệm chi phí đáng kể
  • Hỗ trợ tinh chỉnh các mô hình cơ bản đã được huấn luyện trước
  • Kế hoạch cung cấp mô hình cơ sở phi tập trung, toàn cầu sở hữu

Aethir tập trung vào AI, ML, game đám mây và các lĩnh vực tính toán chuyên sâu khác. Các container trong mạng lưới của nó hoạt động như các điểm cuối ảo để thực hiện các ứng dụng đám mây, mang đến trải nghiệm độ trễ thấp.

Đặc điểm:

  • Mở rộng dịch vụ điện thoại đám mây, hợp tác với APhone để ra mắt điện thoại thông minh đám mây Phi tập trung
  • Thiết lập hợp tác với các công ty lớn như NVIDIA, Super Micro, HPE
  • Hợp tác với nhiều dự án Web3 như CARV, Magic Eden

Phala Network là tầng thực thi của giải pháp Web3 AI. Thông qua môi trường thực thi đáng tin cậy (TEE) thiết kế xử lý các vấn đề về quyền riêng tư, hỗ trợ các đại lý AI được kiểm soát bởi hợp đồng thông minh trên chuỗi.

Đặc điểm:

  • Là giao thức đồng xử lý cho tính toán có thể xác minh, hỗ trợ tài nguyên trên chuỗi AI.
  • Hợp đồng đại lý AI có thể được nhận thông qua Redpill để có được các mô hình ngôn ngữ lớn hàng đầu như OpenAI, Llama.
  • Tương lai sẽ bao gồm zk-proofs, tính toán nhiều bên, hệ thống chứng minh đa dạng như mã hóa đồng nhất hoàn toàn.
  • Kế hoạch hỗ trợ H100 và các GPU TEE khác, nâng cao khả năng tính toán

AI và DePIN giao điểm

So sánh dự án

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Điểm nhấn kinh doanh | Kết xuất đồ họa và AI | Điện toán đám mây, kết xuất và AI | AI | AI | AI, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi | | Loại nhiệm vụ AI | Suy diễn | Cả hai | Cả hai | Đào tạo | Đào tạo | Thực hiện | | Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi | | Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Quyền riêng tư dữ liệu | Mã hóa&băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí công việc | Mỗi công việc 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | Mỗi phiên 20% | Tỷ lệ với số tiền đặt cọc | | An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian | | Chứng minh hoàn thành | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE | | Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người báo cáo | Nút kiểm tra | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |

Tầm quan trọng

Tính khả dụng của cụm và tính toán song song

Khung tính toán phân tán triển khai cụm GPU, cung cấp khả năng đào tạo và khả năng mở rộng hiệu quả hơn. Việc đào tạo các mô hình AI phức tạp cần sức mạnh tính toán mạnh mẽ, thường dựa vào tính toán phân tán. Hầu hết các dự án hiện đã tích hợp cụm để thực hiện tính toán song song. io.net đã triển khai thành công hơn 3.800 cụm. Mặc dù Render không hỗ trợ cụm, nhưng nó sẽ phân chia một nhiệm vụ duy nhất thành nhiều nút để xử lý đồng thời. Phala hỗ trợ cụm hóa các bộ xử lý CPU.

Dữ liệu riêng tư

Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu, có thể tồn tại rủi ro lộ dữ liệu nhạy cảm. Hầu hết các dự án áp dụng một dạng mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư. io.net hợp tác với Mind Network ra mắt mã hóa toàn phần (FHE), cho phép xử lý dữ liệu trong trạng thái mã hóa. Phala Network giới thiệu môi trường thực thi đáng tin cậy (TEE), ngăn chặn các quy trình bên ngoài truy cập hoặc sửa đổi dữ liệu.

Tính toán hoàn thành chứng nhận và kiểm tra chất lượng

Gensyn và Aethir tạo ra chứng nhận sau khi hoàn thành tính toán, chứng nhận của io.net cho thấy hiệu suất GPU được thuê đã được sử dụng đầy đủ. Cả Gensyn và Aethir đều thực hiện kiểm tra chất lượng cho các tính toán đã hoàn thành. Render đề xuất sử dụng quy trình giải quyết tranh chấp. Phala tạo ra chứng nhận TEE sau khi hoàn thành, đảm bảo rằng đại lý AI thực hiện các thao tác cần thiết.

AI và điểm giao nhau của DePIN

Thống kê phần cứng

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Số lượng GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Số lượng CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Số lượng H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Chi phí H100/giờ | - | $1.46 | $1.19 | - | - | - | | Chi phí A100/giờ | - | $1.37 | $1.50 | $0.55 ( dự kiến ) | $0.33 ( dự kiến ) | - |

yêu cầu GPU hiệu suất cao

Việc đào tạo mô hình AI cần GPU có hiệu suất tốt nhất, như A100 và H100 của Nvidia. Hiệu suất suy diễn của H100 nhanh gấp 4 lần A100, trở thành GPU được ưa chuộng. Các nhà cung cấp thị trường GPU Phi tập trung cần đáp ứng nhu cầu thực tế của thị trường và cung cấp mức giá thấp hơn. io.net và Aethir đều đã nhận được hơn 2000 đơn vị H100/A100, phù hợp hơn cho tính toán mô hình lớn.

Mặc dù cụm GPU kết nối mạng có chi phí thấp hơn, nhưng bộ nhớ bị hạn chế. GPU kết nối bằng NVLink là phù hợp nhất cho LLM có nhiều tham số và tập dữ liệu lớn, vì chúng cần hiệu suất cao và tính toán dày đặc. Mạng GPU Phi tập trung vẫn có thể cung cấp khả năng tính toán mạnh mẽ và khả năng mở rộng cho các tác vụ tính toán phân tán, mở ra cơ hội để xây dựng nhiều trường hợp AI và ML hơn.

Cung cấp GPU/CPU cấp tiêu dùng

CPU trong việc đào tạo mô hình AI cũng đóng vai trò quan trọng, có thể được sử dụng cho việc tiền xử lý dữ liệu và quản lý tài nguyên bộ nhớ. GPU tiêu dùng có thể được sử dụng để tinh chỉnh mô hình đã được đào tạo trước hoặc đào tạo quy mô nhỏ. Các dự án như Render, Akash và io.net cũng phục vụ cho thị trường này, phát triển thị trường ngách của riêng mình.

Kết luận

Lĩnh vực DePIN AI vẫn còn tương đối mới mẻ và đối mặt với những thách thức. Tuy nhiên, số lượng nhiệm vụ và phần cứng được thực hiện trên các mạng này đã tăng lên đáng kể, nhấn mạnh nhu cầu về các sản phẩm thay thế cho tài nguyên phần cứng của nhà cung cấp đám mây Web2. Trong tương lai, thị trường trí tuệ nhân tạo dự kiến sẽ phát triển mạnh mẽ, các mạng GPU phi tập trung này sẽ đóng vai trò then chốt trong việc cung cấp giải pháp tính toán hiệu quả về chi phí cho các nhà phát triển.

AI và điểm giao thoa của DePIN

AI và điểm giao thoa của DePIN

AI và DePIN giao điểm

AI và DePIN giao điểm

AI và điểm giao nhau của DePIN

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 6
  • Chia sẻ
Bình luận
0/400
WenMoonvip
· 19giờ trước
Đã hiểu, đã hiểu khi mọi người đều xếp hàng để giành GPU.
Xem bản gốcTrả lời0
SilentObservervip
· 07-28 17:52
GPU trực tiếp giảm麻了?
Xem bản gốcTrả lời0
ForeverBuyingDipsvip
· 07-28 17:45
gpu要To da moon了?
Xem bản gốcTrả lời0
BearMarketSunriservip
· 07-28 17:43
Lại là kể chuyện lừa đồ ngốc nhập một vị thế.
Xem bản gốcTrả lời0
WhaleMinionvip
· 07-28 17:32
GPU tăng lên quá nhanh, bán lẻ thật sự khó khăn.
Xem bản gốcTrả lời0
StablecoinArbitrageurvip
· 07-28 17:23
hmm *điều chỉnh kính* nhìn vào cơ sở chi phí trên mỗi đơn vị tính toán... depin thực sự có thể mang lại lợi nhuận điều chỉnh rủi ro tốt hơn so với các nhà cung cấp tập trung thật lòng mà nói
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)