Trong lĩnh vực phát triển DeFi, trò chơi trên chuỗi và ứng dụng Web3, một vấn đề lặp đi lặp lại khiến vô số kỹ sư cảm thấy thất vọng — chất lượng dữ liệu. Dữ liệu chậm, giả mạo dữ liệu, chi phí cao… Ngay cả hợp đồng thông minh thông minh nhất cũng không thể chịu nổi việc bị đưa vào những thông tin rác. Rào cản này đã kìm hãm bước tiến của toàn ngành.



Một vấn đề cốt lõi đang đặt ra trước mắt: làm thế nào để hệ thống blockchain có thể đáng tin cậy trong việc lấy và xác thực thông tin từ thế giới thực? Đây không chỉ là vấn đề kỹ thuật mà còn là vấn đề về niềm tin.

Thành phần nhóm APRO rất tiêu biểu — gồm kỹ sư, nhà khoa học dữ liệu, người có nền tảng từ các tập đoàn lớn và các chuyên gia lâu năm trong lĩnh vực mã hóa. Sự đồng thuận của họ rất đơn giản: không có một lớp dữ liệu đáng tin cậy, thì tương lai phi tập trung còn nói gì đến. Họ đã nghiên cứu kỹ lý do tại sao các dự án oracle qua các thế hệ lại gặp khó khăn — dễ bị tấn công, phản hồi chậm trễ nghiêm trọng, cơ chế khuyến khích thiết kế không phù hợp. Trong những ngày nguồn lực hạn chế, tiến trình chậm chạp, họ dần hình thành phong cách dự án của mình: vững vàng từng bước, mỗi bước đều cần xác minh, đặc biệt cẩn trọng với hai chữ "niềm tin".

Sản phẩm ra mắt đầu tiên không hoàn hảo. Ban đầu chức năng đơn giản, chỉ xử lý dữ liệu giá cả, thường xuyên gặp sự cố. Dữ liệu ngoài chuỗi và dữ liệu trong chuỗi không khớp nhau, chi phí xác thực cao đến mức đáng kinh ngạc, vấn đề độ trễ liên tục gây phiền toái. Nhưng nhóm không né tránh, mà đối mặt và vượt qua thử thách. Họ thử nghiệm kết hợp tính toán ngoài chuỗi và xác thực trong chuỗi, dần dần khám phá ra hai cơ chế "đẩy dữ liệu" và "kéo dữ liệu" — cái trước theo đuổi tốc độ, cái sau theo đuổi độ chính xác. Thật trớ trêu, chính thiết kế linh hoạt có vẻ "không thuần túy" này lại trở thành lợi thế cạnh tranh cốt lõi của họ sau này.

Trong quá trình công nghệ tiến bộ, nhóm nhận ra rằng chỉ dựa vào toán học và mật mã là chưa đủ. Họ đã giới thiệu cơ chế xác thực dựa trên AI — không phải để bắt kịp xu hướng, mà để triển khai nhiều lớp phòng thủ trên chuỗi. Mô hình AI có thể nhận diện dữ liệu bất thường theo thời gian thực, xác minh chéo nhiều nguồn dữ liệu, nâng cao đáng kể khả năng bền bỉ của hệ thống.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 6
  • Đăng lại
  • Retweed
Bình luận
0/400
SingleForYearsvip
· 01-03 03:51
Dữ liệu giả mạo thật sự là điểm yếu chết người của các oracle, đợt này APRO với ý tưởng "không thuần túy" lại cứu chính mình --- Thật lòng thì các giải pháp liên chuỗi dưới chuỗi trông không elegant lắm, nhưng thật sự có thể hoạt động mới là điều quan trọng --- Lại một đợt tận dụng AI nữa? Nhưng theo logic của họ thì khá vững chắc, ý tưởng nhiều lớp phòng thủ này tôi đồng ý --- Vẫn phải dựa vào nền tảng đội ngũ, nền tảng công ty lớn cộng với các chuyên gia crypto thực sự khác biệt --- Chờ đã, chi phí xác thực cao như vậy… sau này họ giải quyết thế nào? Chưa rõ ràng lắm --- Nghe có vẻ ổn định, âm thầm nhưng đây mới là cách thể hiện sự tôn trọng lớn nhất đối với niềm tin --- Các lỗ hổng của oracle đã nhiều năm rồi mà vẫn chưa lấp đầy, nếu APRO thực sự tốt thì đã sớm nổi bật rồi chứ?
Xem bản gốcTrả lời0
GateUser-1a2ed0b9vip
· 01-03 03:51
Dự đoán của "khủng hoảng niềm tin" cuối cùng cũng có người muốn giải quyết một cách nghiêm túc, không chỉ đơn giản là tích tụ các chức năng một cách thô sơ --- Lại là AI và xác thực hỗn hợp, bộ combo này nếu thực sự hoạt động thì đáng để quan tâm, nếu không lại chỉ là thổi phồng khái niệm --- Chất lượng dữ liệu thực sự là điểm yếu của Web3, hãy xem APRO sẽ vượt qua như thế nào --- Tư duy ổn định và chắc chắn này tôi rất thích, đáng tin cậy hơn nhiều so với những dự án phóng đại quá mức --- Vấn đề dữ liệu ngoài chuỗi và trong chuỗi không khớp đã chạm đúng vào điểm đau, vài dự đoán của các dự án trước đây đều gặp phải vấn đề này --- Linh hoạt > thuần túy, sự chuyển đổi nhận thức này là then chốt, nhiều nhóm đã chết vì theo đuổi "kiến trúc hoàn hảo"
Xem bản gốcTrả lời0
SnapshotDayLaborervip
· 01-03 03:47
Dữ liệu mới là thứ thực sự gây khó khăn, chỉ làm hợp đồng thông minh thôi là không đủ --- Liệu có thể sửa được cái hố của oracle không? Tôi nghĩ là rất khó, qua các thế hệ đều thất bại --- Giải pháp kết hợp thực sự là lợi thế, chủ nghĩa thuần túy đã nên phá sản từ lâu trong web3 --- Tôi tin rằng xác thực AI không phải là bắt chước theo xu hướng, thực sự hữu ích --- Điều đáng sợ nhất vẫn là làm giả dữ liệu, thử thách này thật sự khó khăn --- Thái độ ổn định, kiên trì hiếm có, phần lớn dự án đều muốn một bước lên trời --- Vấn đề dữ liệu giữa chuỗi và ngoài chuỗi không khớp nhau đã tồn tại nhiều năm mà vẫn chưa được giải quyết triệt để
Xem bản gốcTrả lời0
Ser_APY_2000vip
· 01-03 03:44
Dữ liệu giả mạo thực sự là một căn bệnh nan y, nói trắng ra là garbage in garbage out, ngay cả hợp đồng tốt đến đâu cũng không cứu nổi --- Oracles đã nhiều năm vẫn còn đang loay hoay, cốt lõi là thiết kế khuyến khích chưa tốt, lớp tin cậy thực sự đang bị kẹt --- Phương án hỗn hợp nghe có vẻ không thuần túy, nhưng đó mới là thực tế... đôi khi pragma không bằng pragmatic --- Tôi có chút lo lắng về xác thực AI, chi phí chạy mô hình trên chuỗi có phải lại là một cái bẫy không --- Nhóm APRO này thành lập cũng ổn, quan trọng là chất lượng nguồn dữ liệu sau này có thể thực sự giữ vững được không --- Ổn định và chắc chắn nghe có vẻ chậm rãi, nhưng còn hơn những dự án phô trương rồi cuối cùng rugpull --- Nói thật, web3 hiện tại thiếu những dự án không vội vàng huy động vốn, nghiêm túc xây dựng hạ tầng
Xem bản gốcTrả lời0
DuskSurfervip
· 01-03 03:39
Lớp dữ liệu này thực sự gặp khó khăn, nhưng tôi vẫn khá đồng tình với cách tiếp cận của APRO, phương án kết hợp lại thực tế hơn. So với những dự án cố gắng làm sạch hoàn toàn, phương pháp linh hoạt này đáng tin cậy hơn.
Xem bản gốcTrả lời0
TokenomicsTinfoilHatvip
· 01-03 03:28
Dự đoán này quá sâu, vấn đề chất lượng dữ liệu thực sự là giới hạn. Ý tưởng của APRO khá tốt, phương án kết hợp thực tế hơn những ai tự xưng là "thuần túy". Việc gặp sự cố ban đầu là điều bình thường, quan trọng là xem đội ngũ có thể chịu đựng được các lần lặp lại hay không, nhóm này trông có vẻ có chút năng lực. Cơ chế khuyến khích mới là cốt lõi, mô hình toán học dù hoàn hảo cũng không thể chống lại bản chất con người. Làm thế nào để phòng tránh hoàn toàn việc làm giả dữ liệu? Tôi thấy nhiều dự án đã từng gặp phải vấn đề này. Nói về AI xác thực, bộ này có thực sự hiệu quả không? Hay lại là một đợt thổi phồng ý tưởng? Cảm giác đây mới là thứ Web3 thiếu, hạ tầng cơ sở được xây dựng tốt mới có thể chơi thật sự.
Xem bản gốcTrả lời0
  • Ghim