ChatGPT, Grok, Gemini, tại sao chúng có vẻ không tốt lắm?
Gần đây, trong khi theo dõi chỉ số PCI, tôi đã nghĩ đến việc sử dụng AI để giúp viết kịch bản TradingView. Ban đầu tôi dự định làm điều đó một lần và mãi mãi, nhưng mã dừng lại chỉ sau một lần thực thi - tôi hoàn toàn không thể chạy và có nhiều lỗi khác nhau.
Tôi đã sử dụng từng công cụ trong số ba công cụ này để cố gắng sửa chữa chúng. ChatGPT đã được thử nghiệm và vẫn còn nhiều vấn đề khác nhau trên TradingView. Grok lại rơi vào tình huống tương tự. Khi nói đến Song Tử, tôi nghĩ sẽ có một sự thay đổi, nhưng... Nó vẫn là vấn đề cũ. Mỗi lần tôi sửa lại, có vẻ như logic là đúng, và tôi sẽ ngừng nấu ngay sau khi đưa nó vào bài kiểm tra.
Thành thật mà nói, tập hợp các quy trình này đã bị loại bỏ và ấn tượng về các công cụ này đã giảm đi một chút. Có thể bản thân logic chỉ báo bị mắc kẹt? Hay thực sự có một mức trần cho AI trong việc gỡ lỗi tập lệnh phức tạp ở giai đoạn này? Có ai gặp phải tình huống tương tự và bạn có thể chia sẻ giải pháp của mình cho nó không?
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
15 thích
Phần thưởng
15
4
Đăng lại
Retweed
Bình luận
0/400
TestnetFreeloader
· 20giờ trước
Cả ba đều gặp sự cố, đây mới là tuyệt đỉnh… phần mã đó chính là điểm yếu chết người của AI, sửa mã cả buổi vẫn dậm chân tại chỗ
Xem bản gốcTrả lời0
OnchainUndercover
· 21giờ trước
Anh bạn, đã thử cả ba cách rồi vẫn không thành công, thật sự có chút tuyệt vọng đấy
AI viết script thật sự vẫn chưa được, logic càng phức tạp thì càng yếu, tôi cũng từng bị lừa
Có vẻ như họ chưa nắm rõ hết các quy tắc của TradingView
Xem bản gốcTrả lời0
BearMarketBard
· 21giờ trước
AI đều là trò vặt vãnh, những công việc cứng nhắc như viết script vẫn phải dựa vào con người
---
Cả ba đều thất bại, có thể vấn đề không nằm ở AI
---
Chuẩn mực của TradingView về AI thực sự chưa hiểu rõ, điều này là đúng
---
Không có chuyện làm một lần rồi xong, mã code còn phải tự debug
---
Gemini là kém nhất, lần này coi như đã xác nhận rồi
---
Logic không sai, đưa lên rồi là dừng, tôi quen cảm giác này haha
---
Nghi ngờ AI thực sự chưa hiểu rõ logic chỉ số của bạn
---
Đã gặp rồi, sau đó vẫn tự tay viết giải quyết
---
Hiện tại AI chỉ là một công cụ tìm kiếm cao cấp, đừng kỳ vọng quá nhiều
---
Việc debug script thực sự là điểm yếu của AI, đừng quá bất ngờ
Xem bản gốcTrả lời0
MemeKingNFT
· 21giờ trước
Haha, đây không phải là những gì đã xảy ra với tôi cách đây nửa năm, khi tôi muốn sử dụng AI để nhanh chóng tạo ra các tập lệnh để theo dõi dữ liệu trên chuỗi, nhưng cả ba đều bị lật ngược, đó là một câu điển hình "nó trông tốt, nhưng nó không phải".
AI gỡ lỗi logic phức tạp giống như đầu cơ tiền tệ, rất dễ đánh giá quá cao khả năng của bản thân, anh em, tôi cảm thấy mô hình lớn vẫn có trần trong lĩnh vực này.
Nói thẳng ra, nếu logic của chỉ báo phức tạp, bạn vẫn phải tự làm mới đáng tin cậy, nếu không bạn sẽ bị AI đưa vào hố.
Thay vì mong đợi AI làm điều đó trong một bước, tốt hơn hết bạn nên sắp xếp các nhu cầu theo cách thủ công và sau đó cung cấp chúng, mặc dù nó rắc rối nhưng ổn định.
Đề xuất của tôi là chia nhỏ logic kịch bản thành các đơn vị nhỏ nhất và để AI viết từng mảnh, điều này thực tế hơn nhiều so với việc chỉ dựa vào hiệu suất của chính nó.
Gỡ lỗi mã có thể thực sự cần can thiệp thủ công, AI vẫn còn hạn chế, đừng quá tin tưởng nó.
ChatGPT, Grok, Gemini, tại sao chúng có vẻ không tốt lắm?
Gần đây, trong khi theo dõi chỉ số PCI, tôi đã nghĩ đến việc sử dụng AI để giúp viết kịch bản TradingView. Ban đầu tôi dự định làm điều đó một lần và mãi mãi, nhưng mã dừng lại chỉ sau một lần thực thi - tôi hoàn toàn không thể chạy và có nhiều lỗi khác nhau.
Tôi đã sử dụng từng công cụ trong số ba công cụ này để cố gắng sửa chữa chúng. ChatGPT đã được thử nghiệm và vẫn còn nhiều vấn đề khác nhau trên TradingView. Grok lại rơi vào tình huống tương tự. Khi nói đến Song Tử, tôi nghĩ sẽ có một sự thay đổi, nhưng... Nó vẫn là vấn đề cũ. Mỗi lần tôi sửa lại, có vẻ như logic là đúng, và tôi sẽ ngừng nấu ngay sau khi đưa nó vào bài kiểm tra.
Thành thật mà nói, tập hợp các quy trình này đã bị loại bỏ và ấn tượng về các công cụ này đã giảm đi một chút. Có thể bản thân logic chỉ báo bị mắc kẹt? Hay thực sự có một mức trần cho AI trong việc gỡ lỗi tập lệnh phức tạp ở giai đoạn này? Có ai gặp phải tình huống tương tự và bạn có thể chia sẻ giải pháp của mình cho nó không?