Luật AI vẫn chỉ là dự thảo, nhưng các nhà đầu tư và chủ doanh nghiệp tại Liên minh Châu Âu đã bắt đầu lo lắng về các kết quả có thể xảy ra.
Liệu nó có ngăn cản Liên minh Châu Âu trở thành đối thủ cạnh tranh giá trị trên thị trường toàn cầu không?
Theo các nhà quản lý, điều đó không phải là trường hợp. Nhưng hãy cùng xem chuyện gì đang diễn ra.
Luật AI và Đánh giá Rủi ro
Luật AI phân chia các rủi ro do trí tuệ nhân tạo gây ra thành các loại rủi ro khác nhau, nhưng trước tiên, nó thu hẹp định nghĩa về trí tuệ nhân tạo chỉ bao gồm các hệ thống dựa trên học máy và logic.
Điều này không chỉ nhằm mục đích phân biệt các hệ thống AI với các phần mềm đơn giản hơn, mà còn giúp chúng ta hiểu tại sao EU muốn phân loại rủi ro.
Các ứng dụng của AI được phân thành rủi ro không thể chấp nhận, rủi ro cao, và rủi ro thấp hoặc tối thiểu. Các hoạt động nằm trong danh mục rủi ro không thể chấp nhận được được xem là bị cấm.
Các hoạt động này bao gồm:
Các kỹ thuật hoạt động vượt quá ý thức của con người,
Các hoạt động muốn khai thác các phần dễ bị tổn thương của dân số,
Các hệ thống dựa trên AI được thiết lập để phân loại người dựa trên đặc điểm cá nhân hoặc hành vi,
Các hệ thống dựa trên AI sử dụng nhận dạng sinh trắc học trong không gian công cộng.
Có một số trường hợp sử dụng, được xem là tương tự với một số hoạt động bị cấm, nằm trong danh mục “rủi ro cao”.
Chúng bao gồm các hệ thống dùng để tuyển dụng nhân viên hoặc đánh giá, phân tích khả năng tín dụng của người dân (và điều này có thể gây nguy hiểm cho fintech). Trong các trường hợp này, tất cả các doanh nghiệp tạo ra hoặc sử dụng loại hệ thống này cần phải cung cấp các báo cáo chi tiết để giải thích cách hệ thống hoạt động và các biện pháp đã thực hiện để tránh rủi ro cho người dùng và đảm bảo tính minh bạch tối đa.
Mọi thứ có vẻ rõ ràng và chính xác, nhưng vẫn còn một số vấn đề mà các nhà quản lý cần giải quyết.
Luật quá chung chung
Một trong những điều khiến các chủ doanh nghiệp và nhà đầu tư lo lắng nhất là thiếu sự chú ý đến các lĩnh vực AI cụ thể.
Ví dụ, các công ty sản xuất và sử dụng hệ thống dựa trên AI cho mục đích chung có thể bị xem là sử dụng trí tuệ nhân tạo cho các trường hợp sử dụng rủi ro cao.
Điều này có nghĩa là họ cần phải tạo ra các báo cáo chi tiết tốn thời gian và chi phí. Vì các doanh nghiệp nhỏ và vừa (SMEs) không ngoại lệ, và vì họ chiếm phần lớn nền kinh tế châu Âu, nên theo thời gian, họ có thể trở nên kém cạnh tranh hơn.
Và chính sự khác biệt giữa các công ty AI của Mỹ và châu Âu là điều gây lo ngại lớn: thực tế, châu Âu không có các công ty AI lớn như Mỹ, vì môi trường AI ở châu Âu chủ yếu do các SMEs và startup tạo ra.
Theo khảo sát của appliedAI, phần lớn các nhà đầu tư sẽ tránh đầu tư vào các startup được gắn nhãn “rủi ro cao”, chính xác vì những phức tạp liên quan đến phân loại này.
ChatGPT đã thay đổi kế hoạch của EU
Các nhà quản lý EU dự kiến sẽ hoàn tất dự thảo vào ngày 19 tháng 4, nhưng các cuộc thảo luận về các định nghĩa khác nhau của hệ thống dựa trên AI và các trường hợp sử dụng của chúng đã làm trì hoãn việc hoàn thiện bản dự thảo cuối cùng.
Hơn nữa, các công ty công nghệ đã thể hiện rằng không phải tất cả đều đồng ý với phiên bản hiện tại của tài liệu.
Điểm gây trì hoãn lớn nhất là sự phân biệt giữa mô hình nền tảng và AI mục đích chung.
Ví dụ về mô hình nền tảng AI là ChatGPT của OpenAI: các hệ thống này được huấn luyện bằng lượng dữ liệu lớn và có thể tạo ra bất kỳ loại đầu ra nào.
AI mục đích chung bao gồm các hệ thống có thể thích nghi với các trường hợp sử dụng và lĩnh vực khác nhau.
Các nhà quản lý EU muốn kiểm soát chặt chẽ các mô hình nền tảng, vì chúng có thể gây ra nhiều rủi ro hơn và ảnh hưởng tiêu cực đến cuộc sống của người dân.
Cách Mỹ và Trung Quốc điều chỉnh AI
Nếu nhìn vào cách các nhà quản lý EU xử lý AI, có điều nổi bật: dường như các nhà quản lý ít sẵn lòng hợp tác hơn.
Ở Mỹ, ví dụ, chính quyền Biden đã tìm kiếm ý kiến công chúng về độ an toàn của các hệ thống như ChatGPT trước khi thiết kế một khung pháp lý có thể.
Ở Trung Quốc, chính phủ đã điều chỉnh AI và thu thập dữ liệu trong nhiều năm, và mối quan tâm chính vẫn là ổn định xã hội.
Cho đến nay, quốc gia có vẻ đang có vị thế tốt trong việc điều chỉnh AI là Vương quốc Anh, với cách tiếp cận “nhẹ nhàng” — nhưng không ai phủ nhận rằng Vương quốc Anh muốn trở thành một trung tâm trong lĩnh vực AI và fintech.
Fintech và Luật AI
Khi nói đến các công ty và startup cung cấp dịch vụ tài chính, tình hình còn phức tạp hơn.
Thật vậy, nếu luật này giữ nguyên phiên bản hiện tại, các fintech sẽ không chỉ phải tuân thủ các quy định tài chính hiện hành mà còn phải thích nghi với khung pháp lý mới này.
Việc đánh giá khả năng tín dụng có thể bị xem là trường hợp sử dụng rủi ro cao chỉ là một ví dụ về gánh nặng mà các công ty fintech phải gánh, điều này có thể ngăn cản họ linh hoạt hơn trong việc huy động vốn và cạnh tranh.
Kết luận
Như Peter Sarlin, CEO của Silo AI, đã chỉ ra, vấn đề không phải là quy định, mà là quy định kém.
Việc quá chung chung có thể gây hại cho đổi mới sáng tạo và tất cả các công ty tham gia vào sản xuất, phân phối và sử dụng các sản phẩm và dịch vụ dựa trên AI.
Nếu các nhà đầu tư EU lo lắng về các rủi ro tiềm tàng do nhãn “rủi ro cao” gây ra cho các startup hoặc công ty, môi trường AI tại Liên minh Châu Âu có thể bị ảnh hưởng tiêu cực, trong khi Mỹ đang tìm kiếm ý kiến công chúng để cải thiện công nghệ của mình và Trung Quốc đã có quan điểm rõ ràng về cách điều chỉnh trí tuệ nhân tạo.
Theo Robin Röhm, đồng sáng lập của Apheris, một trong những kịch bản có thể xảy ra là các startup sẽ chuyển sang Mỹ — một quốc gia có thể có nhiều điều để mất trong lĩnh vực blockchain và tiền mã hóa, nhưng lại có thể chiến thắng trong cuộc đua AI.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
AI tại Châu Âu: Những gì Luật AI có thể mang lại
Ảnh của Maico Amorim trên Unsplash
Luật AI vẫn chỉ là dự thảo, nhưng các nhà đầu tư và chủ doanh nghiệp tại Liên minh Châu Âu đã bắt đầu lo lắng về các kết quả có thể xảy ra.
Liệu nó có ngăn cản Liên minh Châu Âu trở thành đối thủ cạnh tranh giá trị trên thị trường toàn cầu không?
Theo các nhà quản lý, điều đó không phải là trường hợp. Nhưng hãy cùng xem chuyện gì đang diễn ra.
Luật AI và Đánh giá Rủi ro
Luật AI phân chia các rủi ro do trí tuệ nhân tạo gây ra thành các loại rủi ro khác nhau, nhưng trước tiên, nó thu hẹp định nghĩa về trí tuệ nhân tạo chỉ bao gồm các hệ thống dựa trên học máy và logic.
Điều này không chỉ nhằm mục đích phân biệt các hệ thống AI với các phần mềm đơn giản hơn, mà còn giúp chúng ta hiểu tại sao EU muốn phân loại rủi ro.
Các ứng dụng của AI được phân thành rủi ro không thể chấp nhận, rủi ro cao, và rủi ro thấp hoặc tối thiểu. Các hoạt động nằm trong danh mục rủi ro không thể chấp nhận được được xem là bị cấm.
Các hoạt động này bao gồm:
Có một số trường hợp sử dụng, được xem là tương tự với một số hoạt động bị cấm, nằm trong danh mục “rủi ro cao”.
Chúng bao gồm các hệ thống dùng để tuyển dụng nhân viên hoặc đánh giá, phân tích khả năng tín dụng của người dân (và điều này có thể gây nguy hiểm cho fintech). Trong các trường hợp này, tất cả các doanh nghiệp tạo ra hoặc sử dụng loại hệ thống này cần phải cung cấp các báo cáo chi tiết để giải thích cách hệ thống hoạt động và các biện pháp đã thực hiện để tránh rủi ro cho người dùng và đảm bảo tính minh bạch tối đa.
Mọi thứ có vẻ rõ ràng và chính xác, nhưng vẫn còn một số vấn đề mà các nhà quản lý cần giải quyết.
Luật quá chung chung
Một trong những điều khiến các chủ doanh nghiệp và nhà đầu tư lo lắng nhất là thiếu sự chú ý đến các lĩnh vực AI cụ thể.
Ví dụ, các công ty sản xuất và sử dụng hệ thống dựa trên AI cho mục đích chung có thể bị xem là sử dụng trí tuệ nhân tạo cho các trường hợp sử dụng rủi ro cao.
Điều này có nghĩa là họ cần phải tạo ra các báo cáo chi tiết tốn thời gian và chi phí. Vì các doanh nghiệp nhỏ và vừa (SMEs) không ngoại lệ, và vì họ chiếm phần lớn nền kinh tế châu Âu, nên theo thời gian, họ có thể trở nên kém cạnh tranh hơn.
Và chính sự khác biệt giữa các công ty AI của Mỹ và châu Âu là điều gây lo ngại lớn: thực tế, châu Âu không có các công ty AI lớn như Mỹ, vì môi trường AI ở châu Âu chủ yếu do các SMEs và startup tạo ra.
Theo khảo sát của appliedAI, phần lớn các nhà đầu tư sẽ tránh đầu tư vào các startup được gắn nhãn “rủi ro cao”, chính xác vì những phức tạp liên quan đến phân loại này.
ChatGPT đã thay đổi kế hoạch của EU
Các nhà quản lý EU dự kiến sẽ hoàn tất dự thảo vào ngày 19 tháng 4, nhưng các cuộc thảo luận về các định nghĩa khác nhau của hệ thống dựa trên AI và các trường hợp sử dụng của chúng đã làm trì hoãn việc hoàn thiện bản dự thảo cuối cùng.
Hơn nữa, các công ty công nghệ đã thể hiện rằng không phải tất cả đều đồng ý với phiên bản hiện tại của tài liệu.
Điểm gây trì hoãn lớn nhất là sự phân biệt giữa mô hình nền tảng và AI mục đích chung.
Ví dụ về mô hình nền tảng AI là ChatGPT của OpenAI: các hệ thống này được huấn luyện bằng lượng dữ liệu lớn và có thể tạo ra bất kỳ loại đầu ra nào.
AI mục đích chung bao gồm các hệ thống có thể thích nghi với các trường hợp sử dụng và lĩnh vực khác nhau.
Các nhà quản lý EU muốn kiểm soát chặt chẽ các mô hình nền tảng, vì chúng có thể gây ra nhiều rủi ro hơn và ảnh hưởng tiêu cực đến cuộc sống của người dân.
Cách Mỹ và Trung Quốc điều chỉnh AI
Nếu nhìn vào cách các nhà quản lý EU xử lý AI, có điều nổi bật: dường như các nhà quản lý ít sẵn lòng hợp tác hơn.
Ở Mỹ, ví dụ, chính quyền Biden đã tìm kiếm ý kiến công chúng về độ an toàn của các hệ thống như ChatGPT trước khi thiết kế một khung pháp lý có thể.
Ở Trung Quốc, chính phủ đã điều chỉnh AI và thu thập dữ liệu trong nhiều năm, và mối quan tâm chính vẫn là ổn định xã hội.
Cho đến nay, quốc gia có vẻ đang có vị thế tốt trong việc điều chỉnh AI là Vương quốc Anh, với cách tiếp cận “nhẹ nhàng” — nhưng không ai phủ nhận rằng Vương quốc Anh muốn trở thành một trung tâm trong lĩnh vực AI và fintech.
Fintech và Luật AI
Khi nói đến các công ty và startup cung cấp dịch vụ tài chính, tình hình còn phức tạp hơn.
Thật vậy, nếu luật này giữ nguyên phiên bản hiện tại, các fintech sẽ không chỉ phải tuân thủ các quy định tài chính hiện hành mà còn phải thích nghi với khung pháp lý mới này.
Việc đánh giá khả năng tín dụng có thể bị xem là trường hợp sử dụng rủi ro cao chỉ là một ví dụ về gánh nặng mà các công ty fintech phải gánh, điều này có thể ngăn cản họ linh hoạt hơn trong việc huy động vốn và cạnh tranh.
Kết luận
Như Peter Sarlin, CEO của Silo AI, đã chỉ ra, vấn đề không phải là quy định, mà là quy định kém.
Việc quá chung chung có thể gây hại cho đổi mới sáng tạo và tất cả các công ty tham gia vào sản xuất, phân phối và sử dụng các sản phẩm và dịch vụ dựa trên AI.
Nếu các nhà đầu tư EU lo lắng về các rủi ro tiềm tàng do nhãn “rủi ro cao” gây ra cho các startup hoặc công ty, môi trường AI tại Liên minh Châu Âu có thể bị ảnh hưởng tiêu cực, trong khi Mỹ đang tìm kiếm ý kiến công chúng để cải thiện công nghệ của mình và Trung Quốc đã có quan điểm rõ ràng về cách điều chỉnh trí tuệ nhân tạo.
Theo Robin Röhm, đồng sáng lập của Apheris, một trong những kịch bản có thể xảy ra là các startup sẽ chuyển sang Mỹ — một quốc gia có thể có nhiều điều để mất trong lĩnh vực blockchain và tiền mã hóa, nhưng lại có thể chiến thắng trong cuộc đua AI.