Lớp Phán Xét: Tại sao AI chưa thông minh cho đến khi các nhà lãnh đạo trở nên thông minh hơn

Guillermo Delgado Aparicio là Nhà Lãnh đạo AI Toàn cầu tại Nisum.


Khám phá các tin tức và sự kiện fintech hàng đầu!

Đăng ký nhận bản tin FinTech Weekly

Được đọc bởi các giám đốc điều hành tại JP Morgan, Coinbase, Blackrock, Klarna và nhiều hơn nữa


AI trong fintech bao gồm nhiều trường hợp sử dụng, từ phát hiện gian lận và giao dịch thuật toán đến chấm điểm tín dụng động và đề xuất sản phẩm cá nhân hóa. Tuy nhiên, một báo cáo của Cơ quan Quản lý Tài chính (Financial Conduct Authority) cho thấy trong số 75% các công ty sử dụng AI, chỉ có 34% hiểu rõ cách hoạt động của nó.

Vấn đề không chỉ là thiếu nhận thức. Đó là sự hiểu lầm sâu sắc về sức mạnh và phạm vi của phân tích dữ liệu, lĩnh vực sinh ra AI. Việc phổ biến rộng rãi các công cụ AI tạo sinh đã đưa chủ đề này lên cấp cao trong các cuộc họp ban giám đốc. Nhưng nhiều người trong số những người quyết định cách triển khai AI lại không hiểu các nguyên lý cơ bản của tính toán, thống kê và các thuật toán nâng cao.

Lấy ví dụ, Luật Benford, một nguyên tắc thống kê đơn giản giúp phát hiện gian lận bằng cách nhận diện các mẫu trong số liệu. AI dựa trên loại toán học này, chỉ mở rộng quy mô để xử lý hàng triệu giao dịch cùng lúc. Bỏ qua những lời quảng cáo, nền tảng vẫn là thống kê và thuật toán.

Đây là lý do tại sao việc nâng cao kiến thức về AI ở cấp quản lý cao là quan trọng. Những nhà lãnh đạo không thể phân biệt rõ ràng nơi kết thúc của phân tích dữ liệu sẽ dễ bị tin tưởng quá mức vào các hệ thống mà họ không hiểu hoặc sử dụng chúng một cách thiếu thận trọng vì sợ hãi. Và lịch sử đã chứng minh điều gì xảy ra khi các nhà ra quyết định hiểu sai công nghệ: các cơ quan quản lý từng cố gắng cấm các cuộc gọi IP quốc tế, chỉ để chứng kiến công nghệ vượt qua các quy định. Cơ chế tương tự đang diễn ra với AI. Bạn không thể chặn hoặc áp dụng mù quáng; bạn cần có phán đoán, bối cảnh và khả năng điều hướng AI một cách có trách nhiệm.

Các nhà lãnh đạo fintech phải khắc phục những khoảng trống này để sử dụng AI một cách có trách nhiệm và hiệu quả. Điều đó có nghĩa là hiểu rõ nơi kết thúc của phân tích dữ liệu và bắt đầu của AI, xây dựng kỹ năng để điều hướng các hệ thống này, và áp dụng phán đoán hợp lý để quyết định khi nào và như thế nào để tin tưởng vào kết quả của chúng.

Giới hạn, điểm mù và ảo tưởng của AI

Phân tích dữ liệu phân tích quá khứ và hiện tại để giải thích những gì đã xảy ra và tại sao. AI phát triển dựa trên nền tảng đó, sử dụng phân tích nâng cao để dự đoán những gì sẽ xảy ra tiếp theo và ngày càng tự động quyết định hoặc hành động dựa trên đó.

Với khả năng xử lý dữ liệu xuất sắc, dễ hiểu tại sao các nhà lãnh đạo fintech lại xem AI như một “viên đạn thần kỳ”. Nhưng AI không thể giải quyết mọi vấn đề. Con người vẫn có lợi thế vốn có trong việc nhận diện mẫu, đặc biệt khi dữ liệu không đầy đủ hoặc “bẩn”. AI có thể gặp khó khăn trong việc hiểu các sắc thái ngữ cảnh mà con người có thể nhanh chóng nắm bắt.

Tuy nhiên, nghĩ rằng dữ liệu không hoàn hảo làm AI trở nên vô dụng là một sai lầm. Các mô hình phân tích có thể hoạt động với dữ liệu thiếu đầy đủ. Nhưng biết khi nào nên triển khai AI và khi nào dựa vào phán đoán của con người để điền vào chỗ trống mới là thử thách thực sự. Nếu không có sự giám sát cẩn thận này, AI có thể gây ra những rủi ro đáng kể.

Một vấn đề như vậy là thành kiến. Khi fintech huấn luyện AI dựa trên các bộ dữ liệu cũ, họ thường thừa hưởng những hạn chế đi kèm. Ví dụ, tên của khách hàng có thể vô tình trở thành đại diện cho giới tính, hoặc họ tên có thể suy ra đặc điểm dân tộc, làm lệch điểm tín dụng theo cách mà không cơ quan quản lý nào chấp thuận. Những thành kiến này, dễ dàng ẩn trong toán học, thường cần sự giám sát của con người để phát hiện và sửa chữa.

Khi các mô hình AI tiếp xúc với các tình huống mà chúng chưa được huấn luyện, điều này có thể gây ra dịch mô hình (model drift). Biến động thị trường, thay đổi quy định, hành vi khách hàng ngày càng đa dạng, và các biến số vĩ mô có thể ảnh hưởng đến hiệu quả của mô hình mà không có sự giám sát và điều chỉnh của con người.

Khó khăn trong việc điều chỉnh lại các thuật toán tăng lên rõ rệt khi fintech sử dụng các hộp đen (black box) không cho phép nhìn thấy mối quan hệ giữa các biến. Trong điều kiện này, họ mất khả năng chuyển giao kiến thức đó cho các nhà ra quyết định quản lý. Thêm vào đó, lỗi và thành kiến vẫn ẩn trong các mô hình mập mờ, làm giảm độ tin cậy và khả năng tuân thủ.

Những điều các nhà lãnh đạo fintech cần biết

Một khảo sát của Deloitte cho thấy 80% cho biết hội đồng quản trị của họ ít hoặc không có kinh nghiệm về AI. Nhưng các giám đốc cấp cao không thể coi AI là vấn đề của “nhóm kỹ thuật”. Trách nhiệm về AI nằm ở lãnh đạo, nghĩa là các nhà lãnh đạo fintech cần nâng cao kỹ năng.

Linh hoạt phân tích chéo

Trước khi triển khai AI, các nhà lãnh đạo fintech cần có khả năng chuyển đổi tư duy—xem xét các số liệu, bài toán kinh doanh, hoạt động và đạo đức—và nhận diện cách các yếu tố này chồng chéo và ảnh hưởng đến kết quả của AI. Họ cần hiểu cách độ chính xác thống kê của mô hình liên quan đến rủi ro tín dụng. Và nhận biết khi một biến số trông có vẻ hợp lý về mặt tài chính (như lịch sử trả nợ) có thể gây ra rủi ro xã hội hoặc quy định thông qua mối liên hệ với nhóm được bảo vệ, như tuổi tác hoặc dân tộc.

Sự thành thạo về AI này đến từ việc làm việc cùng các nhân viên tuân thủ để phân tích các quy định, trao đổi với quản lý sản phẩm về trải nghiệm người dùng, và xem xét kết quả mô hình cùng các nhà khoa học dữ liệu để phát hiện dấu hiệu dịch hoặc thành kiến.

Trong fintech, tránh rủi ro hoàn toàn là không thể, nhưng với khả năng phân tích chéo, các nhà lãnh đạo có thể xác định rõ những rủi ro đáng để chấp nhận và những rủi ro có thể làm giảm giá trị cổ đông. Kỹ năng này cũng giúp nâng cao khả năng phát hiện và hành động trước các thành kiến, không chỉ từ góc độ tuân thủ mà còn từ góc độ chiến lược và đạo đức.

Ví dụ, nếu một mô hình chấm điểm tín dụng dựa trên AI lệch mạnh về một nhóm khách hàng nhất định, việc sửa chữa sự mất cân bằng đó không chỉ là công việc của khoa học dữ liệu; nó còn bảo vệ uy tín của công ty. Đối với các fintech cam kết thúc đẩy tài chính toàn diện hoặc đối mặt với sự giám sát ESG, tuân thủ pháp luật không đủ. Phán đoán nghĩa là biết điều đúng, chứ không chỉ là điều được phép.

Khả năng giải thích (Explainability Literacy)

Khả năng giải thích là nền tảng của sự tin tưởng. Nếu không có nó, các nhà ra quyết định, khách hàng và cơ quan quản lý sẽ đặt câu hỏi tại sao một mô hình lại đi đến kết luận cụ thể.

Điều này đòi hỏi các giám đốc phải phân biệt được giữa các mô hình có thể giải thích rõ ràng và những mô hình cần giải thích sau (như giá trị SHAP hoặc LIME). Họ cần đặt câu hỏi khi logic của mô hình không rõ ràng và nhận biết khi “độ chính xác” đơn thuần không thể biện minh cho một quyết định hộp đen.

Thành kiến không xuất hiện từ hư không; nó phát sinh khi các mô hình được huấn luyện và triển khai mà không có sự giám sát đủ. Khả năng giải thích giúp các nhà lãnh đạo có khả năng phát hiện sớm các vấn đề này và hành động trước khi gây thiệt hại.

AI giống như chế độ tự lái trên máy bay. Phần lớn thời gian, nó hoạt động trơn tru, nhưng khi gặp bão, phi công phải kiểm soát. Trong tài chính, nguyên tắc tương tự cũng áp dụng. Các nhóm cần có khả năng dừng giao dịch, điều chỉnh chiến lược hoặc thậm chí ngưng một sản phẩm khi điều kiện thay đổi. Khả năng giải thích đi đôi với khả năng can thiệp, giúp các lãnh đạo cấp cao hiểu rõ AI và duy trì kiểm soát, ngay cả khi hoạt động quy mô lớn.

Tư duy mô hình xác suất

Các giám đốc quen với các quyết định xác định, như nếu điểm tín dụng dưới 650 thì từ chối hồ sơ. Nhưng AI không hoạt động theo cách đó và đây là một sự thay đổi tư duy lớn.

Đối với các nhà lãnh đạo, tư duy xác suất đòi hỏi ba khả năng:

  • Hiểu các phạm vi rủi ro thay vì kết quả nhị phân có/không.
  • Đánh giá mức độ tự tin của dự đoán so với các yếu tố kinh doanh hoặc quy định khác.
  • Biết khi nào nên bỏ qua tự động hóa và áp dụng phán đoán của con người.

Ví dụ, một mô hình AI xác suất của fintech có thể cảnh báo khách hàng là rủi ro cao, nhưng điều đó không nhất thiết phải là “từ chối”. Nó có thể là “điều tra thêm” hoặc “điều chỉnh điều kiện vay”. Nếu không có sự tinh tế này, tự động hóa có thể trở thành một công cụ thô sơ, làm giảm lòng tin của khách hàng và gây ra phản ứng từ cơ quan quản lý.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim