Tầm quan trọng của việc xác định tính công bằng đối với các mô hình AI ra quyết định (Adam Lieberman)

Nút nguồn: 991769

Xác định sự công bằng là một nhiệm vụ có vấn đề. Định nghĩa phụ thuộc rất nhiều vào bối cảnh và văn hóa và khi nói đến thuật toán, mọi vấn đề đều là duy nhất nên sẽ được giải quyết thông qua việc sử dụng các bộ dữ liệu duy nhất. Sự công bằng trong thuật toán có thể xuất phát từ các định nghĩa thống kê và toán học và thậm chí cả các định nghĩa pháp lý về vấn đề hiện tại. Hơn nữa, nếu chúng ta xây dựng các mô hình dựa trên các định nghĩa khác nhau về sự công bằng cho cùng một mục đích, chúng sẽ tạo ra các kết quả hoàn toàn khác nhau. 

Thước đo công bằng cũng thay đổi theo từng trường hợp sử dụng. Chẳng hạn, AI để chấm điểm tín dụng hoàn toàn khác với phân khúc khách hàng cho các nỗ lực tiếp thị. Nói tóm lại, thật khó để đưa ra một định nghĩa tổng quát, nhưng với mục đích của bài viết này, tôi nghĩ mình sẽ thực hiện một nỗ lực sau: Một thuật toán có sự công bằng nếu nó không tạo ra các kết quả hoặc đại diện không công bằng cho các cá nhân. hoặc các nhóm.

Kết quả có thể giải thích được cho tất cả

Ngay cả với định nghĩa trên, rõ ràng là việc tạo ra một mô hình công bằng 100% cho mọi người hoặc nhóm, trong mọi trường hợp, là một nhiệm vụ đầy thách thức. Điều tốt nhất chúng ta có thể hy vọng là chúng ta xây dựng với sự công bằng trong tâm trí để chúng ta có thể sát cánh và giải thích kết quả cho các cá nhân và nhóm. 

Tuy nhiên, bây giờ có vấn đề về sự khác biệt trong các định nghĩa về sự công bằng của cá nhân và nhóm. 

Công bằng cá nhân tập trung vào việc đảm bảo rằng các biện pháp thống kê về kết quả là bằng nhau hoặc tương tự đối với các cá nhân tương tự. Nói một cách đơn giản, nếu bạn và tôi giống nhau về nhiều mặt, tức là bằng tuổi nhau, kiếm được số tiền gần như nhau, sống ở cùng một khu vực, và chúng ta đăng ký vay, thì chúng ta sẽ có một kết quả tương tự. 

Công bằng nhóm phân chia dân số thành các nhóm được xác định trước theo các thuộc tính nhạy cảm hoặc được bảo vệ, chẳng hạn như chủng tộc, sắc tộc và giới tính, đồng thời tìm cách đảm bảo rằng các thước đo thống kê về kết quả là bình đẳng giữa các nhóm. Ví dụ: nếu chúng ta xem xét các nhóm được chia theo giới tính, thì các quyết định tương tự sẽ được đưa ra cho toàn bộ nhóm. Một giới tính không nên được thiên vị hơn giới tính khác. 

There are two world views on how to approach fairness when building decision-making models. The first is the view “We’re all equal” (WAE), which states that groups have the same abilities, so differences in outcomes can be attributed to structural bias, rather than differences in ability. The second is the “what you see is what you get” (WYSIWYG) approach, which holds that observations reflect the abilities of groups.

Một ví dụ dễ hiểu về điều này trong lĩnh vực tài chính là tính điểm FICO. Thế giới quan của WAE tuyên bố rằng điểm số FICO tổng thể khác nhau giữa các nhóm người khác nhau không nên bị nhầm lẫn với việc không có khả năng trả nợ thế chấp khác nhau. Thế giới quan WYSIWYG tuyên bố rằng điểm số FICO tương quan tốt để so sánh một cách công bằng khả năng thanh toán các khoản thế chấp của người nộp đơn. 

Tại sao nó quan trọng

Xu hướng là phổ biến xung quanh chúng ta. Chúng ta thấy nó trong hầu hết mọi khía cạnh của cuộc sống hiện đại. Tìm kiếm nhanh trên Google về các thuật toán và xu hướng sẽ đưa ra hàng trăm ví dụ trong đó các mô hình không được kiểm tra tính công bằng trước khi chúng được phát hành rộng rãi. 

We’ve seen issues with insurance companies using machine learning for insurance premiums that discriminated against the elderly, online pricing discrimination, and even product personalization steering minorities into higher rates. The cost of such mistakes has been severe reputational damage, with customer trust irretrievably lost. 

Dưới đây là một vài trích dẫn từ những cá nhân đã trực tiếp trải nghiệm sự thiên vị thuật toán:

  • “It’s totally unfair because not every woman is the same.” 
  • “They’ve already labeled me as a low-income person.” 
  • “The bank said I can’t afford a mortgage, so I pay rent instead.”

Vấn đề là, khách hàng, nhận thức được khi xảy ra sự không công bằng trong thuật toán và nếu chúng tôi đưa ra các mô hình cho vay ảnh hưởng đến cuộc sống của khách hàng và khách hàng của mình, chúng tôi cần đảm bảo rằng chúng tôi kiểm tra tính công bằng của chúng. Các quyết định do thuật toán không công bằng đưa ra cũng có thể được lan truyền dưới dạng dữ liệu huấn luyện, mà các mô hình của chúng tôi sẽ học hỏi và phát triển lại từ đó. Vòng phản hồi này có thể gây ra một vòng luẩn quẩn lan truyền dữ liệu sai lệch. 

Vấn đề hiệu suất

Để minh họa sự thiên vị có thể len ​​lỏi vào các thuật toán như thế nào, tôi đã lấy một số dữ liệu của Đạo luật tiết lộ thế chấp nhà (HMDA) có sẵn công khai, yêu cầu người cho vay báo cáo dân tộc, chủng tộc, giới tính và tổng thu nhập của người nộp đơn thế chấp và bộ dữ liệu thu nhập người lớn phổ biến và xây dựng một số mô hình máy học sơ bộ. Tôi đã loại bỏ các thuộc tính nhạy cảm để đảm bảo rằng tôi có dữ liệu cân bằng, tạo ra một số tính năng tuyệt vời và đạt được một số hiệu suất thực sự tốt. Nếu hiệu suất là thước đo thành công duy nhất, tôi sẽ nói rằng tôi đã làm khá tốt, tuy nhiên, tôi đã kiểm tra sự công bằng.

Sử dụng dữ liệu HMDA, tôi đã kiểm tra xem cuộc đua ảnh hưởng đến kết quả như thế nào và kết quả thật đáng lo ngại. Trong sơ đồ dưới đây, chúng ta có thể thấy xác suất của một khoản vay được chấp nhận dựa trên chủng tộc. Nhìn vào sự khác biệt giữa khu vực màu cam và màu xanh lam ở bên phải, chúng ta có thể thấy rõ rằng xác suất khoản vay sẽ được chấp nhận đối với khách hàng da trắng có phân phối dự đoán cao hơn nhiều so với khách hàng không phải da trắng. Nếu điều này là công bằng, chúng ta sẽ thấy các đường gần nhau hoặc lý tưởng nhất là chồng lên nhau. 

Một mô hình hiệu suất cao.

Clearly, if this algorithm were to be productized and used in the real world, there could be serious consequences for non-white customers. Eliminating the possibility of such models reaching the market must be a key driver for organizations across industries. Whether it’s loans, insurance, or healthcare, AI can be a powerful ally for improving business and operational outcomes, but this must not come at the expense of groups or individuals against whom bias has propagated. 

Khách hàng sẽ nhớ những trường hợp mà họ cảm thấy bị đối xử bất công, đặc biệt khi ảnh hưởng của một quyết định có hậu quả đáng kể đối với sức khỏe của họ. Là nhà khoa học dữ liệu, chúng ta phải bắt đầu thực hiện sự công bằng ngay từ khi bắt đầu bất kỳ công việc nào chúng ta đảm nhận. 

Nguồn: https://www.finextra.com/blogposting/20682/the-importance-of-defining-fairness-for-decision-making-ai-models?utm_medium=rssfinextra&utm_source=finextrablogs

Dấu thời gian:

Thêm từ Nghiên cứu Finextra