Gặp gỡ chuyên gia AI tranh luận về sử dụng AI trong các lĩnh vực xã hội
Trong bài này, chúng ta cùng gặp gỡ Meredith Broussard, người đưa ra tranh luận rằng việc ứng dụng AI nhằm giải quyết các vấn đề xã hội đã và đang gây ra những vấn đề đáng lo ngại.
Bài này được dịch lại từ cuộc phỏng vấn Meredith Broussard do Tate Ryan-Mosley thực hiện. Các bạn có thể tìm đọc bài phỏng vấn gốc tại đây.
Meredith Broussard có vị trí quan sát vô cùng thuận lợi để phân tích sự phát triển của AI trong thời gian gần đây. Cô là một nhà khoa học dữ liệu và là phó giáo sư tại Đại học New York, đồng thời là một trong những nhà nghiên cứu hàng đầu trong lĩnh vực algorithmic bias (tạm dịch: thành kiến trong thuật toán) trong nhiều năm.
Dù công việc khiến cô bị ngập trong các bài toán, Meredith cũng dành nhiều năm qua để suy nghĩ về những vấn đề mà toán học không thể giải quyết được. Những suy nghĩ của cô đã được viết lại thành một cuốn sách mới về tương lai của AI. Trong "More than a Glitch", Meredith lập luận rằng chúng ta luôn quá háo hức áp dụng trí tuệ nhân tạo vào các vấn đề xã hội theo những cách không phù hợp và dễ gây tổn hại. Tuyên bố trọng tâm của cô là việc sử dụng các công cụ kỹ thuật để giải quyết các vấn đề xã hội mà không xét đến chủng tộc, giới tính, và các kỹ năng cá nhân khác có thể gây ra tác hại to lớn.
Meredith gần đây mới hồi phục từ căn bệnh ung thư vú, và sau khi đọc hồ sơ y tế của mình, cô nhận ra rằng AI có đóng góp trong vai trò chẩn đoán bệnh của cô - một điều ngày càng phổ biến trong y học hiện đại. Khám phá đó đã khiến cô tiến hành nghiên cứu của riêng mình để tìm hiểu thêm về hiệu quả của AI trong chẩn đoán ung thư.
Chúng tôi cùng trò chuyện về những gì cô ấy đã nghiên cứu, cũng như các vấn đề trong việc sử dụng công nghệ của cảnh sát, giới hạn của “sự công bằng của AI” (AI fairness), và các giải pháp cho một số thách thức mà AI đang đặt ra. Cuộc trò chuyện đã được chỉnh sửa cho rõ ràng hơn.
Tôi bị ấn tượng bởi câu chuyện cá nhân mà bạn chia sẻ trong cuốn sách về AI đóng góp vào quá trình chẩn đoán ung thư của bạn. Bạn có thể cho độc giả biết bạn đã làm gì và bạn học được gì từ trải nghiệm đó không?
Khi đại dịch xảy ra, tôi được chẩn đoán mắc bệnh ung thư vú. Tôi không chỉ bị kẹt vì thế giới đã ngừng hoạt động mà còn vì tôi đã trải qua một cuộc phẫu thuật lớn.
Một ngày, khi đang xem các biểu đồ trong hồ sơ y tế, tôi nhận thấy một trong những ảnh chụp X quang tuyến vú (nhũ ảnh - mammogram) của tôi có ghi: "Ảnh chụp này đã được đọc bởi một AI". Tôi nghĩ: "Tại sao AI lại đọc được nhũ ảnh của tôi?". Không ai đề cập đến điều này với tôi, nó chỉ là một phần mơ hồ trong hồ sơ y tế. Lúc này tôi thực sự tò mò về công nghệ phát hiện ung thư dựa trên AI, vì vậy tôi đã nghĩ ra một thử nghiệm để xem liệu tôi có thể lặp lại kết quả của mình hay không. Tôi lấy nhũ ảnh của mình và chạy chúng thông qua một phần mềm AI mã nguồn mở để xem liệu nó có phát hiện ra bệnh ung thư của tôi hay không. Điều tôi phát hiện ra là tôi đã có rất nhiều quan niệm sai lầm về cách thức hoạt động của AI trong chẩn đoán ung thư, điều mà tôi khám phá trong cuốn sách.
[Khi Meredith chạy được phần mềm, AI dự đoán rằng nhũ ảnh của chính cô ấy cho thấy có khối u. Tuy nhiên, bác sĩ phẫu thuật của cô ấy cho biết việc sử dụng công nghệ này hoàn toàn không cần thiết cho chẩn đoán của cô ấy, vì bác sĩ con người có thể đọc hình ảnh của cô ấy rõ ràng và chính xác.]
Một trong những điều tôi nhận ra với tư cách là bệnh nhân ung thư, đó là các bác sĩ, y tá và nhân viên chăm sóc sức khỏe đã hỗ trợ tôi một cách tuyệt vời trong quá trình chẩn đoán và phục hồi. Tôi không muốn có một tương lai mà bạn đi chụp nhũ ảnh và sau đó một hộp nhỏ màu đỏ sẽ cho biết "Đây có thể là ung thư". Đây là một tương lai mà không ai mong muốn khi liên quan tới một căn bệnh đe doạ đến tính mạng, nhưng it có nhà nghiên cứu AI nào tự chụp nhũ ảnh của riêng họ.
Đôi khi bạn nghe được rằng khi sự thành kiến của AI được “sửa chữa” đến hoàn chỉnh, thì công nghệ AI sẽ có mặt ở khắp nơi. Bạn viết rằng lập luận này có vấn đề. Tại sao?
Một trong những vấn đề lớn mà tôi gặp phải với lập luận này là ý tưởng rằng bằng cách nào đó AI sẽ phát huy hết tiềm năng của nó và đó là mục tiêu mà mọi người nên phấn đấu.
AI chỉ là toán. Tôi không nghĩ rằng mọi thứ trên thế giới nên được quản lý bởi toán học. Máy tính thực sự giỏi trong việc giải quyết các vấn đề toán học. Nhưng chúng không giỏi lắm trong việc giải quyết các vấn đề xã hội, nhưng chúng lại đang được áp dụng cho các vấn đề xã hội. Loại trò chơi kết thúc tưởng tượng này của "Ồ, chúng ta sẽ sử dụng AI cho mọi thứ" không phải là một tương lai mà tôi đồng ý.
Bạn cũng viết về nhận dạng khuôn mặt. Gần đây tôi đã nghe một lập luận rằng phong trào cấm công nghệ nhận dạng khuôn mặt (đặc biệt là trong an ninh trật tự), ngăn chặn các nỗ lực thúc đẩy công nghệ này trở nên công bằng hoặc chính xác hơn. Bạn nghĩ gì về điều này?
Tôi chắc chắn cùng ý tưởng với hội những người không ủng hộ việc sử dụng nhận dạng khuôn mặt trong việc quản lý an ninh trật tự. Tôi hiểu điều đó không khuyến khích những người thực sự muốn sử dụng nó, nhưng một trong những điều tôi đã làm khi nghiên cứu cho cuốn sách là nghiên cứu về lịch sử của việc ứng dụng công nghệ trong an ninh trật tự. Những điều mà tôi tìm được không hay chút nào.
Tôi bắt đầu với cuốn sách Black Software bởi Charlton McIlwain, and ông ấy viết về việc IBM muốn tăng số lượng máy tính bán ra cùng lúc với thời điểm của "“Cuộc chiến chống Đói nghèo” (War on Poverty) những năm 1960. Lúc đó ta có những người chỉ muốn bán máy tính và tìm kiếm một vấn đề để áp dụng chúng, nhưng họ không hiểu vấn đề xã hội. Tua nhanh đến ngày hôm nay - chúng ta vẫn đang sống với những hậu quả tai hại của những quyết định được đưa ra hồi đó.
Cảnh sát cũng không giỏi sử dụng công nghệ hơn bất kỳ ai khác. Nếu chúng ta đang nói về một tình huống mà mọi người đều là nhà khoa học máy tính hàng đầu được đào tạo về tất cả các vấn đề xã hội học, và chúng ta có cộng đồng với những trường học được tài trợ đầy đủ và chúng ta có, bạn biết đấy, công bằng xã hội, thì đó sẽ là một câu chuyện khác. Nhưng chúng ta đang sống trong một thế giới có rất nhiều vấn đề và việc nhồi nhét nhiều công nghệ hơn vào các khu dân cư da đen, da nâu và nghèo hơn vốn đã bị kiểm soát quá mức ở Mỹ sẽ chả giúp ích được gì.
Bạn thảo luận về những hạn chế của khoa học dữ liệu trong việc giải quyết các vấn đề xã hội, nhưng bản thân bạn lại là một nhà khoa học dữ liệu! Làm thế nào bạn nhận ra những hạn chế trong công việc của chính bạn?
Tôi quen với rất nhiều nhà xã hội học. Tôi đã kết hôn với một nhà xã hội học. Một điều thực sự quan trọng đối với tôi khi suy nghĩ về sự tương tác giữa xã hội học và công nghệ là một cuộc trò chuyện mà tôi đã có cách đây vài năm với Jeff Lane, một nhà xã hội học và dân tộc học [với tư cách là phó giáo sư tại Trường Thông tin Rutgers].
Chúng tôi bàn bạc về lưu trữ cơ sở dữ liệu các băng đảng, và anh ấy nói với tôi một điều mà tôi không biết, đó là mọi người có xu hướng rời khỏi băng đảng khi càng lớn tuổi. Ít ai gia nhập băng đảng và sau đó ở đó cho đến hết đời. Và tôi nghĩ, chà, nếu mọt người từng dính líu đến một băng đảng, tôi cá rằng họ sẽ không bị xóa khỏi cơ sở dữ liệu của cảnh sát. Tôi biết cách mọi người sử dụng cơ sở dữ liệu, và tôi cũng biết tất cả chúng ta cẩu thả như thế nào trong việc cập nhật cơ sở dữ liệu.
Vì vậy, tôi đã tìm hiểu kỹ hơn, và quả nhiên là không có một thông tin nào về việc khi bạn không tham gia vào một băng đảng nữa, thông tin của bạn sẽ được xóa khỏi cơ sở dữ liệu băng đảng của cảnh sát địa phương. Điều này khiến tôi bắt đầu nghĩ về sự lộn xộn trong cuộc sống kỹ thuật số và những nguy hiểm tiềm ẩn khi điều này giao thoa với công nghệ phía cảnh sát.
Công nghệ dự đoán điểm số ngày càng được sử dụng nhiều trong các trường học. Chúng ta lo lắng không? Khi nào thì thích hợp để áp dụng các thuật toán dự đoán và khi nào thì không?
Một trong những hậu quả của đại dịch là tất cả chúng ta đều có cơ hội chứng kiến thế giới trở nên nhàm chán đến mức nào khi cuộc sống bị điều khiển bởi các thuật toán. Không có sự ngẫu nhiên. Tôi không biết bạn thế nào, nhưng trong giai đoạn đại dịch, tôi đã vắt kiệt hệ thống gợi ý phim của Netflix, và chả có gì ở đó. Tôi thấy mình chuyển sang sử dụng các phương pháp rất con người để tạo thêm sự tình cờ nhằm giúp khám phá những ý tưởng mới.
Đối với tôi, đó là một trong những điều tuyệt vời về trường học và về việc học: bạn đang ở trong một lớp học với những người khác có kinh nghiệm sống khác nhau. Là một giáo sư, việc dự đoán trước điểm số của học sinh là điều ngược lại với những gì tôi muốn trong lớp học của mình. Tôi muốn tin vào khả năng thay đổi. Tôi muốn giúp học sinh của mình tiến xa hơn trên hành trình học tập của họ. Một thuật toán cho biết "Học sinh này là loại học sinh này, vì vậy họ có thể sẽ như thế này" là đi ngược lại toàn bộ quan điểm giáo dục.
Đôi khi chúng ta yêu thích ý tưởng thống kê dự đoán tương lai, vì vậy tôi hoàn toàn hiểu mong muốn tạo ra những cỗ máy giúp tương lai bớt mơ hồ hơn. Nhưng chúng ta phải sống với những điều chưa biết, chừa lại không gian cho sự thay đổi và phát triển với tư cách là con người.
Bạn có thể cho tôi biết suy nghĩ của bạn về vai trò của việc kiểm tra thuật toán trong một tương lai an toàn và công bằng hơn không?
Kiểm tra thuật toán là quá trình xem xét một thuật toán và xác định các thành kiến của nó. Đây là một lĩnh vực rất, rất mới, vì vậy đây không phải là điều mà mọi người đã biết cách làm cách đây 20 năm. Nhưng bây giờ chúng ta có tất cả những công cụ tuyệt vời này. Những người như Cathy O'Neil và Deborah Raji đang làm rất tốt công việc kiểm tra thuật toán. Chúng ta có tất cả các phương pháp toán học này để đánh giá sự công bằng từ cộng đồng hội nghị FAccT [được tổ chức dành riêng để cố gắng làm cho lĩnh vực AI trở nên có đạo đức hơn]. Tôi rất lạc quan về vai trò của kiểm tra thuật toán trong việc giúp chúng ta tạo ra các thuật toán công bằng và bình đẳng hơn.
Trong cuốn sách của mình, bạn chỉ trích cụm từ “hộp đen” (black box) khi mô tả học máy, lập luận rằng nó ám chỉ việc mô tả hoạt động bên trong một mô hình là không thể. Thay vào đó, chúng ta nên mô tả học máy như thế nào?
Đây thực sự là một câu hỏi hay. Khi tôi bắt đầu cố gắng giải thích các hệ thống tính toán, tôi nhận ra rằng “hộp đen” là một khái niệm trừu tượng mà ta sử dụng vì nó thuận tiện và vì ta thường không muốn tham gia vào các cuộc trò chuyện dài và phức tạp về toán học. Điều này cũng ổn thôi! Tôi dự đủ các bữa tiệc cocktail để mà hiểu rằng bạn không muốn tham gia vào một cuộc trò chuyện dài về toán. Nhưng nếu chúng ta định đưa ra các quyết định xã hội bằng thuật toán, thì chúng ta không cần giả vờ rằng chúng không thể giải thích được.
Một trong những điều mà tôi cố gắng ghi nhớ là có nhiều điều trên thế giới chưa được làm rõ, và có nhiều điều mà tôi chưa biết. Khi viết về các hệ thống phức tạp, tôi cố gắng làm rõ sự khác biệt giữa hai điều trên là gì.
Khi ta viết về các hệ thống máy học, thật hấp dẫn khi không đi sâu vào vấn đề này. Nhưng chúng ta đều biết rằng các hệ thống này đang phân biệt đối xử. Đã qua rồi cái thời mà các phóng viên chỉ biết nói "Ồ, chúng tôi không biết những vấn đề tiềm ẩn trong hệ thống là gì". Chúng ta có thể đoán những vấn đề tiềm ẩn là gì và đặt ra những câu hỏi thẳng thắn. Hệ thống này đã được kiểm nghiệm là có định kiến với người khuyết tật, phân biệt giới tính, hay phân biệt chủng tộc không? Hầu hết câu trả lời đều là không, và điều đó cần phải thay đổi.
thực hiện bởi Tate Ryan-Mosley
All rights reserved