- Nhiều người thất bại khi xin việc mà không biết lý do thực sự là vì một thuật toán AI đã “phán xét” rằng họ có nguy cơ gây rủi ro — từ khả năng gia nhập công đoàn đến việc lập gia đình.
- Dù người dùng giữ kín thông tin cá nhân, AI vẫn dự đoán hành vi của họ dựa trên dữ liệu từ “những người giống bạn”. Đây là xu hướng phổ biến trong tuyển dụng, ngân hàng, cảnh sát và mạng xã hội.
- Ví dụ: thuật toán “predictive policing” khiến cảnh sát quay lại tuần tra các khu phố từng có nhiều vụ án, tạo vòng lặp thiên vị.
- Giải pháp “differential privacy” ra đời để bảo vệ danh tính cá nhân, được Apple và điều tra dân số Mỹ năm 2020 áp dụng, bằng cách thêm yếu tố ngẫu nhiên vào dữ liệu mà vẫn giữ nguyên kết quả tổng thể.
- Tuy nhiên, các mô hình AI vẫn có thể rút ra mẫu hành vi mạnh mẽ từ dữ liệu chung, như hệ thống ImmigrationOS của Palantir giúp ICE (Mỹ) truy tìm người nhập cư, hay các thuật toán “Lavender” và “Where’s Daddy?” được dùng trong xung đột Gaza để xác định mục tiêu.
- Tác giả ví von: dữ liệu cá nhân giống khí thải – riêng lẻ thì nhỏ, nhưng cộng lại có thể hủy diệt hệ thống xã hội nếu AI bị định hướng sai.
- Ông đề xuất hai bước bảo vệ tập thể: minh bạch (công ty phải công khai mục tiêu thuật toán) và tham gia dân chủ (người bị ảnh hưởng được góp tiếng, qua hội đồng công dân hoặc nhóm lao động).
- Mục tiêu không phải là AI thông minh hơn, mà là quyền kiểm soát dữ liệu thuộc về công chúng, thay vì chỉ phục vụ lợi ích tư nhân.
- 📌 AI đang âm thầm quyết định việc làm, tín dụng, thông tin và thậm chí quyền tự do của con người. Dù người dùng giữ kín thông tin cá nhân, AI vẫn dự đoán hành vi của họ dựa trên dữ liệu từ “những người giống bạn”. Đây là xu hướng phổ biến trong tuyển dụng, ngân hàng, cảnh sát và mạng xã hội. Để tránh “phơi nhiễm dữ liệu tập thể”, xã hội cần cơ chế minh bạch và tham gia công dân trong thiết kế thuật toán. Cảnh báo: tương lai AI không phụ thuộc vào sức mạnh chip, mà vào “ai kiểm soát dữ liệu và giá trị nào dẫn dắt máy móc”.
Tổng hợp
