Apple cho biết hiện đang tạm dừng kế hoạch quét các thiết bị của người dùng để tìm các tài liệu về lạm dụng tình dục trẻ em (CSAM), vốn đang nhận các phản hồi tiêu cực từ cộng đồng bảo vệ quyền riêng tư.

“Dựa trên phản hồi từ khách hàng, nhóm vận động, nhà nghiên cứu và những người khác, chúng tôi đã quyết định dành thêm thời gian trong những tháng tới để thu thập thông tin đầu vào và thực hiện các cải tiến trước khi phát hành các tính năng an toàn cho trẻ em cực kỳ quan trọng này”, nhà sản xuất iPhone cho biết trong một tuyên bố trên trang web của mình.
Những thay đổi ban đầu dự kiến sẽ xuất hiện trên iOS 15 và macOS Monterey vào cuối năm nay.
Vào tháng 8, Apple đã công bố chi tiết một số tính năng mới nhằm giúp hạn chế sự lây lan của CSAM trên nền tảng của mình, bao gồm quét thư viện iCloud Photoscủa người dùng để tìm nội dung bất hợp pháp, Communication Safety trong ứng dụng Messages để cảnh báo trẻ em và cha mẹ của chúng khi nhận hoặc gửi ảnh khiêu dâm, và hướng dẫn mở rộng trong Siri và Search khi người dùng cố gắng thực hiện tìm kiếm các chủ đề liên quan đến CSAM.
Cái gọi là công nghệ NeuralHash sẽ hoạt động bằng cách đối sánh ảnh trên iPhone, iPad và Mac của người dùng ngay trước khi chúng được tải lên iCloud Photos với cơ sở dữ liệu về hình ảnh lạm dụng tình dục trẻ em đã biết do Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC) ) mà không cần phải load các hình ảnh hoặc thu thập nội dung của chúng. Các tài khoản iCloud bị phát hiện sử dụng các hình ảnh trùng khớp với 30 hàm băm được so sánh sẽ được xem xét thủ công, vô hiệu hóa hồ sơ của họ và báo cáo cho cơ quan thực thi pháp luật.
Biện pháp này nhằm đảm bảo giữa việc bảo vệ quyền riêng tư của người dùng và đáp ứng các yêu cầu ngày càng tăng từ các cơ quan chính phủ trong các cuộc điều tra liên quan đến khủng bố và khiêu dâm trẻ em – và mở rộng ra, đưa ra giải pháp cho cái gọi là vấn đề “đen tối” mà bọn tội phạm lợi dụng bảo vệ mã hóa để che giấu các hoạt động lậu của họ.
Tuy nhiên, giải pháp này ngay lập tức đã vấp phải phản ứng dữ dội từ Tổ chức Biên giới Điện tử (EFF). Theo đó, EFF cho biết gã khổng lồ công nghệ đang cố gắng tạo ra một hệ thống giám sát ngay trên thiết bị của người dùng. Bên cạnh đó, Apple cũng đã chuẩn bị kỹ lưỡng các tài liệu mô tả. Tuy nhiên, backdoor thì vẫn là backdoor.
Nhưng trong một email được lưu hành nội bộ tại Apple, các nhà hoạt động về quyền trẻ em đã bác bỏ những lời phàn nàn của các nhà hoạt động quyền riêng tư và các nhà nghiên cứu bảo mật vì cho rằng đây chỉ là các ý kiến của thiểu số.
Kể từ đó, Apple đã thiết kế hệ thống nhằm giảm thiểu các rủi ro có thể xảy ra và tránh việc sử dụng tính năng này theo yêu cầu của các cơ quan chính phủ. Công ty cho biết: “Chính xác hơn, công nghệ này chỉ giới hạn trong việc phát hiện CSAM được lưu trữ trên iCloud và chúng tôi sẽ không chấp nhận yêu cầu của chính phủ để mở rộng nó”.
Tuy nhiên, những người ủng hộ về quyền riêng tư vẫn có lý do để lo ngại rằng quá trình quét dữ liệu trên thiết bị của người dùng có thể dẫn đến việc xâm phạm quyền riêng tư và nó có thể được mở rộng để cung cấp một bản thiết kế nhằm phá vỡ mã hóa đầu cuối giữa các thiết bị.
“Đề xuất của tôi với Apple: (1) nói chuyện với cộng đồng kỹ thuật và chính sách trước khi bạn làm bất cứ điều gì bạn định làm. Nói chuyện với công chúng. Đây không phải là một Touch Bar mới lạ mắt: đó là một thỏa hiệp quyền riêng tư. ảnh hưởng đến 1 tỷ người dùng, “giáo sư Johns Hopkins và nhà nghiên cứu bảo mật Matthew D. Green đã tweet.
“Hãy rõ ràng về lý do tại sao bạn đang quét và những gì bạn đang quét. Từ việc không quét gì (trừ tệp đính kèm trong email) đến việc quét thư viện ảnh riêng tư của mọi người là một phạm trù rất lớn. Bạn cần phải biện minh cho những báo cáo như thế này”, Green nói thêm.
Nguồn: THN