Apple dự kiến ra mắt tính năng này vào cuối năm nay, nhưng hiện tại đang vấp phải sự phản đối của các chuyên gia bảo mật và quyền riêng tư.

Cuối năm nay, Apple sẽ tung ra một công nghệ cho phép công ty phát hiện và báo cáo các hình ảnh lạm dụng tình dục trẻ em đã biết cho cơ quan thực thi pháp luật theo cách mà hãng cho rằng sẽ bảo vệ quyền riêng tư của người dùng.
Theo đó, nhà sản xuất iPhone cho biết họ dự định bắt đầu quét phía máy client các hình ảnh được chia sẻ qua mọi thiết bị Apple để tìm nội dung lạm dụng trẻ em đã biết khi chúng được tải lên iCloud Photos, ngoài việc tận dụng máy học trên thiết bị để kiểm tra tất cả iMessage hình ảnh được gửi hoặc nhận bởi các tài khoản trẻ vị thành niên (dưới 13 tuổi) để cảnh báo cha mẹ về những bức ảnh khiêu dâm được chia sẻ qua nền tảng nhắn tin.
Hầu hết các dịch vụ đám mây – Dropbox, Google và Microsoft – đã quét các tệp của người dùng để tìm nội dung có thể vi phạm điều khoản dịch vụ của họ hoặc có các tệp bất hợp pháp, chẳng hạn như CSAM. Nhưng Apple từ lâu đã phản đối việc quét tệp của người dùng trên dịch vụ đám mây bằng cách cung cấp cho người dùng tùy chọn mã hóa dữ liệu của họ trước khi dữ liệu đến máy chủ iCloud của Apple.
Hơn nữa, Apple cũng có kế hoạch cập nhật Siri và Search để can thiệp khi người dùng cố gắng thực hiện tìm kiếm các chủ đề liên quan đến CSAM, cảnh báo rằng “sự quan tâm đến chủ đề này là có hại và có vấn đề.”
“Messages sử dụng máy học trên thiết bị để phân tích tệp đính kèm hình ảnh và xác định xem một bức ảnh có khiêu dâm hay không”, Apple lưu ý. “Tính năng này được thiết kế để Apple không có quyền truy cập vào các tin nhắn.” Tính năng này được gọi là Communication Safety, được cho là một cài đặt tuỳ chọn mà cha mẹ phải bật thông qua tính năng Family Sharing.

Cách phát hiện tài liệu lạm dụng tình dục trẻ em
Việc phát hiện các hình ảnh CSAM đã biết bao gồm việc thực hiện so sánh trên thiết bị bằng cách sử dụng cơ sở dữ liệu về các hàm băm hình ảnh CSAM đã biết do Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC) và các tổ chức an toàn trẻ em khác trước khi các bức ảnh được tải lên đám mây. “NeuralHash”, như hệ thống được gọi, được cung cấp bởi một công nghệ mật mã được gọi là giao điểm tập hợp riêng. Tuy nhiên, điều đáng chú ý là trong khi quá trình quét diễn ra tự động, tính năng này chỉ hoạt động khi tính năng chia sẻ ảnh iCloud được bật.
Hơn nữa, Apple dự kiến sẽ sử dụng một nguyên tắc mật mã khác được gọi là chia sẻ bí mật ngưỡng cho phép nó “diễn giải” nội dung nếu tài khoản iCloud Photos vượt qua ngưỡng hình ảnh lạm dụng trẻ em đã biết, sau đó nội dung được xem xét thủ công để xác nhận có khớp và nếu có, hãy vô hiệu hóa tài khoản của người dùng, báo cáo tài liệu cho NCMEC và chuyển cho cơ quan thực thi pháp luật.
Các nhà nghiên cứu bày tỏ quan ngại về quyền riêng tư
Sáng kiến CSAM của Apple đã khiến các nhà nghiên cứu bảo mật bày tỏ sự lo lắng rằng nó có thể bị ảnh hưởng bởi một nhiệm vụ và được mở rộng để phát hiện các loại nội dung khác có thể có ý nghĩa chính trị và an toàn, hoặc thậm chí đóng khung những cá nhân vô tội bằng cách gửi cho họ những hình ảnh vô hại nhưng độc hại được thiết kế để trùng khớp với nội dung khiêu dâm trẻ em.
Edward Snowden đã tweet rằng, bất chấp mục đích tốt của dự án, những gì Apple đang triển khai là “giám sát hàng loạt”, trong khi giáo sư mật mã của Đại học Johns Hopkins và chuyên gia bảo mật Matthew Green nói, “vấn đề là mã hóa là một công cụ mạnh mẽ. cung cấp quyền riêng tư và bạn không thể thực sự có quyền riêng tư mạnh trong khi vẫn giám sát mọi hình ảnh mà mọi người gửi. “

Tờ New York Times, trong một cuộc điều tra năm 2019, tiết lộ rằng có kỷ lục 45 triệu hình ảnh và video trực tuyến về lạm dụng tình dục trẻ em đã được báo cáo trong năm 2018, trong đó Facebook Messenger chiếm gần 2/3.
Những thay đổi sắp xảy ra cũng đánh dấu phần nào bộ mặt của Apple, cùng với WhatsApp thuộc sở hữu của Facebook, đã cố tình làm suy yếu các phương thức mã hóa và mở cửa hệ thống của họ. Hồi năm ngoái, Reuters đã báo cáo rằng công ty đã từ bỏ kế hoạch mã hóa bản sao lưu đầy đủ của người dùng lên iCloud vào năm 2018 sau khi Cục Điều tra Liên bang Hoa Kỳ (FBI) nêu ra lo ngại rằng làm như vậy sẽ cản trở các cuộc điều tra.
“Bóc lột trẻ em là một vấn đề nghiêm trọng và Apple không phải là công ty công nghệ đầu tiên bẻ cong lập trường bảo vệ quyền riêng tư của mình trong nỗ lực chống lại nó. Nhưng sự lựa chọn đó sẽ phải trả giá đắt cho quyền riêng tư của người dùng nói chung”, Electronic Frontier Foundation (EFF) cho biết trong một tuyên bố, lưu ý rằng động thái của Apple có thể phá vỡ các biện pháp bảo vệ mã hóa và mở ra cánh cửa cho việc lạm dụng rộng rãi hơn..
Các nỗ lực CSAM dự kiến sẽ triển khai tại Mỹ trong những tháng tới như một phần của iOS 15 và macOS Monterey, nhưng vẫn còn phải xem nếu hoặc khi nào, nó sẽ có sẵn trên toàn thế giới. Vào tháng 12 năm 2020, Facebook đã buộc phải tắt một số công cụ phát hiện lạm dụng trẻ em ở châu Âu để đáp ứng với những thay đổi gần đây đối với chỉ thị về quyền riêng tư điện tử của ủy ban châu Âu cấm có hiệu quả các hệ thống tự động quét hình ảnh lạm dụng tình dục trẻ em và nội dung bất hợp pháp khác mà không có người dùng ‘
Nguồn: THN