Báo chí phơi bày cách kiểm duyệt nội dung của Facebook

Linh Chi 23/05/2017 07:30

Các quy định và hướng dẫn nội bộ của Facebook để quyết định xem khoảng 2 tỷ người dùng của họ có thể đăng tải nội dung gì lần đầu tiên bị báo chí phương Tây tiết lộ, trong một cuộc điều tra có thể làm dấy lên cuộc tranh luận toàn cầu về vai trò và đạo đức của mạng xã hội khổng lồ này.

Facebook được cho là không thể quản lý nổi lượng nội dung khổng lồ mà họ phải tiếp nhận mỗi ngày. (Nguồn: Telegraph).

Thời gian qua, Facebook đã hứng chịu rất nhiều lời chỉ trích liên quan tới cách mà họ lọc các nội dung có tính chất bạo lực và gây sốc. Một loạt bài viết được hãng tin Guardian của Anh công bố hôm 22//5 vừa qua đã cho thấy mạng xã hội khổng lồ này đang phải vật lộn với việc kiểm duyệt các video có nội dung về tự sát hay giết người…

Báo cáo trên được đưa ra dựa vào các tài liệu bị rò rỉ trong đó có các quy định và hướng dẫn nội bộ mà Facebook sử dụng để lọc nội dung được đăng tải từ người dùng, mà bên trong hàm chứa yếu tố bạo lực, các phát biểu mang tính thù hận, ảnh nude, tự làm hại bản thân (như tự sát) và tuyên truyền cho khủng bố… Báo cáo cho thấy cuộc vật lộn của công ty này trong việc kiểm duyệt các nội dung độc hại sao cho không bị chỉ trích là hạn chế quyền tự do.

Theo Guardian, các tài liệu hướng dẫn trên “được chuyển tới đội ngũ điều hành của Facebook trong năm ngoái”. Facebook đã từ chối xác nhận thông tin mà Guardian đăng tải, nhưng cũng không phản bác lại nó.

“Chúng tôi làm việc chăm chỉ để giúp cho Facebook an toàn nhất có thể trong khi vẫn duy trì tự do ngôn luận” - Monika Bickert, giám đốc quản lý chính sách toàn cầu của Facebook, nói trong một tuyên bố đưa ra hôm đầu tuần - “Điều này cần có rất nhiều thời gian suy nghĩ và phải đối phó với các câu hỏi khó”.

Hồi đầu tháng, ông chủ Facebook Mark Zuckerberg từng tuyên bố rằng công ty của ông đang thuê thêm 3.000 nhân viên để hỗ trợ “kiểm duyệt hàng triệu bài viết mà chúng tôi nhận được mỗi tuần”.

Tuy nhiên, Guardian dẫn lời một nhà điều hành giấu tên của Facebook cho hay phần lớn những người kiểm duyệt trong đội ngũ của công ty này tỏ ra quá mệt mỏi vì khối lượng công việc khổng lồ. Một số nhà điều hành còn tiết lộ rằng, kiểm duyệt các hình ảnh có nội dung về giới tính, ảnh nude, chính là việc khó khăn nhất của họ.

Theo báo cáo mà Guardian công bố, các tài liệu trên hướng dẫn đội ngũ kiểm duyệt của Facebook phải xóa các bài phát biểu có nội dung kiểu như “ai đó đã bắn ông Trump” bởi trên cương vị Tổng thống của nước Mỹ, ông là một danh mục cần được bảo vệ. Thế nhưng, các bình luận kiểu như “Tôi hy vọng ai đó giết bạn”… lại vẫn được cho phép đăng tải trên mạng xã hội này bởi chúng không được xem là đáng tin.

Bên cạnh đó, các đoạn video đăng tải trên Facebook không phải lúc nào cũng bị gỡ bỏ bởi chúng được công ty này coi là mang tính chất cảnh báo người dùng đối với các vấn đề như sức khỏe tâm thần hay các tội ác chiến tranh, theo hướng dẫn nội bộ bị rò rỉ của Facebook. Các đoạn video kiểu này, thay vào đó, được đánh dấu là có nội dung nên được cân nhắc trước khi xem hay được giấu đi đối với một nhóm người dùng nhất định.

Đặc biệt là các đoạn livestream (truyền hình trực tiếp) có cảnh tự làm hại bản thân, hay tự sát, cũng được Facebook cho phép đăng tải.

Theo tài liệu rò rỉ, Facebook cho phép người dụng livestream các cảnh tự làm hại bản thân hoặc cảnh tự sát bởi họ không muốn kiểm duyệt hoặc trừng phạt những người đang trong tình trạng tuyệt vọng. Nếu một người không được ai giúp đỡ nữa, đoạn clip sẽ bị gỡ xuống, trừ khi vụ việc này được Facebook xem là có giá trị về mặt tin tức.

Ngoài ra, các nhà điều hành Facebook cũng được khuyên là nên phớt lờ những lời đe dọa tự sát được thể hiện thông qua Hashtag hay biểu tượng cảm xúc, hoặc khi biện pháp được đưa ra không thành công.

Facebook trước đây từng tuyên bố rằng họ ở một vị trí độc nhất để có thể ngăn chặn làn sóng tự tử. Hồi tháng 3 vừa qua, hãng này tuyên bố đang thử nghiệm một tính năng trí tuệ nhân tạo để phát hiện nguy cơ “tự sát hoặc tự gây thương tích” trong các bài viết, dựa trên các bài viết trước đó của người dùng…

Một vấn đề đáng chú ý khác trong bản hướng dẫn nội bộ này chính là kiểm duyệt ảnh nude, được đưa ra sau khi giới phê bình hồi năm ngoái lên án Facebook vì gỡ bỏ bức ảnh “Em bé Napalm”.

Hiện tại, theo hướng dẫn nội bộ của Facebook, các bức ảnh “khỏa thân của trẻ em trong bối cảnh diệt chủng” sẽ không được cho phép đăng tải. Các bức ảnh nude hay có cảnh tình dục vì mục đích nghệ thuật cá nhân được cho phép, trong khi các phiên bản kỹ thuật số của chúng lại không được duyệt.

Việc tung các bức ảnh khỏa thân với mục đích trả thù trên mạng xã hội này cũng sẽ bị gỡ bỏ. Facebook hiện xác nhận vấn đề trên khi có hoạt động chia sẻ các bức ảnh khỏa thân của ai đó một cách công khai hoặc với những người mà nạn nhân không muốn chia sẻ bức ảnh đó.

Linh Chi