Facebook sử dụng AI để ngăn chặn các bài đăng nguy hiểm và sai sự thật

Facebook sử dụng AI (Artificial Intelligence) và Machine Learning trong việc ngăn chặn các bài đăng nguy hiểm, những nội dung sai sự thật, mang tính căm thù; và chủ động phát hiện những người có ý định tự tử.

Trong những năm qua, Facebook phải hứng chịu khá nhiều lời chỉ trích khi nhiều người cho rằng công ty này không đủ kiên quyết và mạnh mẽ trong việc ngăn chặn những lời nói mang tính căm thù, quấy rối trực tuyến và lan truyền các thông tin sai lệch thực tế.

Công bằng mà nói, nhiệm vụ kiểm soát hoạt động của 1,62 tỷ người dùng hàng ngày tạo ra 4 petabyte dữ liệu; bao gồm 350 triệu bức ảnh mỗi ngày là một nhiệm vụ không hề nhỏ. Facebook cũng đã phải nỗ lực rất nhiều để trở thành nền tảng xã hội lớn nhất thế giới.

Tuy nhiên, công ty vẫn bị chỉ trích vì cho phép nhiều nhóm gây thù hận phát tán các bài đăng có tính chất công kích và đe dọa; cũng như cho phép các nhóm theo thuyết âm mưu cực hữu như QAnon tự do truyền bá các cáo buộc chính trị sai trái. Các phân tích học thuật và chính phủ về cuộc bầu cử tổng thống năm 2016 đã phát hiện ra bằng chứng về sự can thiệp lớn của các tác nhân trong và ngoài nước; và có vẻ như những nỗ lực tương tự cũng đã được thực hiện trong cuộc bầu cử năm 2020.

Facebook sử dụng 15.000 người kiểm duyệt nội dung để xem xét các báo cáo về các hành vi sai trái; từ hoạt động phi chính trị, quấy rối đến các mối đe dọa khủng bố nhằm bóc lột trẻ em. Nhìn chung, họ đã giải quyết các báo cáo theo thứ tự thời gian; thường xuyên cho phép các cáo buộc nghiêm trọng hơn không được giải quyết trong nhiều ngày trong khi các vấn đề ít hơn được xem xét.

Vào thứ Sáu tuần trước, Facebook đã thông báo rằng họ sẽ đưa AI và Machine Learning vào quy trình kiểm duyệt. Nó sẽ sử dụng các thuật toán để phát hiện các vấn đề nghiêm trọng nhất và giao chúng cho người kiểm duyệt. Người kiểm duyệt phần mềm sẽ tiếp tục xử lý các hành vi lạm dụng cấp thấp hơn như vi phạm bản quyền và spam.

Facebook cho biết họ sẽ đánh giá các bài đăng có vấn đề theo ba tiêu chí: độ lan truyền, mức độ nghiêm trọng và khả năng chúng vi phạm quy tắc. Ví dụ: một bài đăng có nội dung tục tĩu đe dọa bạo lực tại địa điểm bất ổn chủng tộc sẽ được ưu tiên hàng đầu; hoặc được xóa tự động bằng máy; hoặc được giao cho người kiểm duyệt để đánh giá ngay lập tức.

Ryan Barnes, giám đốc sản phẩm thuộc nhóm Chính trực cộng đồng của Facebook cho biết: “Tất cả các vi phạm nội dung vẫn nhận được một số đánh giá đáng kể của con người. Chúng tôi sẽ sử dụng hệ thống này để ưu tiên nội dung tốt hơn. Chúng tôi hy vọng sẽ sử dụng tự động hóa nhiều hơn khi nội dung vi phạm ít nghiêm trọng hơn; đặc biệt nếu nội dung không có tính lan truyền hoặc được chia sẻ nhanh chóng bởi một số lượng lớn người.”

Facebook đã bị cáo buộc xử lý sai tài khoản trong những vụ xáo trộn cấp cao gần đây. Trong một ví dụ, công ty đã bị kiện sau vụ xả súng chết người bởi những người ở Kenosha, Wisconsin; sau các cuộc biểu tình phản đối các cảnh sát đã bắn trọng thương một người đàn ông da đen; sau khi bắn bốn phát vào lưng anh ta trong một vụ bắt giữ. Đơn kiện cáo buộc Facebook không xóa được các trang của các nhóm thù địch liên quan đến các vụ xả súng cảnh giác.

Trong đợt đại dịch năm qua, một nghiên cứu của một tổ chức phi lợi nhuận đã tìm thấy 3,8 tỷ lượt xem trên Facebook về nội dung sai lệch liên quan đến COVID-19.

Đôi khi, những lời chỉ trích được đưa ra bởi những người kiểm duyệt Facebook quá thận trọng. Tháng 6 năm ngoái, tờ The Guardian phàn nàn rằng độc giả cố gắng lưu hành một bức ảnh lịch sử mà nó công bố đã bị Facebook chặn và đưa ra cảnh báo. Hình ảnh những người đàn ông thổ dân gần như khỏa thân bị xích ở Tây Úc; được chụp vào những năm 1890; được công bố để đáp lại lời phủ nhận của Thủ tướng Úc Scott Morrison rằng đất nước của ông không bao giờ tham gia vào chế độ nô lệ. Morrison đã rút lại nhận xét của mình sau khi bài báo và bức ảnh được công bố. Facebook sau đó đã xin lỗi; vì đã phân loại sai bức ảnh là ‘ảnh khỏa thân’ không phù hợp.

Các quan chức của Facebook cho biết việc sử dụng AI và Machine Learning là một phần trong nỗ lực không ngừng nhằm ngăn chặn việc lan truyền thông tin nguy hiểm; gây khó chịu và sai lệch; trong khi đảm bảo các bài đăng hợp pháp sẽ không bị kiểm duyệt.

Một ví dụ về những thách thức mà Facebook phải đối mặt là việc tạo ra một nhóm biểu tình khổng lồ trong một đêm để phản đối số lượng bầu cử năm 2020. Một nhóm Facebook yêu cầu kiểm phiếu lại đã thu hút được 400.000 thành viên chỉ trong vòng vài ngày. Và Facebook đã không chặn trang.

Mặc dù không có gì là bất hợp pháp khi yêu cầu kiểm phiếu lại; nhưng làn sóng thông tin sai lệch liên quan đến cáo buộc lạm dụng bỏ phiếu; các cáo buộc đã bị các quan chức ở tất cả 50 bang và đảng Cộng hòa cũng như đảng Dân chủ bác bỏ một cách rõ ràng vào tuần trước; là một lời nhắc nhở đáng lo ngại về thông tin sai lệch để định hình quan điểm chính trị.

Chris Palow, thành viên nhóm Integrity của Facebook, cho biết: “Facebook sẽ sử dụng AI và những người đánh giá trực tiếp thông qua con người để ít mắc sai lầm hơn”; vì “AI sẽ không bao giờ hoàn hảo.”

AI được đào tạo thế nào để ‘săn’ những tài khoản giả?  

Một trong những điều quan trọng nhất, theo cách mà nền tảng của Facebook đã được khai thác trong cuộc bầu cử tổng thống năm 2016; là cố gắng xác định và đóng cửa các tài khoản giả mạo. Rosen cho biết công ty sử dụng AI để xác định; và chặn hàng triệu tài khoản như vậy mỗi ngày; thường tại thời điểm tạo và trước khi những người đứng sau có thể sử dụng chúng cho bất kỳ hình thức gây hại nào. Facebook cũng đã triển khai một kỹ thuật AI mới nhằm tìm kiếm các tài khoản giả mạo có liên quan đến các vụ lừa đảo tài chính khác nhau. Ông nói rằng các hệ thống AI đã gỡ bỏ rất nhiều tài khoản lừa đảo trong nhiều năm qua.

Để làm như vậy, Rosen cho biết Facebook đã đào tạo các hệ thống AI để tìm kiếm các loại tín hiệu cho thấy bất hợp pháp: một tài khoản tiếp cận với nhiều tài khoản khác hơn bình thường; một khối lượng lớn hoạt động dường như tự động; và hoạt động dường như không bắt nguồn từ khu vực địa lý được liên kết với tài khoản.

Ngoài ra, Facebook đang tập trung nỗ lực khóa tài khoản của mình để xác định các tài khoản có vẻ như chúng sẽ được sử dụng cho các mục đích bất chính trong cuộc bầu cử năm 2016. Rosen nói: “Rất nhiều công việc này xoay quanh các tài khoản giả mạo,“ là một phần quan trọng trong trọng tâm của chúng tôi về an ninh bầu cử ”.

Bên cạnh đó, những bài viết mang tính căm thù đặt ra cho Facebook một thách thức cụ thể; một thách thức đòi hỏi sự nỗ lực tổng hợp của AI và nhóm tiêu chuẩn cộng đồng của công ty.

Đó là bởi vì ngữ cảnh là một phần quan trọng để hiểu liệu điều gì đó thực sự là ngôn từ kích động thù địch. Đó là lý do tại sao hệ thống hiện tại bao gồm cả AI sẽ tự động ‘gắn cờ’ bài viết có nội dung mang tính căm thù tiềm ẩn; và theo dõi quá trình đánh giá thủ công.

Trong các lĩnh vực khác, chẳng hạn như ảnh khỏa thân hoặc hình ảnh bạo lực; hệ thống AI của Facebook phụ thuộc vào thị giác máy tính và mức độ tự tin để xác định có xóa nội dung hay không. Nếu độ tin cậy cao, nội dung sẽ tự động bị xóa; nếu nó thấp, hệ thống sẽ yêu cầu xem xét thủ công.

Facebook cũng tự hào về cách hệ thống AI của họ có thể loại bỏ hầu hết các nội dung khủng bố. Nó tuyên bố rằng 99% nội dung ISIS hoặc Al-Qaeda bị xóa ngay cả trước khi được người dùng báo cáo.

Facebook áp dụng AI để chủ động phát hiện những người có ý định tự tử.

Người dùng đã báo cáo bài đăng cũng sẽ được cung cấp tùy chọn liên hệ với người bạn của người gặp nạn; liên hệ với một người bạn khác để được hỗ trợ thêm hoặc gọi đường dây trợ giúp tự tử. Ngoài việc đưa ra các khuyến nghị về việc chuyển sự chú ý của họ sang các hoạt động hiệu quả như nghệ thuật, đọc sách và nấu ăn; Facebook cũng sẽ tìm một cố vấn chăm sóc bản thân cho người đó khi cần thiết.

Theo Vanessa Callison-Burch, Giám đốc sản phẩm của Facebook; công cụ AI được định cấu hình bằng cách sử dụng dữ liệu từ các bài đăng lịch sử ẩn danh trên facebook; và video trực tiếp trên facebook với lớp nhận dạng mẫu cơ bản; để dự đoán thời điểm một số người có thể bày tỏ ý nghĩ tự tử hoặc tự làm hại bản thân. Khi hệ thống xác định một bài đăng hoặc chương trình phát trực tiếp trên Facebook là “bị gắn cờ đỏ” bằng cách sử dụng giá trị kích hoạt được xác định trước cho kết quả dự đoán; những bài đăng đó sẽ được chuyển đến những người đánh giá nội bộ của Facebook; những người này sẽ đưa ra quyết định cuối cùng là liên hệ với những người phản hồi đầu tiên.

Tất nhiên, mặc dù Facebook có niềm tin vào công nghệ AI của mình; nhưng họ muốn mọi người biết rằng các hệ thống không phải là ‘thuốc chữa bách bệnh’; và một số nỗ lực cần cải thiện nhiều hơn trong những năm tới.

Một ví dụ, cho rằng các hệ thống yêu cầu được tạo ra với một lượng lớn dữ liệu đào tạo, là nội dung bằng các ngôn ngữ ít phổ biến hơn.

Rosen nói: “Rất nhiều điều này vẫn còn nhiều năm nữa mới có hiệu lực đối với nhiều trường hợp vi phạm tiêu chuẩn cộng đồng”, “đó là lý do tại sao chúng tôi cần tiếp tục đầu tư”.

Xem thêm: 

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *