Các kỹ sư của Facebook đã phát triển một phương pháp mới để giúp họ có thể xác định và ngăn chặn kịp thời những hành vi gây hại của người dùng, như phát tán thư rác, lừa đảo người khác hoặc mua bán vũ khí, chất ma túy… bằng cách sử dụng trí tuệ nhân tạo để mô phỏng những hành vi này của người dùng, sau đó nghiên cứu về hành vi của trí tuệ nhân tạo và thử nghiệm các biện pháp khác nhau để ngăn chặn hành vi xấu đó.

Để thực hiện điều này, Facebook đã xây dựng một mô hình giả lập, có tên gọi WW (phát âm là “Dub Dub”), giống như một “thế giới song song” với mạng xã hội Facebook hoạt động ngoài đời thực. Hiện dự án đang được quản lý bởi Mark Harman, một kỹ sư phần mềm của Facebook và bộ phận trí tuệ nhân tạo của công ty này đặt tại London (Anh).

Facebook đang xây dựng một “thế giới song song”, người dùng được thay thế bằng robot, để giúp mô phỏng các hành vi của người dùng (Ảnh minh họa)

Harman cho biết WW là một công cụ cực kỳ linh hoạt, có thể được sử dụng để mô phỏng những hành vi xấu của người dùng trên Facebook, từ đó phát triển các tính năng mới để ngăn chặn và hạn chế các hành vi này. Các tính năng mới sẽ được thử nghiệm trong môi trường giả lập WW trước khi được triển khai thực tế đến người dùng.

Những người dùng của mạng xã hội Facebook ngoài đời thực sẽ được thay thế bằng những robot, điều hành bởi trí tuệ nhân tạo, trong mô hình giả lập của WW.

Ngoài đời thực, những kẻ lừa đảo trên Facebook thường nhắm đến những nhóm người dùng (group) để tìm kiếm những nạn nhân tiềm năng nhằm thực hiện các vụ lừa đảo. Do vậy, trong mô hình giả lập WW, các kỹ sư của Faceook đã tạo ra một nhóm các robot “ngây thơ” để mô phỏng những người dùng này, rồi tiếp tục xây dựng các robot mô phỏng những kẻ lừa đảo và nhắm đến những mục tiêu này.

Trong môi trường mô phỏng WW, các kỹ sư của Facebook đã huấn luyện để các robot “xấu” thực hiện hành vi lừa đảo những robot “ngây thơ”, sau đó đưa ra các giải pháp để ngăn chặn robot “xấu”, như hạn chế số lượng tin nhắn riêng tư và số bài đăng mỗi phút.

Trí tuệ nhân tạo trên các robot xấu sẽ có khả năng tư duy để thay đổi hành vi khi đối mặt với các biện pháp ngăn chặn và các nhà nghiên cứu sẽ kiểm tra xem các giải pháp ngăn chặn được đưa ra sẽ ảnh hưởng thế nào đến hành vi của các robot xấu.

Harman cho biết dự án WW được mô phỏng trực tiếp trên phiên bản thực của Facebook, thông qua cơ sở hạ tầng thực, do vậy mức độ thực tế của quá trình mô phỏng này là rất cao và giống như đang thử nghiệm ngay trên chính Facebook, ngoại trừ những người dùng đang được thay thế bằng robot và trí tuệ nhân tạo.

Hiện tại, WW vẫn đang ở giai đoạn nghiên cứu. Harman cho biết nhóm của mình vẫn đang tiếp tục chạy thử nghiệm các mô phỏng để sát với hành vi thực tế nhất của người dùng (cả người dùng bình thường lẫn những kẻ lừa đảo) để đảm bảo kết quả mô phỏng được chính xác, giúp có thể áp dụng hiệu quả hơn cho Facebook ngoài đời thực.

Dĩ nhiên, WW vẫn còn nhiều hạn chế và không thể mô phỏng những hành vi phức tạp của người dùng, nhưng bù lại, thế mạnh của WW là khả năng hoạt động trên quy mô lớn, cho phép Facebook chạy hàng ngàn mô phỏng để kiểm tra nhiều kịch bản và thử nghiệm nhiều giải pháp khác nhau mà không làm ảnh hưởng đến người dùng thực tế.

Facebook cho biết sẽ tiếp tục đào tạo các robot và trí tuệ nhân tạo bên trong WW để có thể đưa ra những hành vi mà ngay cả các kỹ sư của Facebook cũng không nghĩ đến, giúp mô phỏng chính xác hơn các hành vi phức tạp của người dùng.

“Hiện tại, trọng tâm của chúng tôi đã đào tạo các robot có thể bắt chước những điều xảy ra trên Facebook, nhưng trên thực tế, robot đã có thể làm được những điều mà chúng tôi chưa từng thấy trước đó”, Harman chia sẻ. “Đây thực sự là điều chúng tôi muốn bởi vì mục đích cuối cùng của chúng tôi muốn robot phát triển các hành vi xấu để có thể đưa ra các giải pháp ngăn chặn phù hợp”.



T.Thủy (nguồn VB/The Verge)
Theo Dân trí