Sự việc trở nên đáng chú ý sau khi các chuyên gia bảo mật phát hiện một số đoạn hội thoại ChatGPT – bao gồm cả tâm sự cá nhân, thảo luận công việc và thông tin nhạy cảm – có thể được truy cập dễ dàng thông qua công cụ tìm kiếm. Không chỉ là những câu lệnh mẫu hay hướng dẫn kỹ thuật, nhiều cuộc trò chuyện còn chứa nội dung riêng tư mà người dùng tin rằng chỉ diễn ra trong không gian kín.
Nguyên nhân bắt nguồn từ tính năng "Share chat" của OpenAI, cho phép chia sẻ nội dung trò chuyện qua đường dẫn. Nếu người dùng chọn tùy chọn "Make this chat discoverable", hệ thống sẽ tạo liên kết công khai, có thể được Google lập chỉ mục. Tuy nhiên, phần giao diện được cho là chưa làm rõ đầy đủ tính công khai của nội dung, khiến nhiều người dùng lầm tưởng họ chỉ đang gửi đường dẫn riêng tư cho bạn bè hoặc đồng nghiệp.
Ngay khi vụ việc được phát hiện, OpenAI đã phản hồi bằng cách tạm ngừng chức năng chia sẻ có thể tìm kiếm, đồng thời hợp tác với Google để loại bỏ các liên kết. Theo Fast Company, đã có hơn 4.500 đường dẫn rò rỉ, làm dấy lên mối lo ngại về khả năng bảo vệ dữ liệu người dùng trong thời đại AI phát triển mạnh mẽ.
Nhiều người đã sử dụng ChatGPT như một công cụ hỗ trợ cá nhân trong các tình huống nhạy cảm như soạn email, ghi nhật ký, lập kế hoạch kinh doanh, chia sẻ câu chuyện cá nhân hay thậm chí là mô tả bệnh lý. Vụ việc khiến người dùng hoài nghi về mức độ trách nhiệm của các công ty AI trong việc đảm bảo tính bảo mật của dữ liệu.
CEO OpenAI – Sam Altman – từng thừa nhận rằng các đoạn hội thoại với ChatGPT không được bảo vệ bởi các chuẩn mực pháp lý truyền thống về quyền riêng tư. Trong bối cảnh AI đang thâm nhập sâu vào lĩnh vực sức khỏe tinh thần, giáo dục và đời sống cá nhân, việc thiếu khung pháp lý bảo vệ dữ liệu khiến nguy cơ rò rỉ thông tin trở nên nghiêm trọng hơn bao giờ hết.
Đáng chú ý, đây không phải là lần đầu OpenAI bị đặt vào thế khó vì các lo ngại bảo mật. Trước đó, các chuyên gia từng cảnh báo rằng các mô hình như GPT có thể “vô tình” tái hiện nội dung từ các cuộc trò chuyện trước, đặc biệt nếu bị khai thác bằng kỹ thuật "reconstruction" – cho phép truy xuất dữ liệu gián tiếp. Điều này cho thấy AI không hoàn toàn "trắng" trong mỗi lần khởi động mới, và nguy cơ rò rỉ thông tin cá nhân vẫn tiềm ẩn nếu không có cơ chế kiểm soát phù hợp.
ChatGPT cùng các công cụ AI khác đã mở ra kỷ nguyên mới về tương tác giữa người với máy, nâng cao hiệu suất làm việc và khả năng sáng tạo. Tuy nhiên, sự cố lần này là lời cảnh tỉnh rằng không có dữ liệu nào thực sự riêng tư nếu người dùng thiếu cẩn trọng và các công ty không đặt đúng trọng tâm vào bảo vệ quyền riêng tư.
Theo Business Insider.
LA