Giới nghiên cứu thông tin sai lệch đưa ra cảnh báo về chatbot trí tuệ nhân tạo
Ngay sau khi ChatGPT được ra mắt vào cuối năm 2022, các nhà nghiên cứu đã phân tích nội dung loại chatbot này sẽ viết để trả lời những câu hỏi chứa nhiều thuyết âm mưu và thông tin sai sự thật. Dù được trình bày dưới dạng bài báo, tiểu luận hay kịch bản truyền hình thì kết quả mà ChatGPT đưa ra đều khiến các nhà nghiên cứu lo lắng đến mức phải lên tiếng một cách thẳng thắn.
ChatGPT được đánh giá sẽ trở thành công cụ lan truyền thông tin sai lệch mạnh mẽ nhất từng xuất hiện trên internet. (Ảnh minh họa: Reuters) |
Ông Gordon Crovitz, đồng Giám đốc điều hành của NewsGuard, một công ty theo dõi thông tin sai sự thật trên internet đánh giá: “Đây sẽ là công cụ lan truyền thông tin sai lệch mạnh mẽ nhất từng xuất hiện trên internet”.
“Giờ đây việc dựng lên một câu chuyện giả có thể được thực hiện ở quy mô lớn và thường xuyên hơn nhiều. Nó giống như việc có nhiều công ty trí tuệ nhân tạo góp phần tạo ra thông tin sai lệch”, ông Gordon Crovitz nói.
Ngày 30/11/2022, OpenAI – một công ty khởi nghiệp về trí tuệ nhân tạo có trụ sở tại thành phố San Francisco (Mỹ) đã chính thức cho người dùng đăng ký trải nghiệm miễn phí ChatGPT, một ứng dụng phần mềm được thiết kế để mô phỏng cuộc trò chuyện của con người.
Việc giải quyết các thông tin sai sự thật rất khó khăn trong trường hợp những thông tin này do con người tạo ra bằng cách “thủ công”. Giới nghiên cứu cũng dự báo, ChatGPT có thể làm cho thông tin sai sự thật trở nên rẻ hơn và dễ sản xuất hơn bởi số lượng lớn những người tin vào thuyết âm mưu và những người lan truyền thông tin sai lệch.
Theo các nhà nghiên cứu, các chatbot được thực hiện theo thời gian thực và đã được cá nhân hóa có thể lan truyền các thuyết âm mưu bằng những cách càng ngày càng đáng tin cậy và thuyết phục hơn; loại bỏ những lỗi sai con người thường mắc phải như lỗi cú pháp, dịch sai… Các nhà khoa học cũng cho biết, hiện chưa có biện pháp nào có thể ngăn chặn nguy cơ này một cách hiệu quả.
Trong nhiều năm qua, những chatbot ra đời trước ChatGPT đã được sử dụng để đưa bình luận và thư rác vào các diễn đàn trực tuyến và nền tảng mạng xã hội. Microsoft đã phải tạm dừng hoạt động của Tay trong vòng 24 giờ sau khi chatbot này được giới thiệu trên Twitter vào năm 2016 do có người đã cố tình “dạy” nó dùng ngôn ngữ phân biệt chủng tộc…
ChatGPT mạnh mẽ và tinh vi hơn nhiều so với các chatbot trước đây. Đối với những câu hỏi chứa nhiều thông tin sai lệch, nó có thể tạo ra các biến thể rõ ràng, thuyết phục về nội dung trong vòng vài giây mà không tiết lộ nguồn thông tin.
Mới đây, Microsoft và OpenAI đã giới thiệu công cụ tìm kiếm Bing và trình duyệt web mới có thể sử dụng công nghệ chatbot để lên kế hoạch cho các kỳ nghỉ, dịch văn bản hoặc làm nghiên cứu.
Từ lâu, các nhà nghiên cứu của OpenAI đã lo lắng về việc chatbot rơi vào tay những kẻ xấu. Trong một bài báo năm 2019, họ đã bày tỏ quan ngại về “những năng lực của chatbot có thể hạ chi phí của các chiến dịch thông tin sai lệch” và giúp theo đuổi mục tiêu ác ý như gây hỗn loạn hoặc hiểu nhầm…
Vào năm 2020, các nhà nghiên cứu tại Trung tâm Chính sách khủng bố, chủ nghĩa cực đoan và chống khủng bố tại Viện Nghiên cứu quốc tế Middlebury (Mỹ) đã phát hiện rằng, GPT-3 – công nghệ cơ bản của ChatGPT, có “kiến thức rất sâu sắc về các cộng đồng cực đoan”.
Tháng 12/2022, Arvind Narayanan, Giáo sư khoa học máy tính tại Đại học Princeton, đã viết trên Twitter rằng, ông đã hỏi ChatGPT một số câu hỏi cơ bản về bảo mật thông tin mà ông đã đặt ra cho các sinh viên trong một kỳ thi và chatbot này đã đưa ra những câu trả lời có vẻ hợp lý nhưng thực ra lại vô nghĩa.
“Điều nguy hiểm là bạn không thể biết khi nào nó sai trừ phi bạn đã biết câu trả lời. Thật đáng lo ngại, tôi đã phải xem xét các giải pháp tham khảo của mình để chắc chắn rằng tôi không bị mất trí”, Arvind Narayanan chia sẻ.
Một số công ty đã sử dụng chatbot đa ngôn ngữ để hỗ trợ khách hàng mà không cần đến người phiên dịch. (Ảnh minh họa: Reuters) |
Các nhà nghiên cứu cũng lo lắng rằng công nghệ này có thể bị lợi dụng từ nước ngoài với ý định lan truyền thông tin sai lệch bằng tiếng Anh. Trên thực tế, một số công ty đã sử dụng chatbot đa ngôn ngữ để hỗ trợ khách hàng mà không cần đến người phiên dịch.
Theo phát hiện của Check Point Research, nhóm cung cấp thông tin tình báo về mối đe dọa mạng, tội phạm mạng đã thử nghiệm sử dụng ChatGPT để tạo ra phần mềm độc hại. Ông Mark Ostrowski, Trưởng nhóm kỹ thuật của Check Point cho biết, mặc dù việc tấn công mạng thường đòi hỏi kiến thức lập trình ở trình độ cao, nhưng ChatGPT có thể hỗ trợ những lập trình viên mới vào nghề.
Một người phát ngôn của OpenAI cho biết, công ty này sử dụng các loại máy móc và con người để giám sát nội dung do ChatGPT sản xuất. Công ty dựa vào cả người huấn luyện trí tuệ nhân tạo và phản hồi từ người dùng để xác định và lọc ra dữ liệu độc hại trong khi dạy ChatGPT nhằm tạo ra phản hồi chứa thông tin tốt hơn.
Các chính sách của OpenAI cấm sử dụng công nghệ của họ để làm gia tăng sự không trung thực, lừa dối, thao túng người dùng hoặc cố gắng gây ảnh hưởng đến chính trị. Công ty này cung cấp một công cụ kiểm duyệt miễn phí để xử lý nội dung kích động thù hận, tự gây hại cho bản thân, bạo lực hoặc tình dục.
Tuy nhiên, hiện tại, công cụ này mới chỉ hỗ trợ phần nào đó cho các ngôn ngữ ngoài tiếng Anh và chưa nhận biết được các tài liệu chính trị, thư rác, lừa đảo hoặc phần mềm độc hại. Bản thân ChatGPT cũng cảnh báo người dùng rằng “đôi khi nó có thể tạo ra các hướng dẫn gây hại hoặc nội dung sai lệch”.
Tuần trước, OpenAI đã công bố một công cụ riêng lẻ giúp phân biệt khi nào văn bản được viết bởi con người chứ không phải trí tuệ nhân tạo, với mục tiêu phần nào nhận diện các chiến dịch lan truyền thông tin sai lệch tự động hóa. Công ty đã cảnh báo công cụ của họ không hoàn toàn đáng tin cậy và có thể bị “qua mặt”. Ngoài ra, công cụ này cũng gặp khó khăn với các văn bản có ít hơn 1.000 ký tự hoặc được viết bằng các ngôn ngữ không phải tiếng Anh.
Ý kiến ()