Sử dụng AI có trách nhiệm
Trên thế giới đang gia tăng lời kêu gọi sử dụng trí tuệ nhân tạo (AI) một cách có trách nhiệm trong bối cảnh công nghệ này đang ngày càng chứng tỏ sức ảnh hưởng lên mọi mặt của đời sống chính trị, kinh tế-xã hội…
Cùng với sự phát triển vượt bậc của AI là mối lo ngại gia tăng do những mặt trái mà công nghệ này đưa lại. Mới đây, Cao ủy Nhân quyền Liên hợp quốc Volker Turk đã bày tỏ lo lắng về khả năng gây hại của những tiến bộ gần đây trong công nghệ AI.
Theo ông, “yếu tố con người, phẩm giá và tất cả các quyền con người đang gặp rủi ro nghiêm trọng”. Ông kêu gọi các doanh nghiệp và chính phủ cần nhanh chóng phát triển những biện pháp bảo vệ hiệu quả.
Các đại biểu tham dự hội nghị về trách nhiệm sử dụng AI trong lĩnh vực quân sự tại The Hague (Hà Lan) diễn ra từ ngày 15 đến 16-2. Ảnh: Getty |
Cảnh báo của Liên hợp quốc được đưa ra trong bối cảnh có hơn 60 quốc gia, trong đó có Mỹ và Trung Quốc, kêu gọi phải có quy định về AI để bảo đảm công nghệ này không phá hoại sự ổn định và an ninh quốc tế. Một hội nghị về trách nhiệm sử dụng AI trong lĩnh vực quân sự cũng lần đầu tiên được tổ chức tại The Hague do Hà Lan và Hàn Quốc đồng chủ trì ngày 15 và 16-2.
Tại diễn đàn với hơn 80 nước tham dự này, các đại biểu chia sẻ quan điểm trong bối cảnh hiện nay, không một quốc gia nào có thể đứng ngoài những thách thức mà AI tạo ra và cần thiết phải chung tay hành động để ngăn chặn việc sử dụng AI một cách sai lầm trong lĩnh vực quân sự.
Thậm chí, tại sự kiện, Bộ trưởng Ngoại giao Hàn Quốc Park Jin đã nhắc tới bộ phim nổi tiếng “Kẻ hủy diệt” để mô tả những hiểm họa mà AI đưa lại. Bộ phim nói về nỗ lực ngăn chặn sự trỗi dậy của một hệ thống AI nguy hiểm có tên Skynet để bảo vệ tương lai của nhân loại.
Tại hội nghị, nhiều đại biểu đã cảnh báo về sự nguy hiểm của AI và những hậu quả không lường trước được của nó, giống như những gì diễn ra trong phim. Hội nghị đầu tiên này đánh dấu một bước quan trọng trong việc nâng cao nhận thức toàn cầu về những rủi ro tiềm ẩn từ AI cũng như việc cần thiết phải phát triển và sử dụng AI có trách nhiệm.
Không thể phủ nhận AI ngày càng trở nên phổ biến trong đời sống hằng ngày, tạo bước đột phá về tìm kiếm trên internet, thay đổi cách con người theo dõi sức khỏe, cách thức làm nông nghiệp truyền thống, mang lại những sáng kiến mới, chẳng hạn ứng dụng có khả năng viết mọi nội dung văn bản chỉ trong vài giây…
Nhưng cùng với đó là những mối lo ngại bởi những tác động tiêu cực đang ngày càng chứng tỏ AI giống như “con dao hai lưỡi”. Giới chuyên gia đã chỉ ra các hệ lụy từ những chiếc máy bay không người lái (UAV) do AI điều khiển cùng với nguy cơ AI có thể làm leo thang các cuộc xung đột quân sự.
Thế giới đã được chứng kiến sự lợi hại của những chiếc UAV trong cuộc chiến ở Yemen giữa lực lượng nổi dậy Houthi và chính phủ nước này. Lực lượng nổi dậy Houthi ở Yemen đã sử dụng UAV để tấn công các vị trí ở Saudi Arabia, gây thiệt hại nặng nề cho các cơ sở sản xuất dầu mỏ ở nước này.
Giới chỉ trích cũng đã nêu ra nhiều vấn đề bất cập liên quan đến AI như vi phạm quyền riêng tư hay các thuật toán mang tính thiên vị. Thực tế cho thấy, trong thời đại AI lên ngôi như hiện nay thì dữ liệu, nhất là dữ liệu cá nhân đã trở thành một “mặt hàng” có giá trị khi nó chính là nguồn nguyên liệu đầu vào cần thiết cho AI.
Bởi vậy, việc đánh cắp dữ liệu cá nhân để kiếm lợi không còn là câu chuyện xa lạ hiện nay, mà đang ngày càng trở nên phổ biến. Sự thống trị của Amazon trong lĩnh vực bán lẻ trực tuyến được đánh giá là nhờ có sự đóng góp không nhỏ của AI. Không phải ai cũng biết rằng, ngay khi gõ vào trang địa chỉ amazon.com, AI đã được sử dụng. Nhờ vậy, trang chủ sẽ hiện lên các gợi ý về những sản phẩm liên quan tới lịch sử truy cập của bạn trước đây.
Liên quan tới thuật toán thiên vị của AI, trên Tạp chí ProPulia trước đây từng đăng một nghiên cứu phân tích các kết quả từ một ứng dụng AI để cho phép bảo lãnh bị cáo và quyết định mức án tại các tòa của Mỹ. Ứng dụng có nhiệm vụ đánh giá khả năng tái phạm của bị cáo. Kết quả nghiên cứu cho thấy, các bị cáo người da đen đã bị đánh giá có rủi ro tái phạm cao gấp đôi so với người da trắng. Các nhà phát triển ứng dụng đã từ chối cung cấp những tiêu chí và thuật toán xác định khả năng tái phạm của bị cáo.
Trước những nguy cơ được cảnh báo, ông Turk khẳng định sẽ giám sát chặt chẽ xu hướng hiện nay, hỗ trợ chuyên môn và bảo đảm rằng khía cạnh quyền con người sẽ luôn là yếu tố trung tâm dù cho công nghệ này có phát triển đến đâu.
https://www.qdnd.vn/quoc-te/doi-song/su-dung-ai-co-trach-nhiem-719746
Ý kiến ()