Sử dụng trí tuệ nhân tạo không đúng cách, hậu quả khôn lường

(PLO) - Trí tuệ nhân tạo có thể được sử dụng để thao túng kết quả bầu cử, thực hiện các vụ tấn công chết người bằng máy bay không người lái…
Ảnh minh họa

Theo AFP, những viễn cảnh trên được đưa ra trong báo cáo dài 100 trang có tên “Dùng trí tuệ nhân tạo vào mục đích xấu: Dự báo, phòng ngừa và giảm nhẹ” do hơn 20 nhà nghiên cứu hàng đầu thế giới thực hiện. Trong báo cáo, các chuyên gia đã phác thảo hàng loạt những kịch bản phạm tội liên quan đến trí tuệ nhân tạo có thể xảy ra trong vòng 5 đến 10 năm tới, như sự phát triển nhanh chóng của tội phạm mạng, việc sử dụng các chương trình để can thiệp vào việc thu thập thông tin, thâm nhập vào truyền thông xã hội… 

Theo báo cáo, với những tiến triển trong lĩnh vực trí tuệ nhân tạo, nguy cơ do tin tặc gây ra khi sử dụng công nghệ này để mở các cuộc tấn công tàn độc ngày càng tăng. Ví dụ, tin tặc có thể sử dụng trí tuệ nhân tạo để khiến các loại xe tự động hiểu sai bảng hiệu giao thông, dẫn tới tai nạn. Trong khi đó, các máy bay không người lái điều khiển bằng một hệ thống trí tuệ nhân tạo có thể sử dụng để do thám hay mở những cuộc tấn công nhanh chóng, có phối hợp. Báo cáo cũng miêu tả chi tiết về kịch bản robot lau sàn tự động SweepBot được gắn bom và đưa vào tòa nhà của bộ tài chính một nước châu Âu. Con robot sẽ hoạt động bình thường cho đến khi phần mềm nhận dạng khuôn mặt được bên trong phát hiện bộ trưởng của bộ tài chính và tiến đến gần người này. “Thiết bị nổ được giấu kín sẽ được kích hoạt, khiến vị bộ trưởng thiệt mạng còn những người ở xung quanh đó bị thương”, báo cáo nêu.

Báo cáo cũng cho rằng hình thức “lừa đảo qua mạng”, tức kẻ tấn công gửi thư điện tử có chứa phần mềm độc hại hay các phần mềm khác để lấy cắp các thông tin cá nhân sẽ ngày càng trở nên nguy hiểm hơn. Trên mặt trận chính trị, trí tuệ nhân tạo có thể được sử dụng để theo dõi người dân, thực hiện những chiến dịch tuyên truyền có mục tiêu, loan truyền tin thất thiệt nhằm thao túng quan điểm của dư luận ở quy mô mà trước đây chúng ta không thể tưởng tượng được. “Báo cáo của chúng tôi tập trung vào những cách thức mà một số người có thể áp dụng để cố ý gây tổn hại bằng trí tuệ nhân tạo. Trí tuệ nhân tạo tiềm ẩn những mối đe dọa mới, hay sự thay đổi về bản chất của những mối đe dọa hiện có đối với an ninh mạng, an ninh vật chất, an ninh chính trị”, ông Sean O hEigeartaigh, Giám đốc điều hành Trung tâm nghiên cứu rủi ro hiện tại Cambridge, cho hay.

Trong bối cảnh như vậy, báo cáo kêu gọi các nhà hoạch định chính sách và các công ty tạo ra những phần mềm điều khiển hoạt động của robot đảm bảo an toàn, không thể bị tấn công và giành quyền làm chủ, đồng thời áp đặt những hạn chế về an ninh đối với một số nghiên cứu, xem xét mở rộng các luật và quy định điều chỉnh sự phát triển của trí tuệ nhân tạo. “Các công ty công nghệ cao khổng lồ vốn là những lãnh đạo về trí tuệ nhân tạo có rất nhiều lợi ích trong việc đảm bảo trí tuệ nhân tạo an toàn và có lợi”, báo cáo nhận định. 

Hồi năm ngoái, hơn 100 nhà sản xuất trí tuệ nhân tạo và robot và nhà vật lý người Anh Stephen Hawking đã cùng kiến nghị Liên hợp quốc cấm những loại robot giết người tự động, cảnh báo rằng các vũ khí thời kỳ kỹ thuật số có thể bị khủng bố sử dụng để chống lại dân thường.