Giới khoa học kêu gọi tẩy chay Đại học Hàn Quốc vì nghiên cứu “robot giết người”

(PLO) - Trong tuần qua, các nhà nghiên cứu trí tuệ nhân tạo hàng đầu thế giới đã kêu gọi tẩy chay Trường Đại học Hàn Quốc vì cho rằng nơi đây đang nghiên cứu phát triển “robot giết người”. Đây không phải là lần đầu tiên các nhà khoa học kêu gọi một lệnh cấm đối với vũ khí tự vận hành.
Hình ảnh minh họa về “robot giết người”
Hình ảnh minh họa về “robot giết người”

Bị lên án và tẩy chay 

Theo Reuters, ít nhất 50 nhà khoa học về trí thông minh nhân tạo (AI) đến từ gần 30 quốc gia trên thế giới đã đồng loạt ký tên trong một lá thư kêu gọi tẩy chay Viện Công nghệ và Khoa học cấp cao Hàn Quốc (KAIST) và đối tác Hanwha Systems-tập đoàn vũ khí lớn nhất nhì Hàn Quốc. Theo các nhà nghiên cứu, họ sẽ không hợp tác với KAIST hoặc chấp nhận bất kỳ giảng viên/sinh viên nào từ trường đại học này trước những lo ngại KAIST đang tìm cách “thúc đẩy cuộc chạy đua vũ trang phát triển các vũ khí tự động”.

Trong tuyên bố của mình, các nhà khoa học này cho biết: “Chúng tôi công khai tuyên bố rằng sẽ tẩy chay tất cả mối quan hệ hợp tác với bất kỳ bộ phận nào của KAIST cho đến khi người đứng đầu Viện Nghiên cứu này cam kết không phát triển vũ khí tự vận hành mà không cần sự kiểm soát của con người”.

Các nhà khoa học nói thêm rằng nếu được phát triển, vũ khí tự vận hành sẽ là một “cuộc cách mạng thứ 3” trong chiến tranh. “Chúng sẽ thúc đẩy chiến tranh nhanh hơn, trên quy mô lớn hơn bao giờ hết. Chúng có tiềm năng trở thành vũ khí khủng bố, những kẻ phân biệt chủng tộc và khủng bố có thể sử dụng chúng để chống lại người vô tội mà không cần quan tâm đến các vấn đề đạo đức”, họ cho hay. 

“Có rất nhiều thứ tuyệt vời bạn có thể làm với trí tuệ nhân tạo để cứu sống mạng người, bao gồm trong cả bối cảnh quân sự. Tuy nhiên, công khai tuyên bố đặt ra mục tiêu phát triển các vũ khí tự động và có một đối tác như vậy, đã làm dấy lên những lo ngại lớn. Một số vũ khí tốt hơn nên tránh khỏi chiến trường. Chúng ta đã quyết định sử dụng vũ khí sinh học, vũ khí hóa học, vũ khí hạt nhân và các công nghệ cho những mục đích tốt đẹp, hòa bình và đó là điều mà chúng tôi hi vọng có thể xảy ra ở đây”, ông Toby Walsh, người kêu gọi cuộc tẩy chay và là giáo sư về AI tại Đại học New South Wales nói.

Phản pháo 

Được biết hồi cuối tháng 2, KAIST công bố mở một trung tâm nghiên cứu điều tra về cúm gia cầm phối hợp với Công ty quốc phòng Hanwha Systems. Hanwha là một trong những nhà sản xuất vũ khí lớn nhất của Hàn Quốc. Tập đoàn này vẫn đang sản xuất các loại bom chùm, đạn chùm vốn đã bị cấm sử dụng tại 120 quốc gia theo một hiệp ước quốc tế nhưng Hàn Quốc, Mỹ, Nga và Trung Quốc không tham gia.

Vấn đề bắt đầu nảy sinh khi một bài báo Hàn Quốc đưa tin KAIST “đang tham gia cuộc chạy đua toàn cầu phát triển vũ khí tự động”. Sau đó, cuộc tẩy chay diễn ra trước thềm cuộc họp của LHQ  tại Geneva vào tuần tới về vũ khí tự động. Hiện hơn 20 quốc gia đã kêu gọi ban hành một lệnh cấm hoàn toàn đối với robot giết người. Tuy nhiên, ngay lập tức phía KAIST đã lên tiếng nói rằng họ “không có ý định tham gia vào việc phát triển các hệ thống vĩ khí gây nguy hiểm cho con người và đặc biệt là giết người”. 

Người đứng đầu KAIST Sung Chul-Shin cho biết, ông cảm thấy rất buồn khi nghe tin về cuộc tẩy chay. “Tôi muốn tái khẳng định rằng, KAIST không có bất kỳ dự định nào liên quan tới việc phát triển các hệ thống vũ khí tự động gây sát thương và robot giết người. Là một cơ sở học thuật, chúng tôi trân trọng các quyền con người và tiêu chuẩn đạo đức ở một mức rất cao. Một lần nữa tôi khẳng định KAIST không tiến hành bất kỳ hoạt động nghiên cứu nào chống lại loài người, bao gồm các vũ khí tự động thiếu sự kiểm soát cần thiết của con người”, ông Shin nói.

Sau lời khẳng định của người đứng đầu KAIST, ông Toby Walsh nói với CNN rằng ông rất hài lòng với câu trả lời này. Nhưng các nhà khoa học vẫn chưa cho biết liệu họ có tiếp tục hợp tác với KAIST sau tuyên bố của Shin hay không. “Tôi vẫn còn một vài nghi vấn về những gì họ đã làm nhưng nói chung họ đã đáp ứng các yêu cầu một cách tích cực”, ông Toby Walsh nói. 

Đọc thêm