CEO OpenAI Sam Altman dự đoán AI sẽ thông minh hơn con người trong "vài ngàn ngày tới"

(PLVN) - Trong một bài viết cá nhân, CEO của OpenAI Sam Altman, đã đưa ra dự đoán gây chấn động: siêu trí tuệ (ASI), một dạng AI vượt xa trí tuệ con người, có thể xuất hiện chỉ trong "vài ngàn ngày tới".

Sự phát triển vượt bậc của AI trong những năm gần đây đã đặt ra câu hỏi về thời điểm chúng ta sẽ chứng kiến sự ra đời của siêu trí tuệ - một AI thông minh hơn con người rất nhiều. Theo ông Sam Altman, thời điểm đó gần hơn chúng ta tưởng: "vài ngàn ngày nữa".

Trong bài viết cá nhân mang tên "Kỷ nguyên Trí tuệ", CEO Altman đã chia sẻ về AI và cách nó sẽ "mang đến cho mọi người công cụ để giải quyết những vấn đề khó khăn". Ông cũng đề cập đến sự xuất hiện của siêu trí tuệ, mà ông tin rằng sẽ đến sớm hơn dự kiến.

"Có thể chúng ta sẽ có siêu trí tuệ trong vài ngàn ngày tới; có thể sẽ mất nhiều thời gian hơn, nhưng tôi tin rằng chúng ta sẽ đạt được điều đó", ông viết.

Nhiều tên tuổi trong ngành đã nói về trí tuệ nhân tạo tổng quát, hay AGI, là bước tiếp theo trong quá trình tiến hóa của AI.

Ông Jensen Huang, CEO của Nvidia, cho rằng nó sẽ xuất hiện trong vòng 5 năm tới, trong khi ông Masayoshi Son, CEO của Softbank, cũng dự đoán một mốc thời gian tương tự, cho rằng AGI sẽ xuất hiện vào năm 2030.

AGI được định nghĩa là một loại trí tuệ nhân tạo lý thuyết có khả năng sánh ngang hoặc vượt qua khả năng của con người trong một loạt các nhiệm vụ nhận thức.

Theo OpenAI, siêu trí tuệ, hay ASI, vượt trội hơn AGI ở chỗ nó thông minh hơn con người rất nhiều. Vào tháng 12, công ty cho biết công nghệ này có thể được phát triển trong vòng 10 năm tới.tôi sẽ

Tháng 7/2023, OpenAI cho biết họ đang thành lập một nhóm "siêu liên kết" và dành 20% năng lực tính toán mà họ có được để phát triển các đột phá khoa học và kỹ thuật có thể giúp kiểm soát các hệ thống AI thông minh hơn con người nhiều.

Công ty tin rằng siêu trí tuệ sẽ là công nghệ có tác động lớn nhất từng được phát minh và có thể giúp giải quyết nhiều vấn đề của thế giới. Nhưng sức mạnh to lớn của nó cũng có thể gây nguy hiểm, dẫn đến việc làm suy yếu loài người hoặc thậm chí tuyệt chủng loài người.

Những nguy hiểm của công nghệ này đã được nhấn mạnh vào tháng 6 khi người đồng sáng lập kiêm cựu Giám đốc Khoa học của OpenAI, Ilya Sutskever, rời đi để thành lập một công ty có tên Safe Superintelligence.

Đọc thêm