Elon Musk, Steve Wozniak và hơn 1.000 chuyên gia khác đã ký vào đơn kiến nghị của Viện Tương lai Cuộc sống để yêu cầu tạm dừng phát triển trí tuệ nhân tạo như chatbot GPT-4. Lý do cho sự quan tâm này là gì?
Elon Musk muốn hủy hoại trí tuệ nhân tạo AI?
Các nhân vật nổi tiếng như Elon Musk, Steve Wozniak cùng các doanh nhân, nhà khoa học và giáo sư đã ký vào một đề xuất của Viện Tương lai của Cuộc sống, kêu gọi tạm dừng phát triển trí tuệ nhân tạo (AI) trong một thời gian ngắn.
📢 We’re calling on AI labs to temporarily pause training powerful models!
Join FLI’s call alongside Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus & over a 1000 others who’ve signed: https://t.co/3rJBjDXapc
A short 🧵on why we’re calling for this – (1/8)
— Future of Life Institute (@FLIxrisk) March 29, 2023
Lá thư đã thu thập tổng cộng 1.377 chữ ký, nhằm mục đích tạm dừng ít nhất 6 tháng việc đào tạo các hệ thống trí tuệ nhân tạo như GPT-4 – phiên bản chatbot mới của OpenAI, công ty do Elon Musk đồng sáng lập. Quan tâm chính của lá thư là vị trí của con người trong quá trình phát triển trí tuệ nhân tạo, với những câu hỏi như việc thuật toán quyết định những gì chúng ta thấy trên các mạng xã hội, tự động hóa các hoạt động và phát triển trí tuệ thông minh vượt trội hơn con người.
Việc quyết định như vậy không nên được giao cho những người lãnh đạo công nghệ chưa được bầu chọn. Các hệ thống AI chỉ nên được phát triển khi chúng ta tin tưởng rằng chúng sẽ có tác động tích cực và chúng có thể kiểm soát được rủi ro. Sự tin tưởng này phải được chứng minh rõ ràng và tăng lên cùng với mức độ ảnh hưởng tiềm năng của hệ thống.
Bản kiến nghị cũng yêu cầu tập trung phát triển AI trong các lĩnh vực công nghệ “an toàn, dễ hiểu, minh bạch, mạnh mẽ, phù hợp, đáng tin cậy và trung thành”.
AI có phải là một mối nguy hiểm thực sự?
Tương tự như bất kỳ đổi mới công nghệ nào khác, AI cũng đặt ra nhiều câu hỏi. Trong thời đại Cách mạng Công nghiệp, loài người đã lo lắng về khả năng bị thay thế bởi máy móc. Những tác phẩm hư cấu như Kẻ hủy diệt đã khiến cho chúng ta tưởng tượng về một thế giới tự động hóa hoàn toàn và thảm họa có thể xảy ra. Tuy nhiên, câu hỏi liệu chúng ta đã ở ngưỡng cửa của một Điểm kỳ dị hay chưa thì vẫn chưa được trả lời đầy đủ và chia rẽ ý kiến.
Những câu hỏi này không chỉ chờ đợi sự trỗi dậy gần đây của AI trên các mạng xã hội mà còn cần có những vấn đề đạo đức được nhấn mạnh. Đặc biệt, là cách thức thực hiện việc học các hệ thống này. Mỗi tương tác của chúng ta với trí tuệ nhân tạo sẽ cung cấp cho nó thông tin về chúng ta và chúng ta cũng cung cấp miễn phí các thuật toán của các công ty tư nhân. Vì vậy, thật thú vị khi tự hỏi về cách thức mà những dữ liệu này đang và sẽ được sử dụng bởi các công ty này. Điều này có thể gây ra mối nguy hiểm hợp lý hơn là tưởng tượng về một siêu AI hoàn toàn tự trị vào thời điểm hiện tại.
Trong khi AI thực sự có thể loại bỏ một số công việc của con người, nhưng nó cũng sẽ tạo ra những công việc khác. Nó là một công cụ trung lập về mặt đạo đức, những nguy hiểm hoặc lợi ích của nó phụ thuộc vào việc sử dụng nó.
Lá thư kêu gọi tạm dừng việc đào tạo các hệ thống như GPT-4, phiên bản mới của chatbot nổi tiếng từ OpenAI, đã thu thập được 1.377 chữ ký. Mục đích của lá thư này là tạm dừng ít nhất sáu tháng việc đào tạo các hệ thống này với mối quan tâm chính về vị trí của con người trong mối quan hệ với sự phát triển trí tuệ thông minh hơn con người:
Không nên giao những quyết định quan trọng về công nghệ cho những người lãnh đạo không được bầu chọn. Chỉ nên phát triển các hệ thống trí tuệ nhân tạo mạnh mẽ khi chúng ta tin rằng chúng sẽ có tác động tích cực và chúng ta có thể kiểm soát được rủi ro. Để đạt được sự tin tưởng này, chúng ta cần chứng minh rõ ràng và tăng cường nó khi hệ thống trở nên quan trọng hơn.
Nói cách khác, đề xuất này yêu cầu phát triển AI tập trung vào các lĩnh vực công nghệ đảm bảo “an toàn, dễ hiểu, minh bạch, mạnh mẽ, phù hợp, đáng tin cậy và trung thành”.