Demonstrator holding

(SeaPRwire) –   Chỉ có 16 tháng trôi qua, nhưng việc phát hành ChatGPT vào tháng 11 năm 2022 đã cảm thấy như lịch sử AI cổ xưa. Hàng tỷ đô la, cả công lập và tư nhân, đang đổ vào AI. Hàng ngàn sản phẩm được trang bị AI đã được tạo ra, bao gồm cả mới tuần này. Mọi người từ học sinh đến nhà khoa học bây giờ đều sử dụng những mô hình ngôn ngữ lớn này. Thế giới chúng ta, và đặc biệt là thế giới của AI, đã thay đổi rõ rệt.

Nhưng phần thưởng thực sự của AI có trình độ người – hoặc siêu trí tuệ – vẫn chưa đạt được. Một đột phá như vậy sẽ có nghĩa là một AI có thể thực hiện hầu hết công việc kinh tế sinh lợi, tương tác với người khác, làm khoa học, xây dựng và duy trì mạng lưới xã hội, tiến hành chính trị và tiến hành chiến tranh hiện đại. Giới hạn chính cho tất cả những nhiệm vụ này ngày nay là nhận thức. Loại bỏ rào cản này sẽ làm thay đổi thế giới.

Điều đó có thể mang lại lợi ích to lớn cho nhân loại. Nhưng AI cũng có thể cực kỳ nguy hiểm, đặc biệt nếu chúng ta không thể kiểm soát nó. AI không kiểm soát có thể tìm cách xâm nhập vào các hệ thống trực tuyến mà quyền lực của thế giới phụ thuộc vào, và sử dụng chúng để đạt được mục tiêu của chúng. Nó có thể truy cập vào tài khoản mạng xã hội của chúng ta và tạo ra các thao tác thuyết phục đo ni đóng gói cho số lượng lớn người dùng. Tệ hơn nữa, nhân viên quân sự chịu trách nhiệm vũ khí hạt nhân có thể bị AI thao tác để chia sẻ thông tin đăng nhập của họ, gây ra mối đe dọa nghiêm trọng đối với nhân loại.

Điều quan trọng là phải làm cho việc đó trở nên khó khăn nhất có thể xảy ra bằng cách tăng cường bảo vệ toàn cầu chống lại các đặc vụ trực tuyến có hại. Nhưng khi AI có thể thuyết phục con người, mà nó giỏi hơn chúng ta, thì không có biện pháp phòng ngự nào được biết đến.

Vì những lý do này, nhiều nhà nghiên cứu an toàn AI tại các phòng thí nghiệm AI như OpenAI, Google DeepMind và Anthropic, và tại các tổ chức tập trung vào an toàn, đã từ bỏ việc cố gắng hạn chế hành động mà AI tương lai có thể thực hiện. Thay vào đó, họ tập trung vào việc tạo ra “AI được cân bằng” hoặc tự nhiên an toàn. AI được cân bằng có thể đủ mạnh để có thể tiêu diệt loài người, nhưng nó không nên muốn làm điều này.

Giải trừ quả bom thời gian

Nếu chúng ta không thể tìm ra cách để ít nhất đảm bảo sự an toàn của loài người khỏi sự tuyệt chủng, và tốt nhất là khỏi một thảm họa cân bằng, AI có thể trở nên không thể kiểm soát thì không nên tạo ra trước tiên. Giải pháp này, hoãn lại AI có trình độ người hoặc siêu trí tuệ, trong khi chúng ta chưa giải quyết được các mối quan ngại về an toàn, có điểm trừ là những lời hứa vĩ đại của AI – từ chữa bệnh đến tạo ra tăng trưởng kinh tế lớn – sẽ phải chờ đợi.

Việc hoãn có thể tưởng chừng như một ý tưởng cực đoan đối với một số người, nhưng nó sẽ cần thiết nếu AI tiếp tục cải thiện mà chúng ta không đạt được kế hoạch cân bằng thỏa đáng. Khi khả năng của AI đạt đến mức gần như chiếm quyền kiểm soát, thì giải pháp thực tế duy nhất là các phòng thí nghiệm sẽ bị chính phủ yêu cầu một cách cứng rắn để tạm dừng phát triển. Làm khác đi sẽ tự sát.

Và hoãn AI có thể không khó khăn như một số người cho rằng. Hiện tại, chỉ có một số lượng tương đối nhỏ các công ty lớn có khả năng thực hiện các chạy thử nghiệm dẫn đầu, có nghĩa là việc thực thi tạm dừng chủ yếu bị hạn chế bởi ý chí chính trị, ít nhất trong ngắn hạn. Tuy nhiên, trong dài hạn, việc cải thiện phần cứng và thuật toán có nghĩa là việc hoãn có thể được coi là khó thực thi. Sự thực thi giữa các quốc gia sẽ được yêu cầu, ví dụ với một hiệp ước, cũng như việc thực thi trong nước, với các biện pháp như kiểm soát phần cứng nghiêm ngặt.

Trong khi đó, các nhà khoa học cần hiểu rõ hơn các rủi ro. Mặc dù có sự đồng thuận, nhưng chưa có sự đồng thuận về các quan điểm. Các nhà khoa học nên chính thức hóa các điểm đồng thuận của họ và chỉ ra nơi và tại sao quan điểm của họ lại khác nhau trong báo cáo mới, nên phát triển thành một “Ủy ban liên chính phủ về rủi ro AI”. Các tạp chí khoa học hàng đầu nên mở rộng hơn nữa cho nghiên cứu về rủi ro tồn tại, ngay cả khi nó có vẻ suy đoán. Tương lai không cung cấp dữ liệu, nhưng việc nhìn lên trước là quan trọng đối với AI như với biến đổi khí hậu.

Đối với phần mình, chính phủ có một vai trò to lớn trong cách AI diễn tiến. Điều này bắt đầu bằng việc chính thức công nhận rủi ro tồn tại của AI, như đã được thực hiện bởi ., . và .. và thiết lập các kế hoạch. Chính phủ cũng nên soạn thảo kế hoạch cho những tình huống quan trọng nhất có thể tưởng tượng được, cũng như cách đối phó với nhiều vấn đề không tồn tại của AGI như thất nghiệp hàng loạt, bất bình đẳng leo thang và tiêu thụ năng lượng. Chính phủ nên công khai chiến lược AGI của mình, cho phép đánh giá khoa học, công nghiệp và công chúng.

Tiến bộ lớn khi các nước AI chủ chốt đang thảo luận chính sách chung một cách xây dựng tại hội nghị an toàn AI hai năm một lần, bao gồm một cuộc họp từ ngày 21 đến 22 tháng Năm. Tuy nhiên, quá trình này cần được bảo vệ và mở rộng. Làm việc trên một sự thật chung về rủi ro tồn tại của AI và bày tỏ lo ngại chung với tất cả 28 quốc gia được mời sẽ là bước tiến lớn. Ngoài ra, các biện pháp dễ dàng cần được thỏa thuận, chẳng hạn như tạo ra hệ thống cấp phép, đánh giá mô hình, theo dõi phần cứng AI, mở rộng trách nhiệm pháp lý cho các phòng thí nghiệm AI và loại trừ nội dung bản quyền khỏi quá trình huấn luyện. Một cơ chế cần được thiết lập để giám sát việc thực thi.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác. 

Author

eva@pressvn.com