0 Comments

(SeaPRwire) –   Theo báo cáo được đăng vào thứ hai do chính phủ Hoa Kỳ ủy quyền, chính phủ Hoa Kỳ phải hành động “nhanh chóng và quyết đoán” để ngăn chặn các rủi ro đáng kể về an ninh quốc gia bắt nguồn từ trí tuệ nhân tạo (AI), trong trường hợp xấu nhất có thể gây ra “mối đe dọa tuyệt chủng đối với loài người”.

“Việc phát triển AI hàng đầu hiện nay gây ra những rủi ro khẩn cấp và ngày càng tăng đối với an ninh quốc gia”, theo báo cáo mà TIME có được trước khi được công bố. “Sự phát triển của AI tiên tiến và trí tuệ chung nhân tạo (AGI) có khả năng làm mất ổn định an ninh toàn cầu theo cách gợi nhớ đến sự ra đời của vũ khí hạt nhân”. AGI là một công nghệ phỏng đoán có thể thực hiện hầu hết các nhiệm vụ ở mức hoặc cao hơn con người. Các hệ thống như vậy hiện không tồn tại, nhưng các phòng thí nghiệm AI hàng đầu đang nghiên cứu về chúng và chúng có thể đạt được trong vòng năm năm trở lại hoặc ít hơn nữa.

Ba tác giả của báo cáo đã thực hiện trong hơn một năm, phỏng vấn hơn 200 nhân viên chính phủ, chuyên gia và nhân viên tại các công ty AI hàng đầu—như , , , and — trong quá trình nghiên cứu. Lời kể từ một số cuộc trò chuyện đó cho thấy nhiều nhân viên đảm bảo an toàn AI trong các phòng thí nghiệm tân tiến quan ngại về các động cơ đồi bại thúc đẩy các giám đốc điều hành quản lý công ty đưa ra quyết định.

Hoàn thiện báo cáo với tiêu đề “Kế hoạch hành động để tăng cường sự an toàn và bảo mật của AI tiên tiến”, khuyến nghị một loạt các hành động chính sách toàn diện và chưa từng có, nếu được ban hành, sẽ phá vỡ hoàn toàn ngành công nghiệp AI. Báo cáo khuyến nghị rằng Quốc hội nên cấm việc đào tạo các mô hình AI sử dụng nhiều hơn một mức độ sức mạnh tính toán nhất định. Ngưỡng này, báo cáo khuyến nghị, nên được thiết lập bởi một cơ quan AI liên bang mới, mặc dù báo cáo cho rằng cơ quan này có thể đặt mức chỉ cao hơn một chút so với mức sức mạnh tính toán được sử dụng để đào tạo các mô hình tiên tiến hiện tại như GPT-4 của OpenAI và Gemini của Google. Báo cáo cho biết thêm, cơ quan AI mới nên yêu cầu các công ty AI “tiên tiến” trong ngành phải xin phép chính phủ để đào tạo và triển khai các mô hình mới cao hơn một ngưỡng thấp nhất định. Các cơ quan chức năng cũng nên “khẩn cấp” xem xét việc cấm công bố “trọng số” hoặc hoạt động bên trong của các mô hình AI mạnh mẽ, chẳng hạn theo giấy phép nguồn mở, với các vi phạm có khả năng bị phạt tù. Báo cáo cũng nêu rõ rằng chính phủ nên tiếp tục thắt chặt kiểm soát đối với việc sản xuất và xuất khẩu chip AI, đồng thời chuyển nguồn tiền của liên bang vào nghiên cứu “căn chỉnh”, tức tìm cách làm cho AI tiên tiến trở nên an toàn hơn.

Theo hồ sơ công khai, báo cáo được Bộ Ngoại giao đặt hàng vào tháng 11 năm 2022 trong khuôn khổ hợp đồng liên bang trị giá 250.000 đô la. Báo cáo này được viết bởi Gladstone AI, một công ty gồm bốn người điều hành các buổi thông tin kỹ thuật về AI cho nhân viên chính phủ. (Một số phần của kế hoạch hành động khuyến nghị rằng chính phủ nên đầu tư mạnh vào việc giáo dục các quan chức về nền tảng kỹ thuật của các hệ thống AI để họ có thể hiểu rõ hơn về rủi ro của hệ thống). Báo cáo đã được chuyển đến Bộ Ngoại giao dưới dạng tài liệu dài 247 trang vào ngày 26 tháng 2. Bộ Ngoại giao đã không trả lời một số yêu cầu bình luận về báo cáo. Trang đầu của báo cáo có ghi “Các khuyến nghị không phản ánh quan điểm của Bộ Ngoại giao Hoa Kỳ hoặc Chính phủ Hoa Kỳ”.

Các khuyến nghị của báo cáo, nhiều trong số đó trước đây chưa từng được nghĩ đến, diễn ra sau một loạt các sự phát triển chính chóng mặt về AI khiến nhiều người quan sát phải đánh giá lại lập trường của mình đối với công nghệ này. Chatbot ChatGPT, được phát hành vào tháng 11 năm 2022, là lần đầu tiên tốc độ thay đổi này trở nên hữu hình đối với toàn xã hội, khiến nhiều người đặt câu hỏi liệu AI trong tương lai có thể gây ra rủi ro hiện sinh đối với nhân loại hay không. Kể từ đó, các công cụ mới sở hữu nhiều khả năng hơn liên tục được phát hành với tốc độ rất nhanh. Khi các chính phủ trên thế giới thảo luận về cách tốt nhất để quản lý AI, các công ty công nghệ lớn nhất thế giới đang nhanh chóng xây dựng cơ sở hạ tầng để đào tạo thế hệ các hệ thống mạnh mẽ hơn tiếp theo—trong một số trường hợp, họ có kế hoạch sử dụng sức mạnh tính toán gấp 10 hoặc 100 lần. Trong khi đó, theo cuộc thăm dò gần đây của Viện Chính sách AI, hơn 80% người dân Hoa Kỳ tin rằng AI có thể vô tình gây ra một sự kiện thảm khốc và 77% cử tri tin rằng chính phủ nên làm nhiều hơn nữa để quản lý AI.

Báo cáo nêu rõ rằng việc cấm đào tạo các hệ thống AI tiên tiến vượt quá một ngưỡng nhất định có thể “làm chậm lại động lực cuộc đua giữa tất cả các nhà phát triển AI” và góp phần làm chậm tốc độ sản xuất phần cứng nhanh hơn của ngành công nghiệp chip. Báo cáo đề xuất trong tương lai, cơ quan AI liên bang có thể tăng ngưỡng và cho phép đào tạo các hệ thống AI tiên tiến hơn một khi bằng chứng về tính an toàn của các mô hình tiên tiến được chứng minh đầy đủ. Cũng theo báo cáo, tương tự như vậy, chính phủ có thể hạ thấp ngưỡng an toàn nếu phát hiện năng lực nguy hiểm trong các mô hình hiện có.

Đề xuất này có khả năng sẽ phải đối mặt với những khó khăn về chính trị. “Tôi cho rằng chính phủ Hoa Kỳ sẽ rất khó áp dụng khuyến nghị này”, Greg Allen, giám đốc Trung tâm AI và Công nghệ Tiên tiến Wadhwani thuộc Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS), đã trả lời tóm tắt mà TIME cung cấp về khuyến nghị của báo cáo về việc cấm các hoạt động đào tạo AI chạy vượt quá một ngưỡng nhất định. Ông lưu ý rằng chính sách AI hiện tại của chính phủ Hoa Kỳ là đặt ngưỡng tính toán theo đó các yêu cầu giám sát minh bạch và quy định bổ sung được áp dụng, nhưng không đặt giới hạn mà theo đó các hoạt động đào tạo sẽ là bất hợp pháp. Allen cho biết “Trừ khi có kiểu cú sốc ngoại sinh nào đó, tôi nghĩ rằng họ sẽ rất khó thay đổi phương pháp đó”.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác. 


Jeremie và Edouard Harris, lần lượt là Giám đốc điều hành và Giám đốc công nghệ của Gladstone, đã báo cho chính phủ Hoa Kỳ về rủi ro của AI kể từ năm 2021. Hai anh em cho biết rằng các quan chức chính phủ tham dự nhiều cuộc họp báo sớm nhất của họ đều đồng ý rằng rủi ro của AI là rất đáng kể. , nhưng nói với họ rằng trách nhiệm xử lý những rủi ro đó thuộc về các nhóm hoặc phòng ban khác nhau. Anh em nhà Harris cho biết, cuối năm 2021, cuối cùng họ đã tìm thấy một bộ phận của chính phủ có trách nhiệm giải quyết các rủi ro về AI: Cục An ninh Quốc tế và Không phổ biến vũ khí của Bộ Ngoại giao. Các nhóm trong Cục có nhiệm vụ liên ngành để giải quyết các rủi ro từ các công nghệ mới nổi bao gồm vũ khí hóa học và sinh học, cũng như rủi ro phóng xạ và hạt nhân. Tiếp theo các cuộc họp báo của Gladstone, vào tháng 10 năm 2022, Cục đã đưa ra đấu thầu cho báo cáo để giúp đưa ra quyết định có nên đưa AI vào danh sách các rủi ro khác mà Cục giám sát hay không. (Bộ Ngoại giao đã không trả lời yêu cầu bình luận về kết quả của quyết định đó.)

Author

eva@pressvn.com