0 Comments

UK Government AI Safety Summit 2023 Day Two

(SeaPRwire) –   Các nhân viên tại một số công ty AI hàng đầu thế giới đang quan ngại đáng kể về tính an toàn trong công việc của họ và những động lực thúc đẩy ban lãnh đạo của họ, một báo cáo công bố hôm thứ Hai tuyên bố.

Do Bộ Ngoại giao ủy quyền và được các nhân viên của công ty Gladstone AI biên soạn, đưa ra một số khuyến nghị về cách Hoa Kỳ nên ứng phó với những gì họ cho là rủi ro an ninh quốc gia đáng kể do AI tiên tiến gây ra.

Các tác giả của báo cáo đã trao đổi với hơn 200 chuyên gia cho báo cáo này, bao gồm các nhân viên tại OpenAI, Google DeepMind, Meta và Anthropic – các phòng thí nghiệm AI hàng đầu đang hướng tới “trí tuệ tổng quát nhân tạo”, một công nghệ giả thuyết có thể thực hiện hầu hết các nhiệm vụ ở hoặc trên mức của con người. Các tác giả đã chia sẻ những trích dẫn về những mối quan ngại mà nhân viên từ một số phòng thí nghiệm này chia sẻ riêng với họ, mà không nêu tên các cá nhân hoặc tên công ty cụ thể mà họ làm việc. OpenAI, Google, Meta và Anthropic đã không trả lời ngay lập tức yêu cầu bình luận.

Jeremie Harris, Giám đốc điều hành của Gladstone và là một trong những tác giả của báo cáo, cho biết với tờ TIME: “Thông qua dự án này, chúng tôi đã đóng vai trò như một đối tác chung thực đối với những mối quan ngại của các nhà nghiên cứu tiên phong, những người không tin rằng quỹ đạo mặc định của tổ chức của họ có thể tránh được những hậu quả thảm khốc”.

Một cá nhân tại một phòng thí nghiệm AI không xác định đã chia sẻ những lo lắng với các tác giả của báo cáo về việc phòng thí nghiệm có những gì mà báo cáo mô tả là “cách tiếp cận lỏng lẻo về tính an toàn” xuất phát từ mong muốn không làm chậm công việc của phòng thí nghiệm để xây dựng các hệ thống mạnh mẽ hơn. Một cá nhân khác bày tỏ lo ngại rằng phòng thí nghiệm của họ không có đủ các biện pháp ngăn chặn để ngăn chặn AGI thoát khỏi tầm kiểm soát của họ, mặc dù phòng thí nghiệm tin rằng AGI là một khả năng trong tương lai gần.

Những người khác vẫn bày tỏ lo ngại về an ninh mạng. Báo cáo nêu rõ: “Theo nhận định riêng của nhiều nhân viên kỹ thuật của họ, các biện pháp bảo mật hiện có tại nhiều phòng thí nghiệm AI tiên tiến không đủ để chống lại một chiến dịch đánh cắp IP liên tục của những kẻ tấn công tinh vi”. “Với tình trạng bảo mật phòng thí nghiệm tiên tiến hiện tại, có vẻ như những nỗ lực đánh cắp mô hình như vậy có thể sẽ thành công nếu không có sự hỗ trợ trực tiếp của chính phủ Hoa Kỳ, hoặc chúng đã thành công”.

Harris cho biết, nhiều người đã chia sẻ những mối quan ngại đó trong khi vật lộn với phép tính rằng việc tố giác công khai có khả năng khiến họ mất đi khả năng ảnh hưởng đến các quyết định quan trọng trong tương lai. Ông nói với TIME rằng: “Mức độ quan tâm của một số người trong các phòng thí nghiệm này về quá trình ra quyết định và cách các động lực cho ban quản lý chuyển thành các quyết định chính là khó có thể phóng đại”. “Những người theo dõi tình hình rủi ro chặt chẽ nhất và trong nhiều trường hợp là những người hiểu biết nhất thường là những người có mức độ quan tâm lớn nhất”.

Bạn có phải là nhân viên tại phòng thí nghiệm AI và quan ngại liệu mình có nên chia sẻ với nhà báo hay không? Bạn có thể liên hệ với tác giả của bài viết này trên Signal tại billyperrigo.01 

Các tác giả cho biết, thực tế là các hệ thống AI ngày nay chưa dẫn đến hậu quả thảm khốc cho nhân loại không phải là bằng chứng cho thấy các hệ thống lớn hơn sẽ an toàn trong tương lai. Edouard Harris, giám đốc công nghệ của Gladstone, đồng thời là đồng tác giả của báo cáo, cho biết: “Một trong những chủ đề lớn mà chúng tôi nghe được từ các cá nhân ngay tại biên giới, về những thứ đang được phát triển trong bí mật ngay bây giờ, là ở một mức độ nào đó, đó là một trò chơi roulette của Nga”. “Hãy xem, chúng tôi đã bóp cò và này, chúng tôi ổn, vì vậy chúng ta hãy bóp cò một lần nữa”.

Nhiều chính phủ trên thế giới đã nhận ra rủi ro do các hệ thống AI tiên tiến gây ra trong vòng 12 tháng qua. Vào tháng 11, Vương quốc Anh đã tổ chức Hội nghị thượng đỉnh về an toàn AI, nơi các nhà lãnh đạo thế giới cam kết hợp tác để thiết lập các chuẩn mực quốc tế cho công nghệ này và vào tháng 10, Tổng thống Biden đã ban hành lệnh hành pháp thiết lập các tiêu chuẩn an toàn cho các phòng thí nghiệm AI có trụ sở tại Hoa Kỳ. Tuy nhiên, Quốc hội vẫn chưa thông qua luật AI, điều này có nghĩa là có rất ít hạn chế pháp lý đối với những gì các phòng thí nghiệm AI có thể và không thể làm khi đào tạo các mô hình tiên tiến.

Lệnh hành pháp của Biden kêu gọi Viện Tiêu chuẩn và Công nghệ Quốc gia đặt ra “các tiêu chuẩn nghiêm ngặt” cho các bài kiểm tra mà các hệ thống AI phải vượt qua trước khi được công bố. Nhưng báo cáo của Gladstone khuyến nghị rằng các cơ quan quản lý của chính phủ không nên dựa nhiều vào các loại đánh giá AI này, vốn ngày nay là một thông lệ phổ biến để kiểm tra xem một hệ thống AI có khả năng hoặc hành vi nguy hiểm hay không. Báo cáo cho biết các đánh giá có thể bị phá hoại và thao túng dễ dàng vì những người tạo ra chúng có thể điều chỉnh hoặc “điều chỉnh” các mô hình AI một cách hời hợt để vượt qua các đánh giá nếu các câu hỏi được biết trước. Điều quan trọng là dễ dàng thực hiện các điều chỉnh này chỉ để dạy mô hình cách che giấu hành vi nguy hiểm tốt hơn, chứ không phải để xóa bỏ hoàn toàn các hành vi đó.

Báo cáo trích dẫn một người được mô tả là chuyên gia có “kiến thức trực tiếp” về các hoạt động của một phòng thí nghiệm AI, người đã đánh giá rằng phòng thí nghiệm không tên đó đang chơi các đánh giá theo cách này. Báo cáo lập luận rằng “Các đánh giá AI chỉ có thể tiết lộ sự hiện diện nhưng không thể xác nhận sự không có các khả năng nguy hiểm”. “Quá phụ thuộc vào các đánh giá AI có thể gieo rắc cảm giác an toàn giả tạo trong số những người phát triển AI [và] các cơ quan quản lý”.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác. 

Author

eva@pressvn.com