0 Comments

(SeaPRwire) –   Văn kiện ủng hộ Tổng thống Joe Biden trong cuộc bầu cử sơ bộ tổng thống của tiểu bang. Một giọng nói do AI tạo ra trên đường dây phù hợp với nhịp điệu kỳ lạ và câu cửa miệng đặc trưng— (“malarkey!”)—của Biden. Từ cuộc gọi đó để tưởng tượng ra một loạt các tai họa dưới sự giám sát của Biden đối với các deepfake AI về việc cân nhắc gian lận phiếu bầu và tăng giá bia, AI đang tạo dấu ấn của mình đối với các cuộc bầu cử trên toàn thế giới. Trong bối cảnh đó, các chính phủ và một số công ty công nghệ đang thực hiện một số bước để giảm thiểu rủi ro—các nhà lập pháp châu Âu vừa thông qua một đạo luật cấp tiến và cho đến tháng trước, các công ty công nghệ đã ký một cam kết tại Hội nghị An ninh Munich. Nhưng cần phải làm nhiều hơn nữa để bảo vệ nền dân chủ của Hoa Kỳ.

Tại Munich, các công ty bao gồm OpenAI, Apple, Meta, Microsoft, TikTok, Google, X và các công ty khác đã công bố một thỏa thuận nhỏ để thực hiện các biện pháp bảo vệ các cuộc bầu cử khi Hoa Kỳ và các quốc gia khác đi bỏ phiếu vào năm 2024. Các công ty giúp khán giả theo dõi nguồn gốc của nội dung được tạo bằng AI và nội dung xác thực, để cố gắng phát hiện phương tiện truyền thông AI lừa dối trong các cuộc bầu cử và triển khai các “biện pháp phòng ngừa hợp lý” để hạn chế rủi ro từ thủ thuật bầu cử do AI thúc đẩy. Mặc dù không phải không được hoan nghênh, nhưng thành công của thỏa thuận nhỏ sẽ phụ thuộc vào cách thực hiện các cam kết của thỏa thuận. Chúng được diễn đạt bằng ngôn ngữ trơn tuột—“phản ứng tương xứng”, “nếu thích hợp và khả thi về mặt kỹ thuật”, “cố gắng”, v.v.—tạo cho các công ty tự do làm rất ít nếu họ lựa chọn như vậy. Tất nhiên, trong khi một số công ty đang thực hiện các bước xa hơn thì tính cấp bách của tình hình đòi hỏi phải có hành động mạnh mẽ hơn và toàn cầu hơn.

Năm nay là cuộc bầu cử quốc gia đầu tiên của Hoa Kỳ kể từ khi sự phát triển của AI cho phép những kẻ gian lận tạo ra hình ảnh, video hoặc âm thanh giả nhưng gần như hoàn hảo về các ứng cử viên và quan chức đang làm hoặc nói hầu như bất cứ điều gì với thời gian tối thiểu, chi phí ít hoặc không đáng kể và trên diện rộng. Và công nghệ đằng sau chatbot AI tạo ra cho phép những kẻ lừa đảo tạo ra các trang web bầu cử giả hoặc đẻ ra các trang tin giả chỉ trong vài giây và ở quy mô lớn. Nó cũng cung cấp cho các diễn viên xấu— trong và ngoài nước—khả năng tiến hành các chiến dịch gây ảnh hưởng tương tác khó theo dõi và siêu cường.

Khi AI tạo ra được tích hợp vào các công cụ tìm kiếm thông thường và các cử tri trò chuyện với chatbot, những người tìm kiếm thông tin cơ bản về các cuộc bầu cử có khả năng tiếp xúc với thông tin sai lệch, tin đồn thuần túy hoặc các liên kết đến các trang web bên lề. Một nghiên cứu gần đây của AI Democracy Projects và Proof News chỉ ra rằng các công cụ AI phổ biến—bao gồm Google’s Gemini, OpenAI’s GPT-4 và Meta’s Llama 2— “” khi cung cấp một số câu hỏi về cuộc bầu cử. AI không phải truyền thống, không tạo ra những thách thức lớn đối với đủ điều kiện của hàng nghìn cử tri, gây nguy cơ thanh trừng sai lầm khỏi danh sách cử tri và gây gánh nặng cho các phòng bỏ phiếu. Khi các quan chức bầu cử xem xét việc sử dụng các công cụ AI mới trong các nhiệm vụ hàng ngày của họ, việc thiếu các quy định có ý nghĩa có thể khiến một số quyền tiếp cận bỏ phiếu gặp nguy hiểm ngay cả khi AI mở ra các cơ hội tiết kiệm thời gian cho các văn phòng không đủ nhân viên.

Trước khi diễn ra hội nghị Munich, hoạt động tạo AI hàng đầu thế giới OpenAI đã công bố gần đây một cơ chế được thiết kế để hạn chế những thiệt hại về bầu cử khi Hoa Kỳ tiến hành bỏ phiếu vào năm 2024. Chúng bao gồm cấm người dùng xây dựng chatbot AI tùy chỉnh mạo danh ứng cử viên, cấm người dùng triển khai Open Công cụ AI để lan truyền thông tin sai lệch về thời gian và cách thức bỏ phiếu, và mã hóa hình ảnh bằng mã kỹ thuật số giúp người quan sát tìm ra Dall-E của OpenAI đã tạo ra hình ảnh nào đang phát triển trong tự nhiên.

Nhưng những hành động này—mặc dù mạnh mẽ hơn so với một số công ty AI lớn khác cho đến nay—vẫn còn nhiều thiếu sót và nhấn mạnh những hạn chế mà chúng ta có thể thấy trong những tháng tới khi OpenAI và các công ty công nghệ lớn khác bày tỏ thiện chí để tôn vinh các cam kết được thực hiện ở Munich. Đầu tiên: các chính sách hướng đến công chúng của công ty không nêu bật một số câu chuyện sai lệch và miêu tả cốt lõi đã ám ảnh các chu kỳ bầu cử trước đó và có khả năng sẽ được hồi sinh dưới các hình thức mới trong năm nay. Ví dụ, chúng không thể hiện rõ những điều gian dối cho thấy các quan chức bầu cử can thiệp vào số phiếu bầu, những chế tạo về các máy bỏ phiếu không đáng tin cậy hoặc bị hỏng, hoặc những tuyên bố vô căn cứ rằng đã xảy ra gian lận bầu cử trên diện rộng. (Theo Brennan Center, đây là một trong những câu chuyện sai lệch phổ biến nhất được những người phủ nhận cuộc bầu cử thúc đẩy trong cuộc bầu cử giữa nhiệm kỳ năm 2022.) Mặc dù các chính sách của OpenAI giải quyết có thể bao gồm một số hoặc tất cả nội dung như vậy, nhưng việc nêu rõ các thể loại này là bị cấm tạo ra và lan truyền sẽ mang lại sự rõ ràng hơn cho người dùng và bảo vệ cho cử tri. Vì thủ tục bầu cử— và trục trặc nhanh chóng trong Ngày bầu cử—thay đổi tùy theo từng quận, công ty nên có các kênh để chia sẻ thông tin giữa các quan chức bầu cử địa phương và nhân viên OpenAI trong những tháng trước cuộc bầu cử.

Có lẽ quan trọng nhất, kỳ quan công nghệ cần làm nhiều hơn để hạn chế rủi ro khi làm việc với các nhà phát triển bên thứ ba, tức là các công ty cấp phép các mô hình của OpenAI. Ví dụ: nếu người dùng nhập các câu hỏi cơ bản về cuộc bầu cử vào công cụ tìm kiếm của bên thứ ba sử dụng các mô hình OpenAI, các câu trả lời có thể có lỗi, sự thật lỗi thời và các lỗi khác. (Báo cáo của WIRED về Microsoft Copilot vào tháng 12 năm ngoái đã tiết lộ một số vấn đề liên quan đến công cụ tìm kiếm—sử dụng công nghệ OpenAI—mặc dù một số vấn đề đó có thể đã được giải quyết.) Để bảo vệ tốt hơn cho cử tri trong mùa bầu cử này, công ty phải tạo ra và thực thi các yêu cầu nghiêm ngặt hơn đối với các đối tác của mình khi tích hợp các mô hình OpenAI vào công cụ tìm kiếm—hoặc bất kỳ nền tảng kỹ thuật số nào mà cử tri có thể truy cập để tìm kiếm thông tin về ABC về việc bỏ phiếu và bầu cử. Mặc dù thỏa thuận được ký ở Munich nhằm vào nội dung lừa dối cố ý, nhưng cử tri cũng có thể bị ảnh hưởng bởi “ảo tưởng” của AI—những sự chế tạo do thuật toán của hệ thống đưa ra—hoặc những trục trặc khác mà những người tạo và nhà cung cấp dịch vụ AI không ngăn chặn được.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác. 

Nhưng OpenAI không thể đơn phương thực hiện được. Những người khổng lồ công nghệ khác phải công bố các chính sách bầu cử của riêng họ đối với các công cụ AI tạo ra, vạch trần bất kỳ điều chỉnh hậu trường nào và mở các hoạt động nội bộ để công chúng giám sát và hiểu biết. Là bước đầu tiên, các công ty công nghệ lớn—bao gồm Apple, ByteDance, Samsung và X—nên ký kết theo tiêu chuẩn mở của Digital Content Integrity Alliance để nhúng nội dung bằng các chỉ số kỹ thuật số giúp chứng minh nội dung đó được tạo bằng AI hay xác thực khi nội dung đó lan truyền qua mạng trực tuyến. (Trong khi Apple và X cam kết xem xét gắn các tín hiệu tương tự vào nội dung của họ tại Munich, một tiêu chuẩn nhất quán sẽ cải thiện khả năng phát hiện và phối hợp trên diện rộng.) Trong khi đó, các chỉ số nên

Author

eva@pressvn.com