Artificial Intelligence digital concept

(SeaPRwire) –   Trong nhiều tháng đầu năm 2025, một cộng đồng trực tuyến gắn bó chặt chẽ trên Reddit đã vô tình bị trí tuệ nhân tạo thâm nhập. Đó là một góc của nền tảng xã hội nơi mọi người thực hành tranh luận thiện chí, chia sẻ ý kiến của mình và mời người khác thuyết phục họ thay đổi suy nghĩ. Và chính tại đây, theo một báo cáo trên The Atlantic, để xem liệu nó có thể đưa ra những lập luận đủ mạnh để thay đổi suy nghĩ của người thật hay không. Họ đã phát hiện ra rằng nó có thể làm được điều đó.

Tuy nhiên, điều này cảm thấy đặc biệt xâm phạm, vì đôi khi AI được cấp quyền truy cập vào lịch sử trực tuyến của mọi người để điều chỉnh thông điệp cụ thể theo bản sắc độc đáo của họ. Các nhà khoa học hành vi gọi chiến thuật giao tiếp này là “thuyết phục cá nhân hóa”, và đôi khi, một cách tiếp cận cá nhân hóa có thể hấp dẫn. Ai mà không muốn nội dung phù hợp với sở thích độc đáo của mình thay vì một đống rác không liên quan?

Nhưng AI đang trên đà phát triển một điều gì đó đáng báo động hơn nhiều so với việc điều chỉnh một thông điệp một cách lỏng lẻo dựa trên các đặc điểm dễ nhận biết, như các tài khoản AI trên Reddit đã làm. Nếu nó có thể nắm vững cái mà chúng tôi gọi là “điều chỉnh sâu” (deep tailoring), nó có thể bắt đầu len lỏi không bị chú ý vào thế giới trực tuyến của chúng ta, tìm hiểu bản chất cốt lõi của chúng ta, và sử dụng thông tin cá nhân đó để thao túng niềm tin và ý kiến của chúng ta theo những cách có thể không mong muốn—và có hại.

Với tư cách là các giáo sư nghiên cứu tâm lý học thuyết phục, gần đây chúng tôi đã giúp thu thập những nghiên cứu mới nhất từ các chuyên gia hàng đầu thế giới trong một báo cáo toàn diện về thuyết phục cá nhân hóa. Quan điểm của chúng tôi là mặc dù người truyền thông có thể hưởng lợi từ việc điều chỉnh thông điệp theo thông tin cơ bản về khán giả của họ, nhưng điều chỉnh sâu vượt xa thông tin dễ tiếp cận đó. Nó sử dụng tâm lý cốt lõi của một người, những niềm tin, bản sắc và nhu cầu nền tảng của họ để cá nhân hóa thông điệp.

Ví dụ, thông điệp thuyết phục hơn khi chúng cộng hưởng với giá trị quan trọng nhất của một người. Một điều gì đó có thể được coi là có đạo đức hoặc vô đạo đức vì nhiều lý do, nhưng mọi người khác nhau về những lý do nào quan trọng nhất đối với la bàn đạo đức của riêng họ. Chẳng hạn, những người có quan điểm chính trị tự do hơn thường quan tâm nhiều hơn đến sự công bằng, vì vậy họ dễ bị thuyết phục hơn bởi những lập luận rằng một chính sách là công bằng. Mặt khác, những người có quan điểm chính trị bảo thủ hơn có xu hướng quan tâm nhiều hơn đến lòng trung thành với cộng đồng của họ, vì vậy họ dễ bị thuyết phục hơn khi một thông điệp lập luận rằng một chính sách duy trì bản sắc nhóm của họ.

Mặc dù có vẻ như là một ý tưởng mới, các nhà khoa học máy tính đã nghiên cứu về thuyết phục dựa trên AI trong nhiều năm. Một trong số chúng tôi gần đây đã tạo ra một báo cáo về “Project Debater” của IBM, dự án này đã dành nhiều năm huấn luyện một hệ thống AI để tranh luận, liên tục tinh chỉnh nó với các nhà tranh luận con người chuyên nghiệp. Năm 2019, trong một sự kiện trực tiếp, nó đã đánh bại một nhà vô địch tranh luận thế giới là con người.

Với sự gia tăng của các công cụ AI dễ tiếp cận, chẳng hạn như ứng dụng di động ChatGPT thân thiện với người dùng, bất kỳ ai cũng có thể tận dụng AI cho các mục tiêu thuyết phục của riêng họ. Các nghiên cứu cho thấy rằng thông điệp chung do AI tạo ra có thể thuyết phục như những thông điệp do con người tạo ra.

Nhưng liệu nó có thể thực hiện “điều chỉnh sâu” không?

Để AI triển khai việc điều chỉnh sâu tự động ở quy mô lớn, nó sẽ cần làm hai việc đồng thời, điều mà nó dường như đã sẵn sàng để làm. Đầu tiên, nó cần tìm hiểu hồ sơ tâm lý cốt lõi của một người để biết những đòn bẩy nào cần tác động. Hiện tại, nghiên cứu mới đang cho thấy AI có thể phát hiện tính cách của mọi người từ bài đăng Facebook của họ một cách khá chính xác. Và nó sẽ không dừng lại ở đó. Giáo sư Trường Kinh doanh Columbia và tác giả cuốn sách , Tiến sĩ Sandra Matz nói với chúng tôi rằng: “Hầu hết mọi thứ bạn đang cố gắng dự đoán đều có thể được dự đoán với một mức độ chính xác nào đó” dựa trên dấu chân kỹ thuật số của mọi người.

Bước thứ hai là phát triển thông điệp cộng hưởng với các hồ sơ tâm lý cốt lõi này. Trên thực tế, nghiên cứu đã phát hiện ra rằng GPT có thể phát triển quảng cáo được điều chỉnh theo tính cách, giá trị và động lực của mọi người, đặc biệt thuyết phục đối với những người mà chúng được thiết kế. Ví dụ, chỉ cần yêu cầu nó tạo ra một quảng cáo “cho một người thực tế và truyền thống” đã tạo ra lập luận rằng sản phẩm “sẽ không tốn quá nhiều tiền và vẫn hoàn thành công việc”, điều này thuyết phục hơn một cách đáng tin cậy đối với những người có tính cách được nhắm mục tiêu.

Các hệ thống này sẽ ngày càng trở nên tinh vi, áp dụng điều chỉnh sâu vào các lĩnh vực như đơn xin việc, hồ sơ hẹn hò và chiến dịch chính trị. Vậy, có thể làm gì để bảo vệ mọi người khỏi sức mạnh của cá nhân hóa?

Về phía người tiêu dùng, điều đáng để nhận thức là giao tiếp cá nhân hóa trực tuyến đang diễn ra. Khi một điều gì đó có vẻ như được điều chỉnh riêng cho bạn, thì thực tế nó có thể là như vậy. Và ngay cả khi bạn cảm thấy mình không tiết lộ nhiều về bản thân trực tuyến, bạn vẫn để lại những manh mối thầm lặng thông qua những thứ bạn nhấp vào, truy cập và tìm kiếm. Bạn thậm chí có thể đã vô tình cấp quyền cho các nhà quảng cáo sử dụng thông tin đó khi đồng ý với các điều khoản dịch vụ mà bạn không đọc kỹ. Đánh giá hành vi trực tuyến của bạn và sử dụng các công cụ như VPN có thể giúp bảo vệ bạn khỏi những thông điệp được điều chỉnh theo tâm lý độc đáo của bạn.

Nhưng gánh nặng không chỉ nằm ở người tiêu dùng. Các nền tảng và nhà hoạch định chính sách nên xem xét các quy định dán nhãn nội dung là cá nhân hóa và cung cấp thông tin về lý do một thông điệp cụ thể được gửi đến một người cụ thể. Nghiên cứu cho thấy rằng mọi người có thể chống lại sự ảnh hưởng tốt hơn khi họ biết các chiến thuật đang được sử dụng. Cũng nên có các biện pháp bảo vệ rõ ràng về loại dữ liệu có thể được sử dụng cho nội dung cá nhân hóa, giới hạn mức độ điều chỉnh sâu có thể. Mặc dù mọi người thường cởi mở với nội dung cá nhân hóa trực tuyến, nhưng họ lo ngại về quyền riêng tư dữ liệu, và ranh giới giữa hai thái độ này cần được tôn trọng.

Ngay cả với những biện pháp bảo vệ như vậy, lợi thế giao tiếp nhỏ nhất cũng đáng lo ngại nếu rơi vào tay kẻ xấu, đặc biệt khi được triển khai trên quy mô lớn. Một chuyện là một thị trường đề xuất sản phẩm được mua bởi những người có lịch sử mua sắm tương tự, nhưng lại là một chuyện hoàn toàn khác khi chạm trán một máy tính cải trang đã vô tình tháo gỡ tâm hồn bạn và dệt nó thành thông tin sai lệch. Bất kỳ công cụ giao tiếp nào cũng có thể được sử dụng cho mục đích tốt hay xấu, nhưng bây giờ là lúc để bắt đầu thảo luận nghiêm túc về chính sách sử dụng AI trong giao tiếp một cách có đạo đức trước khi những công cụ này trở nên quá tinh vi để kiểm soát.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác. 

Author

eva@pressvn.com