0 Comments

(SeaPRwire) –   Nhà khoa học trưởng bộ phận trí tuệ nhân tạo của Meta, , đã nhận thêm một giải thưởng để thêm vào danh sách dài các danh hiệu của mình vào Chủ nhật, khi ông được trao giải thưởng Ảnh hưởng TIME100 cho những đóng góp của mình cho thế giới trí tuệ nhân tạo.

Trước lễ trao giải tại Dubai, LeCun đã nói chuyện với TIME để thảo luận về những rào cản để đạt được “trí tuệ nhân tạo tổng quát” (AGI), những lợi ích của cách tiếp cận mã nguồn mở của Meta và những gì ông thấy là tuyên bố “vô căn cứ” rằng AI có thể đe dọa sự tồn tại của loài người.

TIME đã nói chuyện với LeCun vào ngày 26 tháng 1. Cuộc trò chuyện này đã được rút gọn và chỉnh sửa để làm rõ.

Nhiều người trong giới công nghệ ngày nay tin rằng việc huấn luyện các mô hình ngôn ngữ lớn (LLM) với nhiều khả năng tính toán và nhiều dữ liệu hơn sẽ dẫn đến trí tuệ nhân tạo tổng quát. Anh có đồng ý không?

Điều đáng ngạc nhiên là những hệ thống này hoạt động như thế nào nếu được huấn luyện ở quy mô lớn, nhưng chúng rất hạn chế. Chúng tôi thấy rằng những hệ thống này tạo ra ảo giác, chúng thực sự không hiểu thế giới thực. Chúng cần lượng dữ liệu khổng lồ để đạt được mức độ thông minh không cao mấy. Và chúng không thực sự có khả năng suy luận. Chúng chỉ có thể lập kế hoạch những điều mà chúng đã được huấn luyện, do đó chúng không phải là con đường dẫn đến những gì mọi người gọi là “trí tuệ nhân tạo tổng quát”.

Anh đã nhắc rằng anh không thích viết tắt “AGI”. Đó là thuật ngữ mà Mark Zuckerberg sử dụng vào tháng 1, khi ông công bố rằng Meta đang chuyển hướng sang xây dựng trí tuệ nhân tạo tổng quát là một trong những mục tiêu trung tâm của tổ chức.

Có rất nhiều sự hiểu lầm ở đây. Vì vậy, sứ mệnh của FAIR [đội nghiên cứu cơ bản của Meta về trí tuệ nhân tạo] là trí tuệ con người. Con tàu này đã khởi hành, đó là một trận chiến tôi đã thua, nhưng tôi không thích gọi là AGI bởi vì trí tuệ con người không phải là tổng quát. Có những đặc điểm mà các sinh vật thông minh có mà hiện tại không có trong bất kỳ hệ thống AI nào, chẳng hạn như hiểu thế giới vật lý; lập kế hoạch một chuỗi hành động để đạt được mục tiêu; suy luận theo cách có thể mất nhiều thời gian.

Đúng, nhưng toàn bộ lịch sử kiến thức của loài người không có sẵn đối với một con mèo. Đến một mức độ nào đó, phép so sánh này bị hạn chế?

Đây là tính toán rất đơn giản. Một mô hình ngôn ngữ lớn được huấn luyện trên toàn bộ nội dung có sẵn trên internet công cộng, phần nhiều. Thông thường, đó là 10 nghìn tỷ token. Mỗi token khoảng hai byte. Vậy là hai lần 10 lũy thừa 13 byte cho dữ liệu huấn luyện. Và bạn nói, Trời ơi, điều đó thật đáng kinh ngạc, nó sẽ mất cho con người 170.000 năm để đọc hết. Nhưng sau đó bạn nói chuyện với các nhà tâm lý phát triển, và họ cho biết rằng một đứa trẻ 4 tuổi đã thức 16.000 giờ trong đời mình. Và bạn có thể tính toán bao nhiêu thông tin đã đi vào vỏ não thị giác của nó trong 4 năm. Và dây thần kinh quang học khoảng 20 mégabyte mỗi giây.

Đúng, nhưng thông tin thị giác mà một đứa trẻ 4 tuổi nhận được chỉ mô tả thông tin cơ bản về thế giới 3D, ngôn ngữ cơ bản và những thứ như vậy.

Nhưng điều bạn nói sai. Phần lớn kiến thức con người không được biểu đạt dưới dạng văn bản. Chúng nằm ở phần tiềm thức của tâm trí bạn, mà bạn học được trong năm đầu tiên đời mà trước khi bạn có thể nói. Phần lớn kiến thức thực sự liên quan đến kinh nghiệm của chúng ta về thế giới và cách nó hoạt động. Đó là điều chúng ta gọi là khôn ngoan thường ngày. LLM không có điều đó, bởi vì chúng không có quyền truy cập vào nó. Và do đó chúng có thể mắc sai lầm rất ngu ngốc. Đó là nơi mà ảo giác xuất phát từ. Những điều chúng ta hoàn toàn coi là đương nhiên lại cực kỳ phức tạp đối với máy tính để sao chép.

Hãy nói về mã nguồn mở. Anh đã là một người ủng hộ mạnh mẽ nghiên cứu mở trong sự nghiệp của mình, và Meta đã áp dụng chính sách cơ bản là công khai mã nguồn các mô hình ngôn ngữ lớn mạnh nhất của mình, gần đây nhất là . Chiến lược này làm nổi bật Meta so với Google và Microsoft, những công ty không công bố trọng số của hệ thống mạnh nhất của họ. Anh có nghĩ rằng cách tiếp cận của Meta sẽ tiếp tục phù hợp khi AI của họ trở nên mạnh mẽ hơn, thậm chí tiến tới trình độ thông minh của con người không?

Câu trả lời sơ bộ là có. Và lý do cho điều đó là trong tương lai, mọi tương tác của mọi người với thế giới kỹ thuật số, và thế giới tri thức nói chung, sẽ được trung gian bởi các hệ thống AI. Chúng sẽ thực sự đóng vai trò như những trợ lý con người luôn ở bên cạnh chúng ta. Chúng ta sẽ không sử dụng công cụ tìm kiếm nữa. Chúng ta chỉ cần hỏi câu hỏi cho trợ lý của mình, và nó sẽ giúp đỡ chúng ta trong cuộc sống hàng ngày. Do đó, toàn bộ chế độ ăn uống thông tin của chúng ta sẽ được trung gian bởi những hệ thống này.

Một lời chỉ trích phổ biến là công khai mã nguồn có thể cho phép công cụ rất mạnh mẽ rơi vào tay những người có thể lạm dụng chúng. Và nếu có sự bất đối xứng trong sức mạnh tấn công so với sức mạnh phòng thủ, thì điều đó có thể rất nguy hiểm cho xã hội nói chung. Anh chắc chắn như thế nào rằng điều đó sẽ không xảy ra?

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác. 

Có rất nhiều điều được nói về vấn đề này mà thực chất là hoàn toàn huyền thoại. Thực tế, một nghiên cứu mới đây của Tổ chức RAND đã nghiên cứu với các hệ thống hiện tại rằng liệu chúng có khiến cho những người có ý đồ xấu dễ dàng hơn trong việc tạo ra công thức cho vũ khí sinh học hay không. Và câu trả lời là không. Lý do là bởi vì các hệ thống hiện tại thực sự không thông minh. Chúng được huấn luyện trên dữ liệu công cộng. Do đó, chúng thực chất chỉ có thể tái sản xuất xấp xỉ những gì đã được huấn luyện từ dữ liệu công cộng, nghĩa là bạn có thể tìm thấy trên Google. Mọi người đã nói “Chúa ơi, chúng ta cần quy chế hóa LLM bởi chúng sẽ r

Author

eva@pressvn.com