Trong mắt sợ hãi có trí tuệ nhân tạo - ForkLog: tiền điện tử, AI, siêu trí tuệ, tương lai

img-6086d8792646fd5f-6638815773356060# Trong sợ hãi, mắt người trở nên to lớn hơn

Bạn có thường nghe những dự đoán về ngày tận thế, trong đó vai trò chính thuộc về trí tuệ nhân tạo toàn năng không? Ít nhất một lần mỗi tuần, một doanh nhân hoặc người nổi tiếng nào đó bày tỏ lo ngại về một tương lai đáng sợ dưới ách thống trị của nó.

Dĩ nhiên, một nhân vật nổi tiếng cộng với dự báo u tối là công thức hoàn hảo cho một tiêu đề gây chú ý. Nhưng nếu trước đây, các nội dung theo mô hình này phản ánh tiến bộ thực sự, đôi khi đáng sợ trong công nghệ, thì giờ đây, ngày càng nhiều hơn, đó chỉ là marketing rỗng hoặc hiểu lầm đơn giản về bản chất của sự kiện đang diễn ra.

Vì sao chúng ta vẫn bị dọa bởi những câu chuyện sai lệch về “Kẻ hủy diệt”, trong khi các chatbot hiện đại thường xuyên nói dối trắng trợn và không thể nhớ nổi năm câu thoại? Và điều quan trọng nhất — ai có thể hưởng lợi từ điều này?

Không gây ấn tượng

Ngay lập tức, cần nhấn mạnh: Công nghệ trí tuệ nhân tạo đã có bước nhảy vọt lớn trong thập kỷ qua. Các hệ thống hiện đại đã học cách viết các đoạn văn mạch lạc, nhận diện các quy luật trong dữ liệu lớn và tạo ra nội dung hình ảnh. Cách đây không lâu, máy móc còn chưa thể thay thế được công việc của con người đến vậy.

Tiềm năng tiến bộ khiến người ta lo sợ. Tuy nhiên, hiện tại, sự phát triển của các sản phẩm đại trà chỉ dừng lại ở các cuộc thảo luận về trí tuệ nhân tạo chung (Artificial General Intelligence - AGI) và việc phát hành các mô hình ngôn ngữ gần như giống hệt nhau (đôi khi các phiên bản mới còn tệ hơn cả tiền nhiệm).

Chúng ta cuối cùng có trong tay: một công cụ hỗ trợ, được đào tạo để thực hiện các nhiệm vụ đơn giản với văn bản và đôi khi cả hình ảnh. Con người đã sử dụng nó để viết code hoặc đăng bài trên mạng xã hội. Tuy nhiên, kết quả thường cần phải kiểm tra lại — các mạng neural chưa đủ khả năng để xử lý các tác vụ phức tạp hơn.

Bạn có thể yêu cầu chatbot yêu thích của mình viết luận án tiến sĩ về đề tài “X”: sẽ nhận được một đoạn văn khó liên kết về mặt ý nghĩa, kèm theo các liên kết từ trang đầu hoặc thứ hai của công cụ tìm kiếm. Để cải thiện kết quả, người ta khuyên dùng các prompt mở rộng, nhưng đó chỉ là một cách tinh chỉnh nữa trên “ngôn ngữ của máy” và huấn luyện thêm.

Khi sử dụng AI lâu dài, có lẽ mỗi người dùng đều nhận thức rõ về giới hạn của các mô hình hiện nay. Tất cả tiến bộ cuối cùng đều bị giới hạn bởi dung lượng dữ liệu huấn luyện và sức mạnh của máy chủ, còn yếu tố “trí tuệ” đã trở thành thứ thứ yếu.

Trí tuệ mà không có não

Để hiểu rõ hơn về bối cảnh, cần giải thích cơ chế hoạt động của AI. Nói ngắn gọn, các mô hình ngôn ngữ lớn (LLM) của chatbot cổ điển hoạt động như sau:

  1. Văn bản đầu vào được chia thành các token (phần của từ, ký tự).
  2. Mỗi token được gán một vector số.
  3. Mô hình phân tích các mối liên hệ giữa các token và xác định những từ quan trọng nhất để hiểu ngữ cảnh.
  4. Trên cơ sở đó, LLM “dự đoán” token tiếp theo, tạo thành câu trả lời.

“Dự đoán” này không xuất phát từ hư không. Nó đã qua huấn luyện sơ bộ trên một kho dữ liệu khổng lồ, thường là từ các nguồn mở trên internet. Chính từ đó, mạng neural lấy toàn bộ “trí tuệ” của mình.

Các mô hình ngôn ngữ không “hiểu” văn bản theo nghĩa con người, mà chỉ tính toán các quy luật thống kê. Tất cả các chatbot hiện đại hàng đầu đều dựa trên cùng một kiến trúc cơ bản gọi là “Transformer”, hoạt động theo nguyên lý này.

Dĩ nhiên, so sánh này mang tính sơ bộ, nhưng có thể gọi LLM như một máy tính tính toán cực mạnh dựa trên một kho dữ liệu lớn. Một công cụ mạnh mẽ, cần thiết và giúp đơn giản hóa nhiều khía cạnh cuộc sống của chúng ta, nhưng còn quá sớm để gọi đó là trí tuệ thực sự.

Các chatbot hiện nay giống như phiên bản mới của các công cụ tìm kiếm (chào, Gemini của Google), chứ không phải là trợ lý toàn năng mang theo trong túi.

Hơn nữa, vẫn còn nhiều câu hỏi về độ tin cậy của các câu trả lời từ AI. Sau khi xem thống kê về các trường hợp “ảo tưởng” và nói dối của mạng neural, người ta thường có cảm giác muốn quay lại việc “tìm kiếm trên Google” truyền thống.

So sánh độ chính xác của GPT-5 và o4-mini. Nguồn: OpenAI.## Bu, sợ rồi à?

Luận điểm chính của những người ủng hộ ngày tận thế là “AI trở nên thông minh theo cấp số nhân”, vì vậy, ngay khi nó vượt qua trí tuệ con người, loài người như một loài sẽ chấm dứt tồn tại.

Các AI hiện nay, không thể phủ nhận, đã vượt xa chúng ta về độ chính xác xử lý và chuyển đổi dữ liệu. Ví dụ, mạng neural có thể kể lại khá chi tiết về “Wikipedia”. Nhưng đó gần như là giới hạn kiến thức của nó. Chính xác hơn, mô hình chỉ không thể sử dụng chúng cho “mục đích cá nhân”, vì nó không biết cách, và cũng không có nhiệm vụ đó.

Hơn nữa, đã rõ ràng rằng trí tuệ nhân tạo không hiểu thế giới xung quanh chúng ta. Các quy luật vật lý đối với AI là một rừng rậm tối.

Tất cả sự phát triển của các mô hình ngôn ngữ chỉ xoay quanh việc mở rộng khả năng dự đoán (đoán các token tiếp theo). Tuy nhiên, AI nhanh chóng tiến gần đến giới hạn của khả năng huấn luyện dựa trên văn bản, và ngày càng có nhiều ý kiến về việc cần tạo ra một “trí tuệ không gian” (spatial intelligence).

Nhưng nếu các điểm yếu của công nghệ còn có thể xác định, và công việc trong các hướng này đã bắt đầu, thì các câu hỏi phức tạp hơn vẫn còn bỏ ngỏ.

Ngay cả nhân loại cũng chưa hiểu rõ nhiều về cấu trúc của bộ não. Nói gì đến việc tái tạo một cấu trúc phức tạp như vậy trong môi trường số.

Thêm vào đó, một trở ngại gần như không thể vượt qua đối với AI là khả năng sáng tạo — khả năng tạo ra điều gì đó mới mẻ. Các LLM về mặt kỹ thuật không thể vượt ra ngoài giới hạn kiến trúc của chúng, vì hoạt động của chúng dựa trên xử lý dữ liệu đã có.

Do đó, tương lai của AI phụ thuộc trực tiếp vào loại thông tin mà nhân loại cung cấp cho nó, và hiện tại, tất cả dữ liệu huấn luyện đều hướng đến lợi ích của con người.

Về mặt công bằng, cần nhắc đến Elon Musk và dự án Grok của ông. Một thời gian, người dùng chú ý đến thành kiến của chatbot và xu hướng đánh giá quá cao khả năng của tỷ phú này. Đây là tín hiệu khá đáng lo ngại về mặt đạo đức, nhưng khả năng “não bộ AI” của Musk khó có thể gây hại vật lý cho nhân loại.

Điều rõ ràng là mục tiêu duy nhất của các ứng dụng trí tuệ nhân tạo là phục vụ yêu cầu của người dùng. Chatbot không có ý chí hay mong muốn riêng, và trong tương lai gần, có lẽ sẽ không có sự thay đổi về nguyên tắc này.

Cấu trúc của nỗi sợ hãi

Vậy tại sao chúng ta vẫn bị dọa bởi AI, thứ đã chứng minh là không quá “thông minh”? Các câu trả lời chính nằm ngay trên bề mặt.

Ngoại trừ việc không hiểu rõ công nghệ, lý do đơn giản nhất là tham lam tiền bạc hoặc danh tiếng.

Hãy xem ví dụ của một trong những “nhà tiên tri ngày tận thế” — Eliezer Yudkowsky. Nhà nghiên cứu AI và đồng tác giả cuốn sách If Anyone Builds It, Everyone Dies (“Nếu ai đó xây dựng nó, tất cả sẽ chết”) từ những năm 2000 cảnh báo về một AI siêu trí tuệ, mà theo ông, sẽ không còn các giá trị của con người.

Bìa sách. Nguồn: Instaread. “Siêu trí tuệ” vẫn chưa xuất hiện, chính Yudkowsky thừa nhận điều này. Nhưng điều đó không ngăn ông xuất hiện trên các podcast với những tuyên bố gây sốc và bán sách.

Nhà vật lý nổi tiếng và “cha đẻ của AI” Jeffrey Hinton cũng từng bày tỏ những lo ngại mang tính tận thế. Ông ước lượng khả năng công nghệ có thể dẫn đến diệt vong loài người trong vòng 30 năm tới với xác suất 10-20%.

Theo Hinton, khi khả năng của AI tăng lên, chiến lược “kiểm soát AI” có thể trở nên vô hiệu, và các hệ thống tự hành sẽ cố gắng sinh tồn và mở rộng quyền kiểm soát.

Trong trường hợp này, chưa rõ ai và để làm gì có thể ban cho các mạng neural “lệnh sống”. Hinton vẫn tiếp tục nghiên cứu về huấn luyện mạng neural và năm 2024, ông được đề cử Nobel vì những thành tựu trong lĩnh vực này, còn đầu năm 2026, ông trở thành nhà khoa học thứ hai trong lịch sử sau nhà cybernetics Joshua Bengeo đạt 1 triệu trích dẫn.

Ngạc nhiên thay, các dự đoán thực tế hơn lại đến từ đồng sáng lập Google Brain, Andrew Ng. Ông gọi AI là “công nghệ cực kỳ hạn chế” và tin rằng trong tương lai gần, các thuật toán sẽ không thể thay thế con người.

Rõ ràng, những nhà dự báo nổi bật, thậm chí có phần gây sốc, xuất hiện trong bất kỳ lĩnh vực nào. Thêm vào đó, sự tồn tại của họ trong ngành AI hoàn toàn có thể lý giải bằng tình yêu lớn của cộng đồng đối với khoa học viễn tưởng. Ai mà không muốn nghe những câu chuyện kiểu Philip K. Dick hay Robert Sheckley, chỉ khác là nội dung đã diễn ra ngay trong thực tại hiện tại.

Trong bối cảnh này, các tuyên bố của các tập đoàn lớn còn gây nhiều tranh cãi hơn, như thể vô tình cảnh báo về nguy cơ mất việc làm và dự đoán sự phát triển nhanh chóng của AI. Nếu luận điểm thứ hai phần nào giải thích cho việc cắt giảm chi phí, thì luận điểm đầu lại vô tình dẫn đến các giả thuyết âm mưu phức tạp hơn.

Chẳng hạn, một trong những công ty lớn nhất thế giới — Amazon — trong nửa năm qua đã sa thải hơn 30.000 nhân viên. Ban lãnh đạo viện dẫn các kế hoạch tối ưu hóa và ảnh hưởng của tự động hóa, trong đó có cả việc triển khai AI.

Việc phát triển các robot kho hàng vẫn tiếp tục. Tuy nhiên, những người hoài nghi cho rằng vấn đề còn đơn giản hơn nhiều — trong các đợt sa thải hàng loạt tại các công ty, nguyên nhân chính là do quản lý nhân sự kém thời kỳ đại dịch COVID-19.

Amazon không phải là ví dụ duy nhất. Các công ty AI ở Thung lũng Silicon vẫn tiếp tục mở rộng đội ngũ nhân viên và thuê thêm các văn phòng mới.

Trong khi đó, ngay từ năm 2023, hầu hết các công ty này đã ký vào một tuyên bố của Trung tâm An toàn AI (Center for AI Safety) về việc chậm lại tiến trình phát triển công nghệ — cho rằng trí tuệ nhân tạo có thể gây ra “rủi ro tồn vong” tương đương với đại dịch và chiến tranh hạt nhân.

Tuyên bố của Trung tâm An toàn AI. Nguồn: aistatement.com. Theo thời gian, văn bản này dần lãng quên, công việc tiếp tục, nhưng mối đe dọa rõ ràng vẫn chưa xuất hiện.

Nói theo cách doanh nghiệp, trong thời đại của các cuộc tranh luận về bong bóng AI, việc viện dẫn các thay đổi công nghệ dường như là cách giải thích thuận tiện hơn cho các sai sót trong quản lý nhân sự. Tuy nhiên, những tuyên bố này tạo ra hình ảnh sai lệch về thực tế và làm lu mờ các vấn đề thực sự — như thông tin sai lệch và deepfake.

Trí tuệ nhân tạo không lấy mất việc làm của người, mà thay đổi cách tiếp cận công việc, đôi khi còn làm đơn giản hóa quá trình. Tuy nhiên, một nghiên cứu nhỏ của Harvard cho thấy, ngược lại, AI đôi khi còn làm phức tạp và chậm lại các quy trình trong doanh nghiệp.

Công nghệ chắc chắn sẽ thâm nhập vào mọi lĩnh vực của cuộc sống: giáo dục, khoa học, thương mại, chính trị. Nhưng hình thức nó sẽ xuất hiện như thế nào, chỉ do chính con người quyết định. Hiện tại, các mạng neural vẫn chưa có quyền phát biểu.

Chúng ta không thể tiếp cận

Bài viết trên đề cập đến các AI phổ biến như chatbot và các “bức tranh sinh ra tự động”. Tất nhiên, đằng sau cánh cửa đóng kín, còn có những dự án nghiêm trọng hơn nhiều.

Trong số đó, có các mô hình ngôn ngữ lớn trong lĩnh vực y học hoặc khảo cổ học. Ví dụ, chúng giúp tổng hợp các protein mới hoặc giải mã các tài liệu cổ không thể phân tích theo phương pháp truyền thống.

Tuy nhiên, để theo dõi kết quả của các nghiên cứu, thử nghiệm và ra mắt này, người ta phải dựa vào các báo cáo nội bộ khó tiếp cận hoặc các bài viết trong các phương tiện truyền thông chuyên ngành, nên mức độ hiểu biết về chúng gần như bằng không. Dù vậy, rất có thể, chính trong lĩnh vực này, hiện đang diễn ra những bước đột phá lớn nhất.

Có thể, “máy móc ngày tận thế” của AI sẽ không xuất hiện trong các phòng thí nghiệm kín. Các mô hình này đều chuyên biệt, chỉ biết làm những gì được yêu cầu.

Mọi lo ngại về việc AI vượt khỏi tầm kiểm soát chỉ là phản ánh nỗi sợ hãi của chính chúng ta: mất việc hoặc các vấn đề đạo đức phức tạp hơn. Nhưng trong khi chúng ta, con người, định hướng tương lai công nghệ, đặt ra mục tiêu phát triển, thì AI vẫn chỉ là công cụ, chứ chưa phải là chủ thể có ý chí riêng.

Nói về các rủi ro tiềm tàng là đúng. Suy nghĩ về các giả thuyết tận thế là theo bản năng con người. Tuy nhiên, luôn cần tiếp cận những điều này với một mức độ hoài nghi hoặc thậm chí là châm biếm. Nếu có nút “tắt” trong tay, thế giới của chúng ta sẽ không bị đe dọa bởi một siêu trí tuệ số.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim