3.28.2026

Andrej Karpathy Thật Ra Đang Nói Gì — Hướng Dẫn Về Tương Lai AI Cho Người Bình Thường

 

Author: Claude AI, under the supervision, prompting and editing by HocTro

Andrej Karpathy là một trong những tiếng nói quan trọng nhất trong lĩnh vực trí tuệ nhân tạo. Ông là đồng sáng lập OpenAI, từng dẫn dắt nhóm AI xe tự lái tại Tesla, và hiện đang là nhà nghiên cứu độc lập. Trong một lần xuất hiện trên podcast No Priors gần đây, ông đã chia sẻ tầm nhìn của mình về hướng đi của AI — và đó là một tầm nhìn đầy kịch tính. Nhưng phần lớn những gì ông nói được gói trong thuật ngữ kỹ thuật và ngôn ngữ nội bộ. Bài viết này sẽ giải thích từng điểm chính, nói rõ ý nghĩa thực sự của chúng, và tại sao chúng quan trọng với những người không phải kỹ sư hay nhà nghiên cứu AI.



Tóm Tắt

Cuộc trò chuyện của Andrej Karpathy trải dài qua nhiều chủ đề, và phần lớn nghe như chuyện khoa học viễn tưởng — nhưng không phải vậy. Đó là mô tả về những gì đang xảy ra ngay lúc này. Đây là phiên bản nói thẳng nói thật về những điểm chính của ông: Công cụ AI hỗ trợ lập trình đã thay đổi mạnh mẽ vào khoảng tháng 12 năm 2024, đến mức các kỹ sư giỏi nhất ngừng tự viết code và chuyển sang quản lý AI như quản lý nhân viên. Karpathy xây dựng một trợ lý AI cho ngôi nhà của mình — điều khiển đèn, nhạc, máy lạnh, hồ bơi, và camera an ninh — tất cả chỉ qua tin nhắn. Ông cho rằng phần lớn các app trên điện thoại rồi sẽ bị thay thế bởi một trợ lý AI duy nhất nói chuyện với mọi thiết bị thay bạn. Ông thiết lập một AI tự cải thiện các AI khác qua đêm trong khi ông ngủ, và nó tìm ra những tối ưu hóa mà ông bỏ sót sau hai mươi năm kinh nghiệm. Ông nghĩ AI sẽ thay đổi công việc văn phòng nhanh hơn nhiều so với công việc chân tay, vì di chuyển thông tin dễ hơn di chuyển vật thể vô cùng. Ông thận trọng lạc quan về việc làm — phần mềm rẻ hơn trong lịch sử đồng nghĩa với nhiều việc làm hơn, chứ không phải ít hơn. Ông tin giáo dục sẽ chuyển đổi từ giáo viên giảng bài cho học sinh sang giáo viên lập trình gia sư AI. Và ông rời các lab AI lớn vì muốn nói thẳng về những gì đang diễn ra mà không bị áp lực từ công ty. Thông điệp tổng thể: cuộc cách mạng AI không phải đang tới — nó đã ở đây rồi, đang diễn ra nhanh hơn hầu hết mọi người nhận ra, và những người có vị thế tốt nhất là những ai học cách làm việc cùng AI thay vì cạnh tranh với nó.

"AI Psychosis" Là Gì? — Khoảnh Khắc Mọi Thứ Thay Đổi

Karpathy nói ông đang ở trong trạng thái "AI psychosis kéo dài liên tục." Nghe có vẻ đáng lo, nhưng thực ra ý ông đơn giản hơn: ông bị ngợp bởi tốc độ thay đổi quá nhanh và lo lắng về việc theo kịp. Từ "psychosis" ở đây chỉ là cách nói cường điệu — ông không mất kết nối với thực tại, mà là không còn có thể vẽ bản đồ toàn bộ thực tại vì có quá nhiều lãnh thổ mới mở ra cùng lúc.

Chuyện gì xảy ra vào tháng 12 năm 2024: Trước tháng đó, Karpathy tự viết phần lớn code của mình — khoảng 80% bằng tay, AI chỉ hỗ trợ 20%. Rồi có gì đó thay đổi trong các model AI (nhiều khả năng là thế hệ mới của các coding agent từ Anthropic, OpenAI, và các công ty khác). Gần như chỉ qua một đêm, AI trở nên đủ giỏi để Karpathy lật ngược hoàn toàn: giờ ông gần như không tự viết một dòng code nào. Ông nói chuyện với các trợ lý AI, mô tả điều mình muốn, và chúng tự xây dựng.

Tại sao điều này quan trọng với bạn: Hãy hình dung như bước nhảy từ viết thư tay sang dùng email. Máy đánh chữ đầu tiên còn thô sơ — bạn vẫn phải tự gõ hầu hết mọi thứ, máy chỉ giúp định dạng. Rồi email xuất hiện và không ai còn viết thư tay nữa. Karpathy đang mô tả bước chuyển kiểu đó, nhưng áp dụng cho toàn bộ ngành phát triển phần mềm. Những người tạo ra app, website, hệ thống ngân hàng cho bạn — cách họ làm việc đã thay đổi hoàn toàn chỉ trong vài tuần. Phần lớn người ngoài ngành công nghệ chưa nhận ra điều này.

Yếu tố lo lắng: Karpathy theo dõi các lập trình viên khác trên mạng xã hội phát hiện ra kỹ thuật mới và cảm thấy thật sự bồn chồn vì sợ tụt hậu. Nếu một trong những chuyên gia AI hàng đầu thế giới còn cảm thấy vậy, điều đó nói lên rất nhiều về tốc độ thay đổi. Vùng lãnh thổ của những điều có thể làm được đang mở rộng nhanh hơn bất kỳ ai có thể khám phá.

II. Coding Agent Là Gì? — Tại Sao Lập Trình Viên Ngừng Gõ Phím

Để hiểu phần còn lại của cuộc trò chuyện, bạn cần hiểu "coding agent" là gì. Nó không phải tự động hoàn chỉnh câu. Không phải AI gợi ý từ tiếp theo khi bạn gõ. Một coding agent giống như có một nhân viên mới có thể làm theo hướng dẫn phức tạp hơn. Bạn mô tả tính năng muốn làm — ví dụ "thêm bảng biểu vào app vẽ này" — và agent tự đi làm trong hai mươi phút hay một tiếng, tự đọc code hiện có, tự hiểu cách chúng kết nối, viết hàng trăm dòng code mới, tự kiểm tra, tự sửa lỗi, rồi quay lại với kết quả hoạt động được.

Cách làm việc của Peter Steinberg: Karpathy mô tả một lập trình viên tên Peter Steinberg đã trở nên nổi tiếng trong cộng đồng lập trình AI. Steinberg ngồi trước màn hình với nhiều AI agent chạy đồng thời, mỗi agent đang làm một việc khác nhau. Anh ta giao cho agent một tính năng cần xây dựng, agent hai một tính năng khác, agent ba một việc nghiên cứu, agent bốn một việc lập kế hoạch. Mỗi việc mất khoảng hai mươi phút. Steinberg đi qua lại giữa chúng như người quản lý trong văn phòng, xem xét kết quả và giao việc mới. Anh ta không viết code — anh ta điều phối.

Nghĩa là gì nói theo cách bình thường: Công việc của kỹ sư phần mềm đang chuyển từ "người gõ lệnh bằng ngôn ngữ lập trình" sang "người quản lý các nhân viên AI." Kỹ năng không còn là gõ nhanh hay nhớ cú pháp. Kỹ năng là khả năng chia nhỏ vấn đề lớn thành từng phần, giải thích từng phần rõ ràng, và xem xét kết quả. Nó giống quản lý dự án hơn là đánh máy.

Kinh tế token: Karpathy đưa ra một khái niệm xuất hiện xuyên suốt cuộc trò chuyện: token. Trong AI, một "token" gần giống một từ hoặc một phần của từ. Khi bạn dùng AI, bạn đang tiêu token — gửi token vào (hướng dẫn của bạn) và nhận token về (câu trả lời của AI). Karpathy nói thước đo năng suất mới là "lưu lượng token" — bao nhiêu token bạn có thể huy động làm việc cho bạn mỗi giờ. Ông so sánh với thế giới nghiên cứu vật lý ngày xưa, nơi năng suất được đo bằng số GPU (chip đồ họa chuyên dụng) đang chạy thử nghiệm cho bạn. Nếu GPU rảnh, bạn đang lãng phí. Giờ thì nếu AI agent rảnh, bạn đang lãng phí.

Tại sao căng thẳng: Điều này tạo ra một kiểu lo lắng công việc mới. Nếu bạn có thể luôn luôn khởi động thêm một AI agent và giao thêm việc, thì mỗi khoảnh khắc không làm vậy là bạn đang bỏ phí công suất. Karpathy thẳng thắn nói ông cảm thấy bồn chồn khi có dung lượng đăng ký chưa dùng. Đó là nỗi lo của người lao động tri thức khi nhìn máy móc ngồi không trong nhà máy. Điểm khác là "máy móc" ở đây là model AI và "nhà máy" là cái laptop của bạn.

III. "Claw" Là Gì? — Dobby Và Cuộc Cách Mạng Nhà Thông Minh

Karpathy dùng từ "claw" (đôi khi là "claude," ám chỉ AI của Anthropic, đôi khi là thuật ngữ chung cho hệ thống agent tự động) để mô tả thứ gì đó bền bỉ hơn coding agent. Một claw là AI chạy liên tục trong nền, có bộ nhớ riêng, môi trường riêng, và làm việc thay bạn ngay cả khi bạn không theo dõi. Hãy nghĩ coding agent như người bạn thuê cho một việc cụ thể; còn claw thì giống trợ lý sống cùng nhà.

Câu chuyện về Dobby, từng bước một: Karpathy xây dựng một hệ thống AI mà ông đặt tên là "Dobby the Elf" (theo nhân vật trong Harry Potter). Đây là chuyện đã xảy ra:

Ông nói với AI: "Tôi nghĩ tôi có loa Sonos. Bạn có thể tìm không?" AI quét mạng nội bộ trong nhà — cùng mạng WiFi với điện thoại và máy tính của ông — và tìm thấy hệ thống Sonos. Nó phát hiện loa không có mật khẩu bảo vệ (điều thường thấy với thiết bị nhà thông minh trên mạng nội bộ). Sau đó nó tự tìm kiếm trên internet để tìm cách điều khiển loa qua giao diện lập trình của chúng. Chỉ qua ba lần nhắn tin, nhạc đã phát trong phòng làm việc của ông.

AI lặp lại điều này cho hệ thống đèn, máy lạnh và sưởi, rèm cửa, hồ bơi và bồn tắm nước nóng, và camera an ninh. Về bảo mật, nó thiết lập một hệ thống: camera theo dõi phía trước nhà, khi phát hiện chuyển động, video được gửi cho một AI riêng có khả năng hiểu hình ảnh. AI đó nhắn tin cho Karpathy qua WhatsApp: "Xe giao hàng FedEx vừa đỗ trước nhà."

Trước khi có Dobby: Karpathy dùng sáu app khác nhau để điều khiển các hệ thống này — một cho Sonos, một cho đèn, một cho điều hòa, v.v. Mỗi app có giao diện riêng, tài khoản riêng, cách dùng riêng. Sau khi có Dobby, ông dùng không app nào. Ông chỉ nhắn tin cho Dobby qua WhatsApp và nói những thứ như "sleepy time" (tắt hết đèn) hay "bật hồ bơi."

Tại sao điều này quan trọng với bạn: Hiện tại, thiết lập thứ gì đó như Dobby đòi hỏi kỹ năng kỹ thuật. Bạn cần biết về mạng, API, và cách ra lệnh cho AI. Nhưng điểm mấu chốt của Karpathy — và đây là điều quan trọng — là tình trạng này chỉ tạm thời. Trong một hoặc hai năm nữa, ông tin bất kỳ ai cũng có thể làm điều này mà không cần kiến thức kỹ thuật. AI sẽ xử lý toàn bộ sự phức tạp. Bạn chỉ cần nói muốn gì và nó sẽ xảy ra.

IV. Cái Chết Của App — Tại Sao Điện Thoại Bạn Có Thể Đơn Giản Hơn

Ví dụ về Dobby dẫn Karpathy đến một lập luận lớn hơn: hầu hết các app trên điện thoại bạn thật ra không nên tồn tại như những ứng dụng độc lập.

Lập luận nói thẳng: Hãy nghĩ về tất cả app bạn đang có. App ngân hàng. App theo dõi sức khỏe. App điều nhiệt nhà thông minh. App nhạc. App an ninh nhà. Mỗi cái được xây bởi một công ty khác nhau, với thiết kế riêng, giao diện riêng, cách hoạt động riêng. Bạn phải học từng cái riêng biệt. Phải liên tục chuyển qua lại giữa chúng. Và chúng không thể nói chuyện với nhau tốt lắm.

Tầm nhìn của Karpathy là tất cả những thứ này chỉ nên là các dịch vụ nền — thứ dân kỹ thuật gọi là "API" (Application Programming Interface), về cơ bản là các kết nối hậu trường cho phép máy tính nói chuyện với nhau. Trợ lý AI của bạn sẽ nói chuyện với tất cả chúng thay mặt bạn. Muốn kiểm tra số dư ngân hàng, điều chỉnh nhiệt độ, và mở nhạc? Cứ nói, AI sẽ gọi đúng dịch vụ cần thiết. Không app, không giao diện, không cần học.

Khách hàng giờ là ai? Đây là điểm khiêu khích nhất của Karpathy trong phần này: khách hàng không còn là con người nữa. Khách hàng là AI agent. Các công ty không nên thiết kế giao diện cho người dùng bấm — mà nên thiết kế API rõ ràng, được ghi chép tốt cho AI agent gọi. Con người chỉ cần nói chuyện với agent. Agent nói chuyện với mọi thứ còn lại.

Phản bác và câu trả lời của Karpathy: Có người lập luận điều này không thực tế vì người bình thường không học lập trình AI riêng cho mình. Karpathy đồng ý — hiện tại. Nhưng ông xem đây là trạng thái tạm thời. Thứ gì giờ đòi hỏi kỹ năng kỹ thuật sẽ trở nên cực kỳ dễ dàng trong một hoặc hai năm nữa, khi model AI cải thiện và công cụ trở nên phổ biến hơn. Phần mềm bạn cần sẽ trở thành "nhất thời" — được tạo ra ngay lập tức cho tình huống cụ thể của bạn, dùng xong rồi bỏ. Bạn sẽ không cài app nữa; bạn chỉ nêu ý định.

Ví dụ thực tế: Hãy nhớ hồi xưa bạn phải tự cấu hình TV, đầu DVD, hộp cáp, và hệ thống âm thanh — mỗi thứ có remote riêng. Rồi remote đa năng ra đời và gộp giao diện lại. Rồi TV thông minh loại bỏ hầu hết thiết bị riêng lẻ. Rồi trợ lý giọng nói cho phép bạn chỉ cần nói "mở phim". Mỗi bước loại bỏ sự phức tạp. Karpathy đang mô tả bước tiếp theo, nơi trợ lý giọng nói không chỉ điều khiển TV — mà điều khiển mọi thứ trong cuộc sống kỹ thuật số của bạn, và đủ thông minh để tự xử lý các chi tiết.

V. Tự Nghiên Cứu — Chuyện Gì Xảy Ra Khi AI Tự Cải Thiện Chính Mình

Đây có lẽ là phần quan trọng nhất — và đáng lo ngại nhất — của cuộc trò chuyện. Karpathy mô tả một hệ thống AI không chỉ làm việc cho con người, mà còn tự cải thiện mà không cần con người can thiệp.

"Auto research" thực ra nghĩa là gì: Karpathy có một dự án nơi ông huấn luyện các model AI nhỏ (cứ nghĩ chúng như phiên bản đơn giản hóa của ChatGPT). Huấn luyện một model AI đòi hỏi điều chỉnh hàng nghìn tham số — hãy hình dung như các nút vặn trên bàn mixer. Mỗi nút điều khiển một khía cạnh của quá trình học. Vặn đúng các nút này là một nghệ thuật mà nhà nghiên cứu phải mất nhiều năm để có cảm giác. Karpathy đã làm điều này hai mươi năm.

Ông thiết lập một hệ thống AI tự động điều chỉnh các nút này, chạy thử nghiệm, kiểm tra model có tốt hơn hay xấu hơn, rồi điều chỉnh tiếp. Ông để nó chạy qua đêm — hoàn toàn không cần giám sát — và nó tìm ra những cải thiện mà ông bỏ sót. Cụ thể, nó phát hiện một số tham số ít được chú ý (nếu muốn biết thuật ngữ: "weight decay on value embeddings" và "Adam betas") chưa được điều chỉnh tối ưu, và chúng tương tác với nhau theo cách khó nhìn thấy đối với con người. Hai mươi năm kinh nghiệm chuyên gia, và hệ thống tự động vẫn tìm ra cải tiến chỉ trong một đêm.

Tại sao điều này quan trọng: Đây là minh chứng nhỏ về thứ các lab AI lớn đang đua nhau hướng tới: tự cải thiện đệ quy. Đó là thuật ngữ kỹ thuật cho AI tự làm mình thông minh hơn, rồi lại tự làm thông minh hơn nữa, cứ thế tiếp. Nghe như khoa học viễn tưởng thì không phải — nó đang xảy ra ngay bây giờ ở quy mô nhỏ, và Karpathy đang mô tả từ kinh nghiệm trực tiếp.

Điều kiện then chốt — tiến độ có thể đo lường được: Tự nghiên cứu hoạt động được vì huấn luyện model AI có mục tiêu rõ ràng, đo lường được. Bạn có thể nói với hệ thống: "Làm cho con số này giảm" (gọi là "loss" trong học máy — con số đo mức độ sai của các dự đoán của model). Hệ thống thử nhiều thứ, kiểm tra con số có giảm không, và giữ lại những gì có tác dụng. Giống như có nhân viên làm việc suốt đêm mà hiệu suất được đánh giá hoàn toàn dựa trên một con số trên dashboard. Không mơ hồ, không chính trị nội bộ, không đánh giá chủ quan.

Karpathy chỉ ra rằng khả năng đo lường này là giới hạn quan trọng. Tự nghiên cứu hoạt động tốt cho bất cứ thứ gì có chỉ số rõ ràng — làm code chạy nhanh hơn, giảm lỗi, tối ưu tham số. Nhưng không hoạt động cho những thứ khó đo — sáng tạo, sắc thái, phán đoán, biết khi nào nên hỏi thay vì tự tìm hiểu. Đây là chủ đề xuyên suốt cuộc trò chuyện: AI vượt trội con người trong những lĩnh vực có thể kiểm chứng, và tầm thường ở mọi nơi khác.

Mở rộng quy mô: Karpathy mô tả cách các lab AI lớn — OpenAI, Anthropic, Google DeepMind — về cơ bản đang làm điều này ở quy mô khổng lồ. Họ có các cụm hàng chục nghìn chip chuyên dụng chạy thử nghiệm. Điểm đến hợp lý là làm cho các thử nghiệm này hoàn toàn tự động: một hệ thống AI tự tạo ra giả thuyết (có thể bằng cách đọc bài nghiên cứu), tự kiểm tra trên model nhỏ, giữ lại những gì có tác dụng, và suy ra kết quả cho model lớn hơn. Các nhà nghiên cứu con người sẽ đóng góp ý tưởng vào hàng đợi, nhưng họ sẽ không còn là người chạy thử nghiệm hay đánh giá kết quả nữa. Hệ thống sẽ chạy 24/7, với tốc độ và mức độ kỹ lưỡng mà không nhóm con người nào có thể sánh kịp.

Điều này có nghĩa gì với bạn: Đây là phần khiến bạn phải dừng lại suy nghĩ. Nếu AI có thể cải thiện AI, và các cải thiện cộng dồn lại, thì tốc độ tiến bộ của AI không còn bị giới hạn bởi tốc độ làm việc của nhà nghiên cứu con người nữa. Nó bị giới hạn bởi lượng sức mạnh tính toán có sẵn và mức độ thiết kế tốt của các hệ thống tự động. Karpathy đang mô tả một thế giới mà tiến độ tăng không theo đường thẳng mà theo hàm mũ — AI tồn tại sáu tháng nữa có thể tốt hơn đáng kể so với hiện tại, không phải vì con người có đột phá, mà vì AI tự cải thiện chính nó.

VI. Nghiên Cứu AI Theo Kiểu Cộng Đồng — Mô Hình Wikipedia Cho Trí Tuệ

Karpathy lấy ý tưởng tự nghiên cứu và đẩy thêm một bước: nếu bất kỳ ai trên internet cũng có thể góp phần cải thiện AI, không chỉ riêng người tại các lab lớn thì sao?

So sánh với SETI@home và Folding@home: Đầu những năm 2000, có các dự án cho phép người bình thường hiến tặng sức mạnh tính toán nhàn rỗi của máy tính cho nghiên cứu khoa học. SETI@home dùng để tìm kiếm tín hiệu ngoài Trái Đất. Folding@home dùng để nghiên cứu cách protein gấp lại (quan trọng cho việc hiểu bệnh tật). Bạn cài một chương trình nhỏ, và mỗi khi máy tính rảnh, nó sẽ xử lý một phần nhỏ của vấn đề khoa học lớn hơn.

Karpathy hình dung điều gì đó tương tự cho nghiên cứu AI. Ý tưởng cơ bản là: cải thiện model AI đòi hỏi thử rất nhiều thứ (10,000 ý tưởng có thể chỉ cho ra một cái có tác dụng), nhưng xác minh một cải thiện cụ thể có tác dụng hay không thì tương đối đơn giản (bạn chỉ cần chạy kiểm tra). Sự bất cân xứng này — khó khám phá, dễ xác minh — chính là thuộc tính làm cho Bitcoin mining hoạt động. Nhiều máy tính làm rất nhiều công việc để tìm block hợp lệ, nhưng ai cũng có thể xác minh kết quả trong vài giây.

Cách nó sẽ hoạt động trong thực tế: Mọi người hoặc tổ chức trên thế giới sẽ đóng góp sức mạnh tính toán cho một dự án nghiên cứu chung. Máy tính của họ sẽ thử các sửa đổi khác nhau cho code huấn luyện của model AI. Khi máy tính của ai đó tìm ra cải tiến, nó gửi lên. Hệ thống trung tâm xác minh cải tiến đó có thật không (bằng cách chạy huấn luyện và kiểm tra kết quả) và thêm vào codebase chung. Người đóng góp được ghi nhận trên bảng xếp hạng; tập thể có một model AI tốt hơn.

Vấn đề tin tưởng: Có một thách thức rõ ràng: nếu người lạ trên internet gửi code cho bạn chạy, đó là cơn ác mộng bảo mật. Ai đó có thể gửi code độc hại để đánh cắp dữ liệu hay phá hoại dự án. Karpathy thừa nhận điều này và nói thiết kế hệ thống cần xử lý người đóng góp không đáng tin — cách ly các bài gửi của họ, xác minh kết quả độc lập, và xây dựng các biện pháp bảo mật tương tự hệ thống blockchain. Khó, nhưng là loại vấn đề đã có giải pháp.

Tại sao điều này quan trọng với bạn: Hãy tưởng tượng bạn quan tâm đến nghiên cứu ung thư. Thay vì quyên tiền cho viện nghiên cứu và hy vọng họ dùng đúng, bạn có thể mua sức mạnh tính toán và đóng góp trực tiếp vào đàn AI tập trung vào ung thư. Đóng góp của bạn sẽ được đo lường và có thể xác minh. AI sẽ chạy thử nghiệm quanh đồng hồ, và sức mạnh tính toán của bạn sẽ là một phần của bộ não tập thể đang giải quyết vấn đề. Đây không phải giấc mơ xa vời — các mảnh kỹ thuật đã tồn tại hôm nay. Thứ còn thiếu là cơ sở hạ tầng điều phối.

Sức mạnh tính toán như đồng tiền mới: Karpathy và các người dẫn chương trình ngắn gọn khám phá một ý tưởng khiêu khích: liệu sức mạnh tính toán (đo bằng FLOPS — phép tính dấu phẩy động mỗi giây) có thể trở nên quan trọng hơn tiền không? Hiện tại, thật sự khó mua sức mạnh tính toán dù bạn có tiền mặt — có thiếu hụt vật lý về chip chuyên dụng mà AI cần. Trong một thế giới mà AI là động lực chính tạo ra giá trị, kiểm soát sức mạnh tính toán có thể quan trọng hơn kiểm soát đô la. Karpathy không hoàn toàn cam kết với ý tưởng này, nhưng ông thấy nó đủ thú vị để khám phá.

VII. Tại Sao AI Vừa Xuất Sắc Vừa Ngớ Ngẩn Cùng Lúc

Đây là một trong những phần dễ đồng cảm nhất của cuộc trò chuyện, vì ai đã dùng ChatGPT hay công cụ tương tự đều từng trải nghiệm điều này: AI viết một bài luận xuất sắc nhưng không đếm được số chữ "r" trong từ "strawberry." Nó giải bài toán ở trình độ đại học nhưng kể cùng một câu chuyện cười tẻ nhạt mãi không đổi.

Điều Karpathy gọi là "jaggedness" — sự tham sai: Hãy hình dung một học sinh đạt điểm bách phân vị thứ 99 ở phần toán trong kỳ thi SAT nhưng chỉ thứ 10 ở phần đọc hiểu. Ở con người, loại chênh lệch cực đoan như vậy rất hiếm — các năng lực thường có tương quan với nhau. Nếu bạn đủ thông minh để là lập trình viên đẳng cấp thế giới, có lẽ bạn cũng kể được một câu chuyện cười tử tế. Model AI không hoạt động theo cách đó. Chúng có thể vừa đẳng cấp thế giới trong một lĩnh vực, vừa ở trình độ mẫu giáo trong lĩnh vực khác.

Bài kiểm tra câu chuyện cười: Karpathy chỉ ra rằng nếu bạn hỏi model AI tiên tiến nhất thế giới kể chuyện cười, bạn sẽ nhận được câu chuyện cười y hệt ba hoặc bốn năm trước: "Tại sao các nhà khoa học không tin nguyên tử? Vì chúng đã bịa đặt nên mọi thứ." Dù hàng nghìn tỷ đô la đầu tư và những bước nhảy vọt khổng lồ về năng lực, câu chuyện cười không hề tốt hơn. Thậm chí không thay đổi. Hỏi cùng AI đó xây dựng một tính năng phần mềm phức tạp và nó sẽ làm việc nhiều giờ và cho ra sản phẩm phi thường. Nhưng kể chuyện cười? Vẫn câu đó. Mãi mãi.

Tại sao điều này xảy ra — giải thích về reinforcement learning: Các lab AI cải thiện model thông qua quá trình gọi là học tăng cường. Nói đơn giản, họ đưa cho AI một nhiệm vụ, kiểm tra nó làm có đúng không, và thưởng cho câu trả lời đúng. Điều này hoạt động cực kỳ tốt cho các nhiệm vụ mà "đúng" và "sai" rõ ràng: Code có chạy không? Toán có đúng không? Kiểm tra có qua không? AI ngày càng giỏi hơn ở những nhiệm vụ này vì vòng phản hồi chặt chẽ và không mơ hồ.

Nhưng với những thứ mà "tốt" và "xấu" mang tính chủ quan — hài hước, phong cách, nhận thức xã hội, biết khi nào nên hỏi câu hỏi — không có tín hiệu phản hồi rõ ràng. Chưa ai tìm ra cách cho AI một "điểm hài hước" có thể đo lường để cải thiện câu chuyện cười một cách đáng tin. Vì vậy những khả năng mềm này không cải thiện với tốc độ tương tự những khả năng cứng, có thể xác minh. Model trở nên giỏi hơn đáng kể về lập trình trong khi khiếu hài hước vẫn đóng băng năm 2021.

Điều Karpathy gọi là "on rails" vs. "off rails": Khi AI làm việc trong lĩnh vực được huấn luyện — lập trình, toán, phân tích — cảm giác như bạn đang kết nối với siêu trí tuệ. Mọi thứ diễn ra với tốc độ và chất lượng phi thường. Nhưng khi bước ra ngoài những lĩnh vực đó — yêu cầu viết sáng tạo với giọng văn thật sự, yêu cầu sắc thái xã hội, yêu cầu thứ gì đó thật sự mới lạ — AI "lan man." Nó cho ra sản phẩm nhạt nhẽo, chung chung. Bạn đã lạc ra khỏi đường ray vào vùng hoang mạc chưa được tối ưu.

Tại sao điều này quan trọng với bạn: Đây là điều cốt lõi để hiểu AI có thể và không thể làm gì cho bạn ngay hôm nay. Nếu công việc của bạn liên quan đến nhiệm vụ có câu trả lời đúng sai rõ ràng — phân tích dữ liệu, viết code, tóm tắt tài liệu, công thức bảng tính — AI đã cực kỳ hữu ích và đang ngày càng tốt hơn. Nếu công việc của bạn liên quan đến phán đoán, thẩm mỹ, sắc thái giao tiếp con người, sáng tạo độc đáo, hoặc biết câu hỏi nào cần hỏi — AI tầm thường ở mức tốt nhất, và có thể không cải thiện nhanh như các tiêu đề báo gợi ý. Khoảng cách giữa hai loại này là "sự tham sai" mà Karpathy đang mô tả, và giải thích tại sao cùng một AI có thể vừa như thiên tài vừa như người ngốc trong cùng một cuộc trò chuyện.

Hàm ý khó chịu: Một số nhà nghiên cứu hy vọng rằng làm AI giỏi code hơn sẽ tự động làm nó giỏi mọi thứ hơn — rằng trí tuệ là trí tuệ, và cải thiện một lĩnh vực sẽ kéo tất cả lên. Karpathy không tin điều này đang xảy ra. Ông thấy các cải thiện ở lại trong làn đường của chúng. Code tốt hơn; câu chuyện cười vẫn vậy. Điều này có nghĩa chúng ta không nên kỳ vọng AI trở nên xuất sắc đồng đều chỉ vì nó xuất sắc ở nhiệm vụ cụ thể. Sự tham sai có thể là đặc điểm vĩnh viễn, không phải lỗi tạm thời.

VIII. Có Nên Có Nhiều AI Chuyên Biệt Cho Từng Công Việc Không?

Dựa trên vấn đề tham sai, Karpathy đặt câu hỏi tự nhiên: thay vì cố xây một AI giỏi mọi thứ, có nên xây nhiều AI mỗi cái thật giỏi một việc không?

Cách tiếp cận hiện tại — một model cai trị tất cả: Hiện nay, các công ty như OpenAI, Anthropic, và Google đang xây dựng thứ mà Karpathy gọi là "monoculture" — một model AI khổng lồ duy nhất được cho là xử lý mọi thứ. Cần thơ? Cùng model đó. Cần phân tích tài chính? Cùng model đó. Cần debug code? Cùng model đó. Logic là một model mạnh duy nhất dễ triển khai, bảo trì, và cải thiện hơn. Nhưng kết quả là vấn đề tham sai: model giỏi một số thứ và tầm thường ở thứ khác, và người dùng không bao giờ biết họ sẽ gặp phiên bản nào.

Lựa chọn thay thế — chuyên biệt hóa: Karpathy mượn thuật ngữ từ sinh học: speciation — sự phân nhánh loài. Trong tự nhiên, động vật tiến hóa ra nhiều loại não khác nhau cho những môi trường khác nhau. Đại bàng có khả năng xử lý thị giác phi thường. Cá heo có hệ thống định vị âm thanh tinh vi. Con người có trung tâm ngôn ngữ và lý luận phát triển quá mức. Không con nào giỏi mọi thứ; mỗi con đặc biệt xuất sắc ở những gì môi trường của nó đòi hỏi.

Karpathy gợi ý AI nên đi theo con đường tương tự. Thay vì một model biết mọi thứ, bạn có thể có các model nhỏ hơn, chuyên biệt, chia sẻ một "lõi nhận thức chung" (lý luận cơ bản và hiểu ngôn ngữ) nhưng được chuyên biệt hóa sâu trong các lĩnh vực cụ thể. Model cho nhà toán học làm việc trong hệ thống chứng minh hình thức. Model cho bác sĩ phân tích hình ảnh y tế. Model cho luật sư xem xét hợp đồng. Mỗi cái sẽ nhanh hơn, rẻ hơn, và tốt hơn ở nhiệm vụ cụ thể của nó so với model tổng quát khổng lồ.

Tại sao điều này chưa xảy ra: Có hai lý do chính. Thứ nhất, các lab AI không biết trước người dùng sẽ hỏi về gì. Vì cùng một model phục vụ hàng triệu người dùng với nhu cầu hoàn toàn khác nhau, nó phải là người đa năng. Thứ hai, khoa học tùy chỉnh model AI vẫn còn non nớt. Khi bạn cố làm model giỏi hơn ở một thứ, thường vô tình làm nó kém hơn ở thứ khác. Giống như học sinh học quá tập trung cho kỳ thi toán đến mức quên hết lịch sử. Đến khi vấn đề này được giải quyết, xây dựng model chuyên biệt đáng tin cậy khó hơn nghe.

Điều này có nghĩa gì với bạn: Trong tương lai gần, bạn vẫn sẽ tương tác với model AI đa năng — các ChatGPT và Claude của thế giới. Nhưng trong vài năm tới, hãy kỳ vọng thấy nhiều công cụ AI chuyên biệt hơn xuất hiện cho các ngành và nhiệm vụ cụ thể. Bác sĩ của bạn có thể dùng AI y tế giỏi chẩn đoán hơn model tổng quát nhiều. Kế toán của bạn có thể dùng AI tài chính hiểu luật thuế ở tầng sâu hơn. Các model đa năng sẽ không biến mất, nhưng chúng sẽ được bổ sung bởi các chuyên gia — giống như bác sĩ đa khoa trong y tế được bổ sung bởi tim mạch, thần kinh, và ung thư học.

IX. Open Source Vs. Big Tech — Ai Nên Kiểm Soát AI?

Đây là một trong những chủ đề mang tính chính trị nhất trong AI, và Karpathy — người đã làm việc bên trong các lab lớn nhất và giờ hoạt động độc lập — có quan điểm tinh tế.

"Open source" trong AI nghĩa là gì: Khi một công ty như Meta phát hành model AI dưới dạng "open source," họ cho phép bất kỳ ai tải về, kiểm tra, sửa đổi, và sử dụng. Bạn có thể chạy nó trên máy tính của mình mà không phải trả tiền cho công ty. Ngược lại là "closed source," nơi các công ty như OpenAI hay Anthropic giữ model sau rào chắn đăng ký — bạn có thể dùng, nhưng không thể xem cách chúng hoạt động hay tự chạy chúng.

Tình trạng hiện tại: Các model AI mạnh nhất là closed — chúng thuộc về một số ít công ty. Nhưng các model open source đang bắt kịp nhanh chóng. Karpathy nói khoảng cách từng là khoảng 18 tháng; giờ còn khoảng sáu đến tám tháng. Các công ty Trung Quốc và nhóm nghiên cứu toàn cầu đã phát hành các model mở gần với tiên phong hơn hầu hết mọi người kỳ vọng.

Quan điểm của Karpathy — Linux cho AI: Ông vẽ ra so sánh với cuộc chiến hệ điều hành. Windows và macOS là sản phẩm thương mại đóng. Linux là open source — và nó chạy trên khoảng 60% máy tính thế giới (hầu hết web server, điện thoại Android, và hạ tầng đám mây đều dùng Linux). Linux thành công vì ngành thực sự cần một nền tảng chung mà không công ty đơn lẻ nào kiểm soát. Karpathy tin AI cần điều tương tự.

Điểm khác biệt là chi phí. Viết phần mềm cho Linux đòi hỏi tài năng nhưng không cần phần cứng đắt tiền. Huấn luyện model AI lớn đòi hỏi chip tính toán chuyên dụng trị giá hàng triệu đô. Điều này làm cho open source AI khó cạnh tranh ở đỉnh tuyệt đối. Nhưng Karpathy lập luận rằng cho đại đa số trường hợp sử dụng hàng ngày, các model open source đã đủ tốt. Và thứ là tiên phong hôm nay sẽ là open source trong sáu đến mười hai tháng. Đó là băng chuyền: các lab lớn đẩy ranh giới, open source theo sau, và tổng năng lực có sẵn cho mọi người cứ tăng lên mãi.

Tại sao điều này quan trọng — nguy cơ tập trung hóa: Karpathy trở nên cá nhân hơn ở đây. Ông là người gốc Slovak-Canada, và ông nhắc đến lịch sử Đông Âu để giải thích sự ngờ vực của mình với tập trung hóa. Khi quyền lực được tập trung vào ít tay — dù là chính phủ hay tập đoàn — những điều xấu thường xảy ra. Ông không muốn AI mạnh nhất thế giới chỉ tồn tại sau cánh cửa đóng của hai hoặc ba công ty. Ông muốn nhiều lab hơn, nhiều quan điểm hơn, nhiều người hơn trong phòng khi đưa ra các quyết định quan trọng. Trong học máy, ông lưu ý, các ensemble (kết hợp nhiều model) luôn vượt trội bất kỳ model đơn lẻ nào. Nguyên tắc tương tự, ông lập luận, áp dụng cho các tổ chức.

Điều này có nghĩa gì với bạn: Cuộc tranh luận này có thể trừu tượng, nhưng nó có hậu quả thực với cuộc sống bạn. Nếu AI bị kiểm soát bởi vài công ty, các công ty đó quyết định AI có thể và không thể làm gì, ai được tiếp cận, và chi phí bao nhiêu. Nếu có các lựa chọn open source mạnh mẽ, bạn có lựa chọn — và mọi lập trình viên xây dựng công cụ bạn dùng cũng vậy. Karpathy về cơ bản lập luận rằng sự cân bằng hiện tại (lab lớn ở tiên phong, open source gần theo sau) là lành mạnh, và chúng ta nên nỗ lực duy trì nó.

X. Còn Công Việc Của Tôi Thì Sao? — Câu Trả Lời Thật Sự

Đây là câu hỏi mọi người muốn được trả lời, và Karpathy thật lòng đáng khen ngợi về cả sự lạc quan lẫn sự không chắc chắn của ông.

Khung tư duy then chốt — kỹ thuật số vs. vật lý: Karpathy chia nền kinh tế thành hai loại. Công việc "kỹ thuật số" là bất cứ thứ gì bạn có thể làm từ máy tính ở nhà — kỹ thuật phần mềm, phân tích tài chính, thiết kế đồ họa, viết lách, nhập liệu, nghiên cứu pháp lý, hỗ trợ khách hàng. Công việc "vật lý" đòi hỏi cơ thể bạn phải ở đâu đó — điều dưỡng, xây dựng, thợ ống nước, cảnh sát, phẫu thuật, nhà hàng.

AI hiện tại là thực thể kỹ thuật số. Nó thao túng thông tin — văn bản, code, số, hình ảnh — với tốc độ phi thường. Nó không có thân xác. Di chuyển bit thông tin gần như miễn phí và tức thì; di chuyển vật thể vật lý đòi hỏi năng lượng, thời gian, và kỹ thuật. Karpathy ước tính thao túng bit dễ hơn thao túng nguyên tử khoảng "một triệu lần." Vì vậy sự gián đoạn sẽ đánh vào công việc kỹ thuật số trước và mạnh nhất. Công việc vật lý cũng sẽ thay đổi, nhưng chậm hơn nhiều.

Sẽ có ít việc làm hơn không? — Nghịch lý Jevons: Câu trả lời của Karpathy dựa trên nguyên tắc kinh tế 150 tuổi gọi là nghịch lý Jevons. Vào những năm 1860, nhà kinh tế học William Stanley Jevons quan sát rằng khi động cơ hơi nước trở nên hiệu quả hơn về nhiên liệu, tiêu thụ than không giảm — mà tăng. Động cơ rẻ hơn đến mức người ta dùng chúng cho những việc trước đây quá đắt. Nhu cầu mở rộng nhanh hơn hiệu quả giảm.

Ví dụ hiện đại Karpathy dùng là ATM và nhân viên ngân hàng. Khi ATM được giới thiệu, người ta lo nhân viên ngân hàng sẽ bị thay thế. Điều thực sự xảy ra là ATM làm cho mỗi chi nhánh ngân hàng rẻ hơn nhiều để vận hành (bạn cần ít nhân viên hơn mỗi chi nhánh). Vì chi nhánh rẻ hơn, các ngân hàng mở thêm nhiều chi nhánh hơn. Tổng số việc làm nhân viên ngân hàng thực tế tăng trong nhiều thập kỷ sau khi ATM được giới thiệu.

Karpathy lập luận cùng động lực áp dụng cho phần mềm. Phần mềm cực kỳ mạnh mẽ, nhưng trong lịch sử, sản xuất nó đắt tiền. Chỉ các công ty lớn mới đủ khả năng xây phần mềm tùy chỉnh cho nhu cầu cụ thể. Nếu AI làm phần mềm rẻ hơn 10 hay 100 lần, nhu cầu phần mềm sẽ không giảm cùng hệ số — nó sẽ bùng nổ. Các doanh nghiệp nhỏ trước đây không đủ tiền phần mềm tùy chỉnh sẽ đột nhiên có thể tiếp cận. Cá nhân sẽ có phần mềm cá nhân hóa theo nhu cầu cụ thể. Tổng lượng phần mềm trên thế giới sẽ tăng mạnh, và cùng với đó, nhu cầu về người có thể chỉ đạo và quản lý việc tạo phần mềm do AI hỗ trợ.

Sự không chắc chắn thật sự: Karpathy không giả vờ biết điều này diễn ra thế nào về lâu dài. Ông lưu ý rằng các nhà nghiên cứu tại các lab AI lớn đang tự làm mình mất việc, và nhiều người trong số họ cảm thấy sự lo lắng tương tự ông mô tả. Ông nói với đồng nghiệp tại OpenAI: "Nếu chúng ta thành công ở điều này, tất cả chúng ta đều mất việc." Tương lai dài hạn thật sự không chắc chắn, và Karpathy nói dự báo đúng là việc của các nhà kinh tế, không phải kỹ sư.

Lời khuyên thực tế: Lời khuyên ngầm của Karpathy là: các công cụ cực kỳ mới và cực kỳ mạnh mẽ. Điều đầu tiên cần làm là học chúng. Đừng bác bỏ AI hay sợ hãi — hãy xem nó như những gì nó đang là, một công cụ trao quyền. Công việc là tập hợp các nhiệm vụ, và một số nhiệm vụ đó giờ có thể làm nhanh hơn nhiều. Những người học dùng các công cụ này hiệu quả sẽ năng suất hơn, có giá trị hơn, và khó thay thế hơn.

XI. Robot Đang Tới, Nhưng Không Nhanh Như Bạn Nghĩ

Nếu AI sắp biến đổi mọi công việc kỹ thuật số, còn công việc vật lý thì sao? Robot có thay thế thợ ống nước, y tá, và thợ xây không? Câu trả lời của Karpathy được định hình bởi thời gian ông dẫn chương trình xe tự lái của Tesla, và thận trọng hơn bạn có thể kỳ vọng.

Bài học từ xe tự lái: Karpathy dẫn nhóm AI tại Tesla đang cố làm xe tự lái. Ông chứng kiến hàng chục startup xe tự lái ra đời một thập kỷ trước, đầy vốn mạo hiểm và sự lạc quan. Hầu hết thất bại. Công nghệ đòi hỏi đầu tư vốn khổng lồ, nhiều năm phát triển, và sức chịu đựng với thế giới vật lý bừa bộn, khó lường. Xe tự lái vẫn chưa hoàn toàn được giải quyết, dù hàng tỷ đô la và một thập kỷ nỗ lực.

Ông kỳ vọng robot tổng quát — robot hình người, robot kho hàng, trợ lý trong nhà — sẽ theo quỹ đạo tương tự. Sẽ có tiến bộ, nhưng chậm hơn, tốn kém hơn, và khó khăn hơn cuộc cách mạng kỹ thuật số đang xảy ra ngay bây giờ. Lý do là cơ bản: di chuyển vật thể vật lý vốn khó hơn di chuyển thông tin. Bạn có thể copy một file trong mili giây. Di chuyển một cái hộp qua phòng đòi hỏi động cơ, cảm biến, điện năng, và xử lý nghìn biến số khó lường (sàn ướt, con mèo đang ngồi đó, hộp nặng hơn dự kiến).

Ba giai đoạn phát triển: Karpathy mô tả tương lai trong ba giai đoạn:

Giai đoạn 1 (đang xảy ra): Viết lại mạnh mẽ thế giới kỹ thuật số. Mọi thứ tồn tại dưới dạng thông tin số — tài liệu, code, dữ liệu, quy trình — được tối ưu hóa, tổ chức lại, và cải tiến bởi AI với tốc độ đáng kinh ngạc.

Giai đoạn 2 (sắp tới): Các công ty xuất hiện ở giao giữa kỹ thuật số và vật lý. Đây là "cảm biến và cơ cấu chấp hành" — các công ty đưa dữ liệu thế giới thực vào AI (camera, thiết bị phòng thí nghiệm, thiết bị giám sát môi trường) hoặc thực thi lệnh của AI trong thế giới vật lý (robot, phòng thí nghiệm tự động, logistics).

Giai đoạn 3 (xa hơn): Tự chủ hoàn toàn trong thế giới vật lý — robot có thể làm các nhiệm vụ vật lý phức tạp một cách đáng tin cậy và kinh tế. Đây là thị trường lớn nhất, nhưng đến sau cùng.

Điều này có nghĩa gì với bạn: Nếu công việc của bạn chủ yếu là vật lý — bạn làm việc bằng tay, cần hiện diện thực tế, công việc liên quan thế giới thực khó lường — bạn có nhiều thời gian hơn trước khi AI thay đổi công việc hàng ngày. Không phải vì công việc vật lý kém quan trọng, mà vì nó khó tự động hóa hơn. Nếu công việc của bạn chủ yếu là kỹ thuật số — bạn làm việc trên máy tính, xử lý thông tin — những thay đổi đã ở đây rồi.

XII. Tương Lai Của Trường Học — AI Làm Gia Sư Riêng

Gần cuối cuộc trò chuyện, Karpathy nói về một dự án tên MicroGPT và điều nó tiết lộ về tương lai giáo dục.

MicroGPT là gì: Karpathy đã dành hơn một thập kỷ cố gắng chắt lọc khái niệm huấn luyện model AI xuống dạng đơn giản nhất tuyệt đối. MicroGPT là nỗ lực mới nhất: toàn bộ thuật toán — tải dữ liệu, xây mạng nơ-ron, huấn luyện, và tối ưu hóa — được thể hiện chỉ trong 200 dòng code Python đơn giản. Mọi thứ ngoài 200 dòng đó, trong hệ thống AI thật, chỉ để làm nó chạy nhanh hơn. Nếu bạn không quan tâm tốc độ và chỉ muốn hiểu thuật toán, 200 dòng là tất cả những gì bạn cần.

Sự chuyển dịch trong giáo dục: Trong quá khứ, bản năng của Karpathy sẽ là làm một video giải thích dài đi qua code. Ông nổi tiếng với chính xác loại nội dung giáo dục này (các video YouTube về mạng nơ-ron của ông có hàng triệu lượt xem). Nhưng ông nhận ra điều gì đó: code quá đơn giản đến mức bất kỳ ai cũng có thể nhờ trợ lý AI của họ giải thích. Và trợ lý AI sẽ giải thích tốt hơn ông — không phải vì nó hiểu nhiều hơn, mà vì nó có thể tùy chỉnh giải thích cho từng cá nhân. Nếu bạn học bằng hình ảnh, nó có thể vẽ sơ đồ. Nếu bạn đã biết tính toán, nó có thể dùng ký hiệu toán học. Nếu bạn hoàn toàn mới bắt đầu, nó có thể bắt đầu từ cơ bản nhất. Không giáo viên con người nào có thể làm điều này cho mọi học sinh đồng thời.

Vai trò mới của giáo viên: Karpathy mô tả một sự chuyển dịch căn bản. Thay vì giải thích mọi thứ cho người, giáo viên nên giải thích mọi thứ cho agent. Nếu agent hiểu tài liệu, agent có thể giải thích nó cho bất kỳ ai. Vai trò của giáo viên trở thành thiết kế chương trình học — tạo ra thứ Karpathy gọi là "skill," về cơ bản là bộ hướng dẫn cho AI về con đường tiến triển cần dẫn dắt học sinh qua — và đóng góp những "bit ít ỏi" của sự thấu hiểu thật sự mà AI không tự tạo ra được.

Điều này có nghĩa gì với bạn: Nếu bạn là học sinh, tương lai có vẻ như có gia sư riêng luôn có mặt, kiên nhẫn vô hạn, và thích nghi hoàn hảo với phong cách học của bạn. Nếu bạn là giáo viên, vai trò của bạn đang tiến hóa từ "người truyền đạt thông tin" sang "người thiết kế trải nghiệm học và đóng góp những hiểu biết AI không thể." Nếu bạn là phụ huynh, các công cụ giáo dục cho con bạn sẽ tốt hơn nhiều so với những gì bạn có — nhưng các yếu tố con người trong giáo dục (động lực, hướng dẫn, phát triển xã hội) sẽ trở nên quan trọng hơn, không phải ít hơn, chính xác vì phần truyền đạt thông tin đang được tự động hóa.

XIII. Tại Sao Karpathy Rời Bỏ Big Tech — Và Điều Đó Nói Lên Điều Gì

Cuộc trò chuyện kết thúc với một ghi chú rất cá nhân. Karpathy từng làm tại OpenAI và Tesla — hai tổ chức AI có hậu quả nhất trong lịch sử. Tại sao ông rời đi, và tại sao ông không quay lại?

Lập luận về độc lập: Bên trong một lab AI lớn, bạn không được tự do. Có những thứ bạn không thể nói công khai — không phải vì ai cấm một cách rõ ràng, mà vì áp lực là có thật. Đồng nghiệp của bạn liếc nhìn. Cuộc trò chuyện trở nên ngượng ngùng. Tổ chức có câu chuyện muốn chiếu, và các tuyên bố công khai của bạn ngầm phải hỗ trợ nó. Karpathy nói ông cảm thấy "gắn liền với nhân loại" hơn khi ở ngoài các lab vì ông không bị ràng buộc bởi các động cơ tài chính đến từ việc là một phần của tổ chức kiếm lợi từ việc làm AI mạnh hơn.

Đây là nan đề mà OpenAI ban đầu được thành lập để giải quyết: nếu AI sắp thay đổi thế giới một cách mạnh mẽ, những người xây dựng nó không nên là cùng những người kiếm lợi từ nó. Karpathy không tuyên bố vấn đề này đã được giải quyết — ông nói "nan đề vẫn chưa được giải quyết hoàn toàn."

Chi phí của việc ở ngoài: Độc lập có nhược điểm thực: các lab tiên phong là mờ đục. Họ đang làm gì tiếp theo, và nếu bạn không ở trong đó, hiểu biết của bạn về tương lai không tránh khỏi bị lệch. Bạn không biết các hệ thống thực sự hoạt động thế nào bên dưới. Bạn không có cảm giác đáng tin cậy về hướng đi. Karpathy thừa nhận điều này khiến ông lo lắng.

Giải pháp đề xuất của ông mang tính thực dụng: vào ra luân phiên. Dành thời gian bên trong một lab tiên phong, đóng góp công việc thực sự, giữ kết nối với trạng thái nghệ thuật thực tế. Rồi bước ra ngoài, lấy lại sự độc lập, nói thẳng, đóng góp cho hệ sinh thái. Đừng vĩnh viễn gắn mình với bất kỳ tổ chức đơn lẻ nào, vì khi cổ phần trở nên thực sự cao, là nhân viên nghĩa là bạn không thực sự kiểm soát tổ chức làm gì.

Điều này có nghĩa gì với bạn: Lựa chọn nghề nghiệp của Karpathy phản ánh sức căng rộng hơn trong AI. Công nghệ đang được xây dựng bởi một số ít công ty với quyền lực khổng lồ và tính minh bạch hạn chế. Những người bên trong các công ty đó thông minh, nhưng họ không phải là các tác nhân tự do — họ không phải lúc nào cũng có thể nói với công chúng những gì họ biết hay nghĩ. Lựa chọn của Karpathy hoạt động độc lập, với cái giá là hơi tụt hậu so với tiên phong, là cách ông duy trì khả năng nói thật. Đó là sự đánh đổi mà ngày càng nhiều nhà nghiên cứu AI có thể phải đối mặt khi cổ phần ngày càng cao hơn.


Kết Luận

Nếu bạn đọc đến đây, đây là điều Andrej Karpathy thật ra đang nói, gỡ bỏ hết thuật ngữ:

Công cụ đã thay đổi. Vào khoảng tháng 12 năm 2024, các trợ lý AI lập trình đã đủ tốt đến mức các lập trình viên hàng đầu ngừng tự viết code. Giờ họ quản lý các nhân viên AI thay thế. Đây giống như bước chuyển từ viết thư tay sang dùng email — cùng công việc được hoàn thành, nhưng phương pháp hoàn toàn khác.

Các app của bạn sắp biến mất. Tương lai không phải năm mươi app trên điện thoại; mà là một trợ lý AI nói chuyện với tất cả chúng từ hậu trường. Bạn chỉ cần nói muốn gì.

AI đang cải thiện AI. Karpathy thiết lập một AI tối ưu các AI khác qua đêm. Nó tìm ra những cải tiến ông bỏ sót sau hai mươi năm kinh nghiệm. Các lab lớn đang làm điều này ở quy mô khổng lồ. Tốc độ cải thiện AI sắp không còn bị giới hạn bởi tốc độ làm việc của nhà nghiên cứu con người.

AI vừa xuất sắc vừa mù quáng cùng lúc. Nó có thể xây phần mềm phức tạp nhưng không thể kể một câu chuyện cười mới. Nó có thể giải bài toán trình độ sau đại học nhưng không biết khi nào nên hỏi câu hỏi làm rõ. Sự không đồng đều này có tính cấu trúc, không phải tạm thời.

Công việc kỹ thuật số thay đổi trước. Nếu bạn làm việc trên máy tính, những thay đổi đã ở đây rồi. Nếu bạn làm việc bằng tay, bạn có nhiều thời gian hơn — nhưng những thay đổi đang tới cho công việc vật lý cũng vậy, chỉ chậm hơn.

Nhiều phần mềm hơn, không phải ít hơn. Phần mềm rẻ hơn trong lịch sử đồng nghĩa với nhu cầu nhiều hơn, không phải ít hơn. Cùng quy luật đó có khả năng giữ nguyên với việc tạo phần mềm do AI hỗ trợ.

Giáo dục chuyển đổi. Giáo viên sẽ chuyển từ giải thích mọi thứ cho người sang thiết kế chương trình học cho gia sư AI. Gia sư AI sẽ kiên nhẫn hơn, thích nghi hơn, và cuối cùng hiểu biết hơn bất kỳ giáo viên con người nào — nhưng nó sẽ cần nội dung do con người tạo ra để dạy từ đó.

Những người phụ trách cũng đang lo lắng. Karpathy, một trong những nhà nghiên cứu AI thành công nhất còn sống, mô tả bản thân đang trong trạng thái "AI psychosis." Ông cảm thấy sự lo lắng tương tự như mọi người về việc theo kịp. Điểm khác là ông lo lắng về việc đứng ở tiên phong; bạn có thể lo lắng về việc bị bỏ lại phía sau. Dù thế nào, lãnh thổ này mới với tất cả mọi người.

Phải làm gì bây giờ: Học các công cụ. Đừng sợ chúng và đừng bác bỏ chúng. Tập trung vào những thứ AI không thể làm — phán đoán, sáng tạo, công việc vật lý, trí tuệ cảm xúc, đặt ra những câu hỏi đúng. Mọi thứ AI có thể làm, nó sẽ sớm làm tốt hơn bạn. Chiến lược thua duy nhất là đứng yên.


Bài phân tích này dựa trên lần xuất hiện của Andrej Karpathy trên podcast No Priors. Mọi ý tưởng và nhận định đều được gán cho Karpathy và người dẫn chương trình như được thể hiện trong cuộc trò chuyện gốc. Các giải thích và ví dụ so sánh được thêm vào để giúp dễ hiểu hơn.