Showing posts with label Andrej Karpathy. Show all posts
Showing posts with label Andrej Karpathy. Show all posts

3.28.2026

Andrej Karpathy Thật Ra Đang Nói Gì — Hướng Dẫn Về Tương Lai AI Cho Người Bình Thường

 

Author: Claude AI, under the supervision, prompting and editing by HocTro

Andrej Karpathy là một trong những tiếng nói quan trọng nhất trong lĩnh vực trí tuệ nhân tạo. Ông là đồng sáng lập OpenAI, từng dẫn dắt nhóm AI xe tự lái tại Tesla, và hiện đang là nhà nghiên cứu độc lập. Trong một lần xuất hiện trên podcast No Priors gần đây, ông đã chia sẻ tầm nhìn của mình về hướng đi của AI — và đó là một tầm nhìn đầy kịch tính. Nhưng phần lớn những gì ông nói được gói trong thuật ngữ kỹ thuật và ngôn ngữ nội bộ. Bài viết này sẽ giải thích từng điểm chính, nói rõ ý nghĩa thực sự của chúng, và tại sao chúng quan trọng với những người không phải kỹ sư hay nhà nghiên cứu AI.



Tóm Tắt

Cuộc trò chuyện của Andrej Karpathy trải dài qua nhiều chủ đề, và phần lớn nghe như chuyện khoa học viễn tưởng — nhưng không phải vậy. Đó là mô tả về những gì đang xảy ra ngay lúc này. Đây là phiên bản nói thẳng nói thật về những điểm chính của ông: Công cụ AI hỗ trợ lập trình đã thay đổi mạnh mẽ vào khoảng tháng 12 năm 2024, đến mức các kỹ sư giỏi nhất ngừng tự viết code và chuyển sang quản lý AI như quản lý nhân viên. Karpathy xây dựng một trợ lý AI cho ngôi nhà của mình — điều khiển đèn, nhạc, máy lạnh, hồ bơi, và camera an ninh — tất cả chỉ qua tin nhắn. Ông cho rằng phần lớn các app trên điện thoại rồi sẽ bị thay thế bởi một trợ lý AI duy nhất nói chuyện với mọi thiết bị thay bạn. Ông thiết lập một AI tự cải thiện các AI khác qua đêm trong khi ông ngủ, và nó tìm ra những tối ưu hóa mà ông bỏ sót sau hai mươi năm kinh nghiệm. Ông nghĩ AI sẽ thay đổi công việc văn phòng nhanh hơn nhiều so với công việc chân tay, vì di chuyển thông tin dễ hơn di chuyển vật thể vô cùng. Ông thận trọng lạc quan về việc làm — phần mềm rẻ hơn trong lịch sử đồng nghĩa với nhiều việc làm hơn, chứ không phải ít hơn. Ông tin giáo dục sẽ chuyển đổi từ giáo viên giảng bài cho học sinh sang giáo viên lập trình gia sư AI. Và ông rời các lab AI lớn vì muốn nói thẳng về những gì đang diễn ra mà không bị áp lực từ công ty. Thông điệp tổng thể: cuộc cách mạng AI không phải đang tới — nó đã ở đây rồi, đang diễn ra nhanh hơn hầu hết mọi người nhận ra, và những người có vị thế tốt nhất là những ai học cách làm việc cùng AI thay vì cạnh tranh với nó.

"AI Psychosis" Là Gì? — Khoảnh Khắc Mọi Thứ Thay Đổi

Karpathy nói ông đang ở trong trạng thái "AI psychosis kéo dài liên tục." Nghe có vẻ đáng lo, nhưng thực ra ý ông đơn giản hơn: ông bị ngợp bởi tốc độ thay đổi quá nhanh và lo lắng về việc theo kịp. Từ "psychosis" ở đây chỉ là cách nói cường điệu — ông không mất kết nối với thực tại, mà là không còn có thể vẽ bản đồ toàn bộ thực tại vì có quá nhiều lãnh thổ mới mở ra cùng lúc.

Chuyện gì xảy ra vào tháng 12 năm 2024: Trước tháng đó, Karpathy tự viết phần lớn code của mình — khoảng 80% bằng tay, AI chỉ hỗ trợ 20%. Rồi có gì đó thay đổi trong các model AI (nhiều khả năng là thế hệ mới của các coding agent từ Anthropic, OpenAI, và các công ty khác). Gần như chỉ qua một đêm, AI trở nên đủ giỏi để Karpathy lật ngược hoàn toàn: giờ ông gần như không tự viết một dòng code nào. Ông nói chuyện với các trợ lý AI, mô tả điều mình muốn, và chúng tự xây dựng.

Tại sao điều này quan trọng với bạn: Hãy hình dung như bước nhảy từ viết thư tay sang dùng email. Máy đánh chữ đầu tiên còn thô sơ — bạn vẫn phải tự gõ hầu hết mọi thứ, máy chỉ giúp định dạng. Rồi email xuất hiện và không ai còn viết thư tay nữa. Karpathy đang mô tả bước chuyển kiểu đó, nhưng áp dụng cho toàn bộ ngành phát triển phần mềm. Những người tạo ra app, website, hệ thống ngân hàng cho bạn — cách họ làm việc đã thay đổi hoàn toàn chỉ trong vài tuần. Phần lớn người ngoài ngành công nghệ chưa nhận ra điều này.

Yếu tố lo lắng: Karpathy theo dõi các lập trình viên khác trên mạng xã hội phát hiện ra kỹ thuật mới và cảm thấy thật sự bồn chồn vì sợ tụt hậu. Nếu một trong những chuyên gia AI hàng đầu thế giới còn cảm thấy vậy, điều đó nói lên rất nhiều về tốc độ thay đổi. Vùng lãnh thổ của những điều có thể làm được đang mở rộng nhanh hơn bất kỳ ai có thể khám phá.

II. Coding Agent Là Gì? — Tại Sao Lập Trình Viên Ngừng Gõ Phím

Để hiểu phần còn lại của cuộc trò chuyện, bạn cần hiểu "coding agent" là gì. Nó không phải tự động hoàn chỉnh câu. Không phải AI gợi ý từ tiếp theo khi bạn gõ. Một coding agent giống như có một nhân viên mới có thể làm theo hướng dẫn phức tạp hơn. Bạn mô tả tính năng muốn làm — ví dụ "thêm bảng biểu vào app vẽ này" — và agent tự đi làm trong hai mươi phút hay một tiếng, tự đọc code hiện có, tự hiểu cách chúng kết nối, viết hàng trăm dòng code mới, tự kiểm tra, tự sửa lỗi, rồi quay lại với kết quả hoạt động được.

Cách làm việc của Peter Steinberg: Karpathy mô tả một lập trình viên tên Peter Steinberg đã trở nên nổi tiếng trong cộng đồng lập trình AI. Steinberg ngồi trước màn hình với nhiều AI agent chạy đồng thời, mỗi agent đang làm một việc khác nhau. Anh ta giao cho agent một tính năng cần xây dựng, agent hai một tính năng khác, agent ba một việc nghiên cứu, agent bốn một việc lập kế hoạch. Mỗi việc mất khoảng hai mươi phút. Steinberg đi qua lại giữa chúng như người quản lý trong văn phòng, xem xét kết quả và giao việc mới. Anh ta không viết code — anh ta điều phối.

Nghĩa là gì nói theo cách bình thường: Công việc của kỹ sư phần mềm đang chuyển từ "người gõ lệnh bằng ngôn ngữ lập trình" sang "người quản lý các nhân viên AI." Kỹ năng không còn là gõ nhanh hay nhớ cú pháp. Kỹ năng là khả năng chia nhỏ vấn đề lớn thành từng phần, giải thích từng phần rõ ràng, và xem xét kết quả. Nó giống quản lý dự án hơn là đánh máy.

Kinh tế token: Karpathy đưa ra một khái niệm xuất hiện xuyên suốt cuộc trò chuyện: token. Trong AI, một "token" gần giống một từ hoặc một phần của từ. Khi bạn dùng AI, bạn đang tiêu token — gửi token vào (hướng dẫn của bạn) và nhận token về (câu trả lời của AI). Karpathy nói thước đo năng suất mới là "lưu lượng token" — bao nhiêu token bạn có thể huy động làm việc cho bạn mỗi giờ. Ông so sánh với thế giới nghiên cứu vật lý ngày xưa, nơi năng suất được đo bằng số GPU (chip đồ họa chuyên dụng) đang chạy thử nghiệm cho bạn. Nếu GPU rảnh, bạn đang lãng phí. Giờ thì nếu AI agent rảnh, bạn đang lãng phí.

Tại sao căng thẳng: Điều này tạo ra một kiểu lo lắng công việc mới. Nếu bạn có thể luôn luôn khởi động thêm một AI agent và giao thêm việc, thì mỗi khoảnh khắc không làm vậy là bạn đang bỏ phí công suất. Karpathy thẳng thắn nói ông cảm thấy bồn chồn khi có dung lượng đăng ký chưa dùng. Đó là nỗi lo của người lao động tri thức khi nhìn máy móc ngồi không trong nhà máy. Điểm khác là "máy móc" ở đây là model AI và "nhà máy" là cái laptop của bạn.

III. "Claw" Là Gì? — Dobby Và Cuộc Cách Mạng Nhà Thông Minh

Karpathy dùng từ "claw" (đôi khi là "claude," ám chỉ AI của Anthropic, đôi khi là thuật ngữ chung cho hệ thống agent tự động) để mô tả thứ gì đó bền bỉ hơn coding agent. Một claw là AI chạy liên tục trong nền, có bộ nhớ riêng, môi trường riêng, và làm việc thay bạn ngay cả khi bạn không theo dõi. Hãy nghĩ coding agent như người bạn thuê cho một việc cụ thể; còn claw thì giống trợ lý sống cùng nhà.

Câu chuyện về Dobby, từng bước một: Karpathy xây dựng một hệ thống AI mà ông đặt tên là "Dobby the Elf" (theo nhân vật trong Harry Potter). Đây là chuyện đã xảy ra:

Ông nói với AI: "Tôi nghĩ tôi có loa Sonos. Bạn có thể tìm không?" AI quét mạng nội bộ trong nhà — cùng mạng WiFi với điện thoại và máy tính của ông — và tìm thấy hệ thống Sonos. Nó phát hiện loa không có mật khẩu bảo vệ (điều thường thấy với thiết bị nhà thông minh trên mạng nội bộ). Sau đó nó tự tìm kiếm trên internet để tìm cách điều khiển loa qua giao diện lập trình của chúng. Chỉ qua ba lần nhắn tin, nhạc đã phát trong phòng làm việc của ông.

AI lặp lại điều này cho hệ thống đèn, máy lạnh và sưởi, rèm cửa, hồ bơi và bồn tắm nước nóng, và camera an ninh. Về bảo mật, nó thiết lập một hệ thống: camera theo dõi phía trước nhà, khi phát hiện chuyển động, video được gửi cho một AI riêng có khả năng hiểu hình ảnh. AI đó nhắn tin cho Karpathy qua WhatsApp: "Xe giao hàng FedEx vừa đỗ trước nhà."

Trước khi có Dobby: Karpathy dùng sáu app khác nhau để điều khiển các hệ thống này — một cho Sonos, một cho đèn, một cho điều hòa, v.v. Mỗi app có giao diện riêng, tài khoản riêng, cách dùng riêng. Sau khi có Dobby, ông dùng không app nào. Ông chỉ nhắn tin cho Dobby qua WhatsApp và nói những thứ như "sleepy time" (tắt hết đèn) hay "bật hồ bơi."

Tại sao điều này quan trọng với bạn: Hiện tại, thiết lập thứ gì đó như Dobby đòi hỏi kỹ năng kỹ thuật. Bạn cần biết về mạng, API, và cách ra lệnh cho AI. Nhưng điểm mấu chốt của Karpathy — và đây là điều quan trọng — là tình trạng này chỉ tạm thời. Trong một hoặc hai năm nữa, ông tin bất kỳ ai cũng có thể làm điều này mà không cần kiến thức kỹ thuật. AI sẽ xử lý toàn bộ sự phức tạp. Bạn chỉ cần nói muốn gì và nó sẽ xảy ra.

IV. Cái Chết Của App — Tại Sao Điện Thoại Bạn Có Thể Đơn Giản Hơn

Ví dụ về Dobby dẫn Karpathy đến một lập luận lớn hơn: hầu hết các app trên điện thoại bạn thật ra không nên tồn tại như những ứng dụng độc lập.

Lập luận nói thẳng: Hãy nghĩ về tất cả app bạn đang có. App ngân hàng. App theo dõi sức khỏe. App điều nhiệt nhà thông minh. App nhạc. App an ninh nhà. Mỗi cái được xây bởi một công ty khác nhau, với thiết kế riêng, giao diện riêng, cách hoạt động riêng. Bạn phải học từng cái riêng biệt. Phải liên tục chuyển qua lại giữa chúng. Và chúng không thể nói chuyện với nhau tốt lắm.

Tầm nhìn của Karpathy là tất cả những thứ này chỉ nên là các dịch vụ nền — thứ dân kỹ thuật gọi là "API" (Application Programming Interface), về cơ bản là các kết nối hậu trường cho phép máy tính nói chuyện với nhau. Trợ lý AI của bạn sẽ nói chuyện với tất cả chúng thay mặt bạn. Muốn kiểm tra số dư ngân hàng, điều chỉnh nhiệt độ, và mở nhạc? Cứ nói, AI sẽ gọi đúng dịch vụ cần thiết. Không app, không giao diện, không cần học.

Khách hàng giờ là ai? Đây là điểm khiêu khích nhất của Karpathy trong phần này: khách hàng không còn là con người nữa. Khách hàng là AI agent. Các công ty không nên thiết kế giao diện cho người dùng bấm — mà nên thiết kế API rõ ràng, được ghi chép tốt cho AI agent gọi. Con người chỉ cần nói chuyện với agent. Agent nói chuyện với mọi thứ còn lại.

Phản bác và câu trả lời của Karpathy: Có người lập luận điều này không thực tế vì người bình thường không học lập trình AI riêng cho mình. Karpathy đồng ý — hiện tại. Nhưng ông xem đây là trạng thái tạm thời. Thứ gì giờ đòi hỏi kỹ năng kỹ thuật sẽ trở nên cực kỳ dễ dàng trong một hoặc hai năm nữa, khi model AI cải thiện và công cụ trở nên phổ biến hơn. Phần mềm bạn cần sẽ trở thành "nhất thời" — được tạo ra ngay lập tức cho tình huống cụ thể của bạn, dùng xong rồi bỏ. Bạn sẽ không cài app nữa; bạn chỉ nêu ý định.

Ví dụ thực tế: Hãy nhớ hồi xưa bạn phải tự cấu hình TV, đầu DVD, hộp cáp, và hệ thống âm thanh — mỗi thứ có remote riêng. Rồi remote đa năng ra đời và gộp giao diện lại. Rồi TV thông minh loại bỏ hầu hết thiết bị riêng lẻ. Rồi trợ lý giọng nói cho phép bạn chỉ cần nói "mở phim". Mỗi bước loại bỏ sự phức tạp. Karpathy đang mô tả bước tiếp theo, nơi trợ lý giọng nói không chỉ điều khiển TV — mà điều khiển mọi thứ trong cuộc sống kỹ thuật số của bạn, và đủ thông minh để tự xử lý các chi tiết.

V. Tự Nghiên Cứu — Chuyện Gì Xảy Ra Khi AI Tự Cải Thiện Chính Mình

Đây có lẽ là phần quan trọng nhất — và đáng lo ngại nhất — của cuộc trò chuyện. Karpathy mô tả một hệ thống AI không chỉ làm việc cho con người, mà còn tự cải thiện mà không cần con người can thiệp.

"Auto research" thực ra nghĩa là gì: Karpathy có một dự án nơi ông huấn luyện các model AI nhỏ (cứ nghĩ chúng như phiên bản đơn giản hóa của ChatGPT). Huấn luyện một model AI đòi hỏi điều chỉnh hàng nghìn tham số — hãy hình dung như các nút vặn trên bàn mixer. Mỗi nút điều khiển một khía cạnh của quá trình học. Vặn đúng các nút này là một nghệ thuật mà nhà nghiên cứu phải mất nhiều năm để có cảm giác. Karpathy đã làm điều này hai mươi năm.

Ông thiết lập một hệ thống AI tự động điều chỉnh các nút này, chạy thử nghiệm, kiểm tra model có tốt hơn hay xấu hơn, rồi điều chỉnh tiếp. Ông để nó chạy qua đêm — hoàn toàn không cần giám sát — và nó tìm ra những cải thiện mà ông bỏ sót. Cụ thể, nó phát hiện một số tham số ít được chú ý (nếu muốn biết thuật ngữ: "weight decay on value embeddings" và "Adam betas") chưa được điều chỉnh tối ưu, và chúng tương tác với nhau theo cách khó nhìn thấy đối với con người. Hai mươi năm kinh nghiệm chuyên gia, và hệ thống tự động vẫn tìm ra cải tiến chỉ trong một đêm.

Tại sao điều này quan trọng: Đây là minh chứng nhỏ về thứ các lab AI lớn đang đua nhau hướng tới: tự cải thiện đệ quy. Đó là thuật ngữ kỹ thuật cho AI tự làm mình thông minh hơn, rồi lại tự làm thông minh hơn nữa, cứ thế tiếp. Nghe như khoa học viễn tưởng thì không phải — nó đang xảy ra ngay bây giờ ở quy mô nhỏ, và Karpathy đang mô tả từ kinh nghiệm trực tiếp.

Điều kiện then chốt — tiến độ có thể đo lường được: Tự nghiên cứu hoạt động được vì huấn luyện model AI có mục tiêu rõ ràng, đo lường được. Bạn có thể nói với hệ thống: "Làm cho con số này giảm" (gọi là "loss" trong học máy — con số đo mức độ sai của các dự đoán của model). Hệ thống thử nhiều thứ, kiểm tra con số có giảm không, và giữ lại những gì có tác dụng. Giống như có nhân viên làm việc suốt đêm mà hiệu suất được đánh giá hoàn toàn dựa trên một con số trên dashboard. Không mơ hồ, không chính trị nội bộ, không đánh giá chủ quan.

Karpathy chỉ ra rằng khả năng đo lường này là giới hạn quan trọng. Tự nghiên cứu hoạt động tốt cho bất cứ thứ gì có chỉ số rõ ràng — làm code chạy nhanh hơn, giảm lỗi, tối ưu tham số. Nhưng không hoạt động cho những thứ khó đo — sáng tạo, sắc thái, phán đoán, biết khi nào nên hỏi thay vì tự tìm hiểu. Đây là chủ đề xuyên suốt cuộc trò chuyện: AI vượt trội con người trong những lĩnh vực có thể kiểm chứng, và tầm thường ở mọi nơi khác.

Mở rộng quy mô: Karpathy mô tả cách các lab AI lớn — OpenAI, Anthropic, Google DeepMind — về cơ bản đang làm điều này ở quy mô khổng lồ. Họ có các cụm hàng chục nghìn chip chuyên dụng chạy thử nghiệm. Điểm đến hợp lý là làm cho các thử nghiệm này hoàn toàn tự động: một hệ thống AI tự tạo ra giả thuyết (có thể bằng cách đọc bài nghiên cứu), tự kiểm tra trên model nhỏ, giữ lại những gì có tác dụng, và suy ra kết quả cho model lớn hơn. Các nhà nghiên cứu con người sẽ đóng góp ý tưởng vào hàng đợi, nhưng họ sẽ không còn là người chạy thử nghiệm hay đánh giá kết quả nữa. Hệ thống sẽ chạy 24/7, với tốc độ và mức độ kỹ lưỡng mà không nhóm con người nào có thể sánh kịp.

Điều này có nghĩa gì với bạn: Đây là phần khiến bạn phải dừng lại suy nghĩ. Nếu AI có thể cải thiện AI, và các cải thiện cộng dồn lại, thì tốc độ tiến bộ của AI không còn bị giới hạn bởi tốc độ làm việc của nhà nghiên cứu con người nữa. Nó bị giới hạn bởi lượng sức mạnh tính toán có sẵn và mức độ thiết kế tốt của các hệ thống tự động. Karpathy đang mô tả một thế giới mà tiến độ tăng không theo đường thẳng mà theo hàm mũ — AI tồn tại sáu tháng nữa có thể tốt hơn đáng kể so với hiện tại, không phải vì con người có đột phá, mà vì AI tự cải thiện chính nó.

VI. Nghiên Cứu AI Theo Kiểu Cộng Đồng — Mô Hình Wikipedia Cho Trí Tuệ

Karpathy lấy ý tưởng tự nghiên cứu và đẩy thêm một bước: nếu bất kỳ ai trên internet cũng có thể góp phần cải thiện AI, không chỉ riêng người tại các lab lớn thì sao?

So sánh với SETI@home và Folding@home: Đầu những năm 2000, có các dự án cho phép người bình thường hiến tặng sức mạnh tính toán nhàn rỗi của máy tính cho nghiên cứu khoa học. SETI@home dùng để tìm kiếm tín hiệu ngoài Trái Đất. Folding@home dùng để nghiên cứu cách protein gấp lại (quan trọng cho việc hiểu bệnh tật). Bạn cài một chương trình nhỏ, và mỗi khi máy tính rảnh, nó sẽ xử lý một phần nhỏ của vấn đề khoa học lớn hơn.

Karpathy hình dung điều gì đó tương tự cho nghiên cứu AI. Ý tưởng cơ bản là: cải thiện model AI đòi hỏi thử rất nhiều thứ (10,000 ý tưởng có thể chỉ cho ra một cái có tác dụng), nhưng xác minh một cải thiện cụ thể có tác dụng hay không thì tương đối đơn giản (bạn chỉ cần chạy kiểm tra). Sự bất cân xứng này — khó khám phá, dễ xác minh — chính là thuộc tính làm cho Bitcoin mining hoạt động. Nhiều máy tính làm rất nhiều công việc để tìm block hợp lệ, nhưng ai cũng có thể xác minh kết quả trong vài giây.

Cách nó sẽ hoạt động trong thực tế: Mọi người hoặc tổ chức trên thế giới sẽ đóng góp sức mạnh tính toán cho một dự án nghiên cứu chung. Máy tính của họ sẽ thử các sửa đổi khác nhau cho code huấn luyện của model AI. Khi máy tính của ai đó tìm ra cải tiến, nó gửi lên. Hệ thống trung tâm xác minh cải tiến đó có thật không (bằng cách chạy huấn luyện và kiểm tra kết quả) và thêm vào codebase chung. Người đóng góp được ghi nhận trên bảng xếp hạng; tập thể có một model AI tốt hơn.

Vấn đề tin tưởng: Có một thách thức rõ ràng: nếu người lạ trên internet gửi code cho bạn chạy, đó là cơn ác mộng bảo mật. Ai đó có thể gửi code độc hại để đánh cắp dữ liệu hay phá hoại dự án. Karpathy thừa nhận điều này và nói thiết kế hệ thống cần xử lý người đóng góp không đáng tin — cách ly các bài gửi của họ, xác minh kết quả độc lập, và xây dựng các biện pháp bảo mật tương tự hệ thống blockchain. Khó, nhưng là loại vấn đề đã có giải pháp.

Tại sao điều này quan trọng với bạn: Hãy tưởng tượng bạn quan tâm đến nghiên cứu ung thư. Thay vì quyên tiền cho viện nghiên cứu và hy vọng họ dùng đúng, bạn có thể mua sức mạnh tính toán và đóng góp trực tiếp vào đàn AI tập trung vào ung thư. Đóng góp của bạn sẽ được đo lường và có thể xác minh. AI sẽ chạy thử nghiệm quanh đồng hồ, và sức mạnh tính toán của bạn sẽ là một phần của bộ não tập thể đang giải quyết vấn đề. Đây không phải giấc mơ xa vời — các mảnh kỹ thuật đã tồn tại hôm nay. Thứ còn thiếu là cơ sở hạ tầng điều phối.

Sức mạnh tính toán như đồng tiền mới: Karpathy và các người dẫn chương trình ngắn gọn khám phá một ý tưởng khiêu khích: liệu sức mạnh tính toán (đo bằng FLOPS — phép tính dấu phẩy động mỗi giây) có thể trở nên quan trọng hơn tiền không? Hiện tại, thật sự khó mua sức mạnh tính toán dù bạn có tiền mặt — có thiếu hụt vật lý về chip chuyên dụng mà AI cần. Trong một thế giới mà AI là động lực chính tạo ra giá trị, kiểm soát sức mạnh tính toán có thể quan trọng hơn kiểm soát đô la. Karpathy không hoàn toàn cam kết với ý tưởng này, nhưng ông thấy nó đủ thú vị để khám phá.

VII. Tại Sao AI Vừa Xuất Sắc Vừa Ngớ Ngẩn Cùng Lúc

Đây là một trong những phần dễ đồng cảm nhất của cuộc trò chuyện, vì ai đã dùng ChatGPT hay công cụ tương tự đều từng trải nghiệm điều này: AI viết một bài luận xuất sắc nhưng không đếm được số chữ "r" trong từ "strawberry." Nó giải bài toán ở trình độ đại học nhưng kể cùng một câu chuyện cười tẻ nhạt mãi không đổi.

Điều Karpathy gọi là "jaggedness" — sự tham sai: Hãy hình dung một học sinh đạt điểm bách phân vị thứ 99 ở phần toán trong kỳ thi SAT nhưng chỉ thứ 10 ở phần đọc hiểu. Ở con người, loại chênh lệch cực đoan như vậy rất hiếm — các năng lực thường có tương quan với nhau. Nếu bạn đủ thông minh để là lập trình viên đẳng cấp thế giới, có lẽ bạn cũng kể được một câu chuyện cười tử tế. Model AI không hoạt động theo cách đó. Chúng có thể vừa đẳng cấp thế giới trong một lĩnh vực, vừa ở trình độ mẫu giáo trong lĩnh vực khác.

Bài kiểm tra câu chuyện cười: Karpathy chỉ ra rằng nếu bạn hỏi model AI tiên tiến nhất thế giới kể chuyện cười, bạn sẽ nhận được câu chuyện cười y hệt ba hoặc bốn năm trước: "Tại sao các nhà khoa học không tin nguyên tử? Vì chúng đã bịa đặt nên mọi thứ." Dù hàng nghìn tỷ đô la đầu tư và những bước nhảy vọt khổng lồ về năng lực, câu chuyện cười không hề tốt hơn. Thậm chí không thay đổi. Hỏi cùng AI đó xây dựng một tính năng phần mềm phức tạp và nó sẽ làm việc nhiều giờ và cho ra sản phẩm phi thường. Nhưng kể chuyện cười? Vẫn câu đó. Mãi mãi.

Tại sao điều này xảy ra — giải thích về reinforcement learning: Các lab AI cải thiện model thông qua quá trình gọi là học tăng cường. Nói đơn giản, họ đưa cho AI một nhiệm vụ, kiểm tra nó làm có đúng không, và thưởng cho câu trả lời đúng. Điều này hoạt động cực kỳ tốt cho các nhiệm vụ mà "đúng" và "sai" rõ ràng: Code có chạy không? Toán có đúng không? Kiểm tra có qua không? AI ngày càng giỏi hơn ở những nhiệm vụ này vì vòng phản hồi chặt chẽ và không mơ hồ.

Nhưng với những thứ mà "tốt" và "xấu" mang tính chủ quan — hài hước, phong cách, nhận thức xã hội, biết khi nào nên hỏi câu hỏi — không có tín hiệu phản hồi rõ ràng. Chưa ai tìm ra cách cho AI một "điểm hài hước" có thể đo lường để cải thiện câu chuyện cười một cách đáng tin. Vì vậy những khả năng mềm này không cải thiện với tốc độ tương tự những khả năng cứng, có thể xác minh. Model trở nên giỏi hơn đáng kể về lập trình trong khi khiếu hài hước vẫn đóng băng năm 2021.

Điều Karpathy gọi là "on rails" vs. "off rails": Khi AI làm việc trong lĩnh vực được huấn luyện — lập trình, toán, phân tích — cảm giác như bạn đang kết nối với siêu trí tuệ. Mọi thứ diễn ra với tốc độ và chất lượng phi thường. Nhưng khi bước ra ngoài những lĩnh vực đó — yêu cầu viết sáng tạo với giọng văn thật sự, yêu cầu sắc thái xã hội, yêu cầu thứ gì đó thật sự mới lạ — AI "lan man." Nó cho ra sản phẩm nhạt nhẽo, chung chung. Bạn đã lạc ra khỏi đường ray vào vùng hoang mạc chưa được tối ưu.

Tại sao điều này quan trọng với bạn: Đây là điều cốt lõi để hiểu AI có thể và không thể làm gì cho bạn ngay hôm nay. Nếu công việc của bạn liên quan đến nhiệm vụ có câu trả lời đúng sai rõ ràng — phân tích dữ liệu, viết code, tóm tắt tài liệu, công thức bảng tính — AI đã cực kỳ hữu ích và đang ngày càng tốt hơn. Nếu công việc của bạn liên quan đến phán đoán, thẩm mỹ, sắc thái giao tiếp con người, sáng tạo độc đáo, hoặc biết câu hỏi nào cần hỏi — AI tầm thường ở mức tốt nhất, và có thể không cải thiện nhanh như các tiêu đề báo gợi ý. Khoảng cách giữa hai loại này là "sự tham sai" mà Karpathy đang mô tả, và giải thích tại sao cùng một AI có thể vừa như thiên tài vừa như người ngốc trong cùng một cuộc trò chuyện.

Hàm ý khó chịu: Một số nhà nghiên cứu hy vọng rằng làm AI giỏi code hơn sẽ tự động làm nó giỏi mọi thứ hơn — rằng trí tuệ là trí tuệ, và cải thiện một lĩnh vực sẽ kéo tất cả lên. Karpathy không tin điều này đang xảy ra. Ông thấy các cải thiện ở lại trong làn đường của chúng. Code tốt hơn; câu chuyện cười vẫn vậy. Điều này có nghĩa chúng ta không nên kỳ vọng AI trở nên xuất sắc đồng đều chỉ vì nó xuất sắc ở nhiệm vụ cụ thể. Sự tham sai có thể là đặc điểm vĩnh viễn, không phải lỗi tạm thời.

VIII. Có Nên Có Nhiều AI Chuyên Biệt Cho Từng Công Việc Không?

Dựa trên vấn đề tham sai, Karpathy đặt câu hỏi tự nhiên: thay vì cố xây một AI giỏi mọi thứ, có nên xây nhiều AI mỗi cái thật giỏi một việc không?

Cách tiếp cận hiện tại — một model cai trị tất cả: Hiện nay, các công ty như OpenAI, Anthropic, và Google đang xây dựng thứ mà Karpathy gọi là "monoculture" — một model AI khổng lồ duy nhất được cho là xử lý mọi thứ. Cần thơ? Cùng model đó. Cần phân tích tài chính? Cùng model đó. Cần debug code? Cùng model đó. Logic là một model mạnh duy nhất dễ triển khai, bảo trì, và cải thiện hơn. Nhưng kết quả là vấn đề tham sai: model giỏi một số thứ và tầm thường ở thứ khác, và người dùng không bao giờ biết họ sẽ gặp phiên bản nào.

Lựa chọn thay thế — chuyên biệt hóa: Karpathy mượn thuật ngữ từ sinh học: speciation — sự phân nhánh loài. Trong tự nhiên, động vật tiến hóa ra nhiều loại não khác nhau cho những môi trường khác nhau. Đại bàng có khả năng xử lý thị giác phi thường. Cá heo có hệ thống định vị âm thanh tinh vi. Con người có trung tâm ngôn ngữ và lý luận phát triển quá mức. Không con nào giỏi mọi thứ; mỗi con đặc biệt xuất sắc ở những gì môi trường của nó đòi hỏi.

Karpathy gợi ý AI nên đi theo con đường tương tự. Thay vì một model biết mọi thứ, bạn có thể có các model nhỏ hơn, chuyên biệt, chia sẻ một "lõi nhận thức chung" (lý luận cơ bản và hiểu ngôn ngữ) nhưng được chuyên biệt hóa sâu trong các lĩnh vực cụ thể. Model cho nhà toán học làm việc trong hệ thống chứng minh hình thức. Model cho bác sĩ phân tích hình ảnh y tế. Model cho luật sư xem xét hợp đồng. Mỗi cái sẽ nhanh hơn, rẻ hơn, và tốt hơn ở nhiệm vụ cụ thể của nó so với model tổng quát khổng lồ.

Tại sao điều này chưa xảy ra: Có hai lý do chính. Thứ nhất, các lab AI không biết trước người dùng sẽ hỏi về gì. Vì cùng một model phục vụ hàng triệu người dùng với nhu cầu hoàn toàn khác nhau, nó phải là người đa năng. Thứ hai, khoa học tùy chỉnh model AI vẫn còn non nớt. Khi bạn cố làm model giỏi hơn ở một thứ, thường vô tình làm nó kém hơn ở thứ khác. Giống như học sinh học quá tập trung cho kỳ thi toán đến mức quên hết lịch sử. Đến khi vấn đề này được giải quyết, xây dựng model chuyên biệt đáng tin cậy khó hơn nghe.

Điều này có nghĩa gì với bạn: Trong tương lai gần, bạn vẫn sẽ tương tác với model AI đa năng — các ChatGPT và Claude của thế giới. Nhưng trong vài năm tới, hãy kỳ vọng thấy nhiều công cụ AI chuyên biệt hơn xuất hiện cho các ngành và nhiệm vụ cụ thể. Bác sĩ của bạn có thể dùng AI y tế giỏi chẩn đoán hơn model tổng quát nhiều. Kế toán của bạn có thể dùng AI tài chính hiểu luật thuế ở tầng sâu hơn. Các model đa năng sẽ không biến mất, nhưng chúng sẽ được bổ sung bởi các chuyên gia — giống như bác sĩ đa khoa trong y tế được bổ sung bởi tim mạch, thần kinh, và ung thư học.

IX. Open Source Vs. Big Tech — Ai Nên Kiểm Soát AI?

Đây là một trong những chủ đề mang tính chính trị nhất trong AI, và Karpathy — người đã làm việc bên trong các lab lớn nhất và giờ hoạt động độc lập — có quan điểm tinh tế.

"Open source" trong AI nghĩa là gì: Khi một công ty như Meta phát hành model AI dưới dạng "open source," họ cho phép bất kỳ ai tải về, kiểm tra, sửa đổi, và sử dụng. Bạn có thể chạy nó trên máy tính của mình mà không phải trả tiền cho công ty. Ngược lại là "closed source," nơi các công ty như OpenAI hay Anthropic giữ model sau rào chắn đăng ký — bạn có thể dùng, nhưng không thể xem cách chúng hoạt động hay tự chạy chúng.

Tình trạng hiện tại: Các model AI mạnh nhất là closed — chúng thuộc về một số ít công ty. Nhưng các model open source đang bắt kịp nhanh chóng. Karpathy nói khoảng cách từng là khoảng 18 tháng; giờ còn khoảng sáu đến tám tháng. Các công ty Trung Quốc và nhóm nghiên cứu toàn cầu đã phát hành các model mở gần với tiên phong hơn hầu hết mọi người kỳ vọng.

Quan điểm của Karpathy — Linux cho AI: Ông vẽ ra so sánh với cuộc chiến hệ điều hành. Windows và macOS là sản phẩm thương mại đóng. Linux là open source — và nó chạy trên khoảng 60% máy tính thế giới (hầu hết web server, điện thoại Android, và hạ tầng đám mây đều dùng Linux). Linux thành công vì ngành thực sự cần một nền tảng chung mà không công ty đơn lẻ nào kiểm soát. Karpathy tin AI cần điều tương tự.

Điểm khác biệt là chi phí. Viết phần mềm cho Linux đòi hỏi tài năng nhưng không cần phần cứng đắt tiền. Huấn luyện model AI lớn đòi hỏi chip tính toán chuyên dụng trị giá hàng triệu đô. Điều này làm cho open source AI khó cạnh tranh ở đỉnh tuyệt đối. Nhưng Karpathy lập luận rằng cho đại đa số trường hợp sử dụng hàng ngày, các model open source đã đủ tốt. Và thứ là tiên phong hôm nay sẽ là open source trong sáu đến mười hai tháng. Đó là băng chuyền: các lab lớn đẩy ranh giới, open source theo sau, và tổng năng lực có sẵn cho mọi người cứ tăng lên mãi.

Tại sao điều này quan trọng — nguy cơ tập trung hóa: Karpathy trở nên cá nhân hơn ở đây. Ông là người gốc Slovak-Canada, và ông nhắc đến lịch sử Đông Âu để giải thích sự ngờ vực của mình với tập trung hóa. Khi quyền lực được tập trung vào ít tay — dù là chính phủ hay tập đoàn — những điều xấu thường xảy ra. Ông không muốn AI mạnh nhất thế giới chỉ tồn tại sau cánh cửa đóng của hai hoặc ba công ty. Ông muốn nhiều lab hơn, nhiều quan điểm hơn, nhiều người hơn trong phòng khi đưa ra các quyết định quan trọng. Trong học máy, ông lưu ý, các ensemble (kết hợp nhiều model) luôn vượt trội bất kỳ model đơn lẻ nào. Nguyên tắc tương tự, ông lập luận, áp dụng cho các tổ chức.

Điều này có nghĩa gì với bạn: Cuộc tranh luận này có thể trừu tượng, nhưng nó có hậu quả thực với cuộc sống bạn. Nếu AI bị kiểm soát bởi vài công ty, các công ty đó quyết định AI có thể và không thể làm gì, ai được tiếp cận, và chi phí bao nhiêu. Nếu có các lựa chọn open source mạnh mẽ, bạn có lựa chọn — và mọi lập trình viên xây dựng công cụ bạn dùng cũng vậy. Karpathy về cơ bản lập luận rằng sự cân bằng hiện tại (lab lớn ở tiên phong, open source gần theo sau) là lành mạnh, và chúng ta nên nỗ lực duy trì nó.

X. Còn Công Việc Của Tôi Thì Sao? — Câu Trả Lời Thật Sự

Đây là câu hỏi mọi người muốn được trả lời, và Karpathy thật lòng đáng khen ngợi về cả sự lạc quan lẫn sự không chắc chắn của ông.

Khung tư duy then chốt — kỹ thuật số vs. vật lý: Karpathy chia nền kinh tế thành hai loại. Công việc "kỹ thuật số" là bất cứ thứ gì bạn có thể làm từ máy tính ở nhà — kỹ thuật phần mềm, phân tích tài chính, thiết kế đồ họa, viết lách, nhập liệu, nghiên cứu pháp lý, hỗ trợ khách hàng. Công việc "vật lý" đòi hỏi cơ thể bạn phải ở đâu đó — điều dưỡng, xây dựng, thợ ống nước, cảnh sát, phẫu thuật, nhà hàng.

AI hiện tại là thực thể kỹ thuật số. Nó thao túng thông tin — văn bản, code, số, hình ảnh — với tốc độ phi thường. Nó không có thân xác. Di chuyển bit thông tin gần như miễn phí và tức thì; di chuyển vật thể vật lý đòi hỏi năng lượng, thời gian, và kỹ thuật. Karpathy ước tính thao túng bit dễ hơn thao túng nguyên tử khoảng "một triệu lần." Vì vậy sự gián đoạn sẽ đánh vào công việc kỹ thuật số trước và mạnh nhất. Công việc vật lý cũng sẽ thay đổi, nhưng chậm hơn nhiều.

Sẽ có ít việc làm hơn không? — Nghịch lý Jevons: Câu trả lời của Karpathy dựa trên nguyên tắc kinh tế 150 tuổi gọi là nghịch lý Jevons. Vào những năm 1860, nhà kinh tế học William Stanley Jevons quan sát rằng khi động cơ hơi nước trở nên hiệu quả hơn về nhiên liệu, tiêu thụ than không giảm — mà tăng. Động cơ rẻ hơn đến mức người ta dùng chúng cho những việc trước đây quá đắt. Nhu cầu mở rộng nhanh hơn hiệu quả giảm.

Ví dụ hiện đại Karpathy dùng là ATM và nhân viên ngân hàng. Khi ATM được giới thiệu, người ta lo nhân viên ngân hàng sẽ bị thay thế. Điều thực sự xảy ra là ATM làm cho mỗi chi nhánh ngân hàng rẻ hơn nhiều để vận hành (bạn cần ít nhân viên hơn mỗi chi nhánh). Vì chi nhánh rẻ hơn, các ngân hàng mở thêm nhiều chi nhánh hơn. Tổng số việc làm nhân viên ngân hàng thực tế tăng trong nhiều thập kỷ sau khi ATM được giới thiệu.

Karpathy lập luận cùng động lực áp dụng cho phần mềm. Phần mềm cực kỳ mạnh mẽ, nhưng trong lịch sử, sản xuất nó đắt tiền. Chỉ các công ty lớn mới đủ khả năng xây phần mềm tùy chỉnh cho nhu cầu cụ thể. Nếu AI làm phần mềm rẻ hơn 10 hay 100 lần, nhu cầu phần mềm sẽ không giảm cùng hệ số — nó sẽ bùng nổ. Các doanh nghiệp nhỏ trước đây không đủ tiền phần mềm tùy chỉnh sẽ đột nhiên có thể tiếp cận. Cá nhân sẽ có phần mềm cá nhân hóa theo nhu cầu cụ thể. Tổng lượng phần mềm trên thế giới sẽ tăng mạnh, và cùng với đó, nhu cầu về người có thể chỉ đạo và quản lý việc tạo phần mềm do AI hỗ trợ.

Sự không chắc chắn thật sự: Karpathy không giả vờ biết điều này diễn ra thế nào về lâu dài. Ông lưu ý rằng các nhà nghiên cứu tại các lab AI lớn đang tự làm mình mất việc, và nhiều người trong số họ cảm thấy sự lo lắng tương tự ông mô tả. Ông nói với đồng nghiệp tại OpenAI: "Nếu chúng ta thành công ở điều này, tất cả chúng ta đều mất việc." Tương lai dài hạn thật sự không chắc chắn, và Karpathy nói dự báo đúng là việc của các nhà kinh tế, không phải kỹ sư.

Lời khuyên thực tế: Lời khuyên ngầm của Karpathy là: các công cụ cực kỳ mới và cực kỳ mạnh mẽ. Điều đầu tiên cần làm là học chúng. Đừng bác bỏ AI hay sợ hãi — hãy xem nó như những gì nó đang là, một công cụ trao quyền. Công việc là tập hợp các nhiệm vụ, và một số nhiệm vụ đó giờ có thể làm nhanh hơn nhiều. Những người học dùng các công cụ này hiệu quả sẽ năng suất hơn, có giá trị hơn, và khó thay thế hơn.

XI. Robot Đang Tới, Nhưng Không Nhanh Như Bạn Nghĩ

Nếu AI sắp biến đổi mọi công việc kỹ thuật số, còn công việc vật lý thì sao? Robot có thay thế thợ ống nước, y tá, và thợ xây không? Câu trả lời của Karpathy được định hình bởi thời gian ông dẫn chương trình xe tự lái của Tesla, và thận trọng hơn bạn có thể kỳ vọng.

Bài học từ xe tự lái: Karpathy dẫn nhóm AI tại Tesla đang cố làm xe tự lái. Ông chứng kiến hàng chục startup xe tự lái ra đời một thập kỷ trước, đầy vốn mạo hiểm và sự lạc quan. Hầu hết thất bại. Công nghệ đòi hỏi đầu tư vốn khổng lồ, nhiều năm phát triển, và sức chịu đựng với thế giới vật lý bừa bộn, khó lường. Xe tự lái vẫn chưa hoàn toàn được giải quyết, dù hàng tỷ đô la và một thập kỷ nỗ lực.

Ông kỳ vọng robot tổng quát — robot hình người, robot kho hàng, trợ lý trong nhà — sẽ theo quỹ đạo tương tự. Sẽ có tiến bộ, nhưng chậm hơn, tốn kém hơn, và khó khăn hơn cuộc cách mạng kỹ thuật số đang xảy ra ngay bây giờ. Lý do là cơ bản: di chuyển vật thể vật lý vốn khó hơn di chuyển thông tin. Bạn có thể copy một file trong mili giây. Di chuyển một cái hộp qua phòng đòi hỏi động cơ, cảm biến, điện năng, và xử lý nghìn biến số khó lường (sàn ướt, con mèo đang ngồi đó, hộp nặng hơn dự kiến).

Ba giai đoạn phát triển: Karpathy mô tả tương lai trong ba giai đoạn:

Giai đoạn 1 (đang xảy ra): Viết lại mạnh mẽ thế giới kỹ thuật số. Mọi thứ tồn tại dưới dạng thông tin số — tài liệu, code, dữ liệu, quy trình — được tối ưu hóa, tổ chức lại, và cải tiến bởi AI với tốc độ đáng kinh ngạc.

Giai đoạn 2 (sắp tới): Các công ty xuất hiện ở giao giữa kỹ thuật số và vật lý. Đây là "cảm biến và cơ cấu chấp hành" — các công ty đưa dữ liệu thế giới thực vào AI (camera, thiết bị phòng thí nghiệm, thiết bị giám sát môi trường) hoặc thực thi lệnh của AI trong thế giới vật lý (robot, phòng thí nghiệm tự động, logistics).

Giai đoạn 3 (xa hơn): Tự chủ hoàn toàn trong thế giới vật lý — robot có thể làm các nhiệm vụ vật lý phức tạp một cách đáng tin cậy và kinh tế. Đây là thị trường lớn nhất, nhưng đến sau cùng.

Điều này có nghĩa gì với bạn: Nếu công việc của bạn chủ yếu là vật lý — bạn làm việc bằng tay, cần hiện diện thực tế, công việc liên quan thế giới thực khó lường — bạn có nhiều thời gian hơn trước khi AI thay đổi công việc hàng ngày. Không phải vì công việc vật lý kém quan trọng, mà vì nó khó tự động hóa hơn. Nếu công việc của bạn chủ yếu là kỹ thuật số — bạn làm việc trên máy tính, xử lý thông tin — những thay đổi đã ở đây rồi.

XII. Tương Lai Của Trường Học — AI Làm Gia Sư Riêng

Gần cuối cuộc trò chuyện, Karpathy nói về một dự án tên MicroGPT và điều nó tiết lộ về tương lai giáo dục.

MicroGPT là gì: Karpathy đã dành hơn một thập kỷ cố gắng chắt lọc khái niệm huấn luyện model AI xuống dạng đơn giản nhất tuyệt đối. MicroGPT là nỗ lực mới nhất: toàn bộ thuật toán — tải dữ liệu, xây mạng nơ-ron, huấn luyện, và tối ưu hóa — được thể hiện chỉ trong 200 dòng code Python đơn giản. Mọi thứ ngoài 200 dòng đó, trong hệ thống AI thật, chỉ để làm nó chạy nhanh hơn. Nếu bạn không quan tâm tốc độ và chỉ muốn hiểu thuật toán, 200 dòng là tất cả những gì bạn cần.

Sự chuyển dịch trong giáo dục: Trong quá khứ, bản năng của Karpathy sẽ là làm một video giải thích dài đi qua code. Ông nổi tiếng với chính xác loại nội dung giáo dục này (các video YouTube về mạng nơ-ron của ông có hàng triệu lượt xem). Nhưng ông nhận ra điều gì đó: code quá đơn giản đến mức bất kỳ ai cũng có thể nhờ trợ lý AI của họ giải thích. Và trợ lý AI sẽ giải thích tốt hơn ông — không phải vì nó hiểu nhiều hơn, mà vì nó có thể tùy chỉnh giải thích cho từng cá nhân. Nếu bạn học bằng hình ảnh, nó có thể vẽ sơ đồ. Nếu bạn đã biết tính toán, nó có thể dùng ký hiệu toán học. Nếu bạn hoàn toàn mới bắt đầu, nó có thể bắt đầu từ cơ bản nhất. Không giáo viên con người nào có thể làm điều này cho mọi học sinh đồng thời.

Vai trò mới của giáo viên: Karpathy mô tả một sự chuyển dịch căn bản. Thay vì giải thích mọi thứ cho người, giáo viên nên giải thích mọi thứ cho agent. Nếu agent hiểu tài liệu, agent có thể giải thích nó cho bất kỳ ai. Vai trò của giáo viên trở thành thiết kế chương trình học — tạo ra thứ Karpathy gọi là "skill," về cơ bản là bộ hướng dẫn cho AI về con đường tiến triển cần dẫn dắt học sinh qua — và đóng góp những "bit ít ỏi" của sự thấu hiểu thật sự mà AI không tự tạo ra được.

Điều này có nghĩa gì với bạn: Nếu bạn là học sinh, tương lai có vẻ như có gia sư riêng luôn có mặt, kiên nhẫn vô hạn, và thích nghi hoàn hảo với phong cách học của bạn. Nếu bạn là giáo viên, vai trò của bạn đang tiến hóa từ "người truyền đạt thông tin" sang "người thiết kế trải nghiệm học và đóng góp những hiểu biết AI không thể." Nếu bạn là phụ huynh, các công cụ giáo dục cho con bạn sẽ tốt hơn nhiều so với những gì bạn có — nhưng các yếu tố con người trong giáo dục (động lực, hướng dẫn, phát triển xã hội) sẽ trở nên quan trọng hơn, không phải ít hơn, chính xác vì phần truyền đạt thông tin đang được tự động hóa.

XIII. Tại Sao Karpathy Rời Bỏ Big Tech — Và Điều Đó Nói Lên Điều Gì

Cuộc trò chuyện kết thúc với một ghi chú rất cá nhân. Karpathy từng làm tại OpenAI và Tesla — hai tổ chức AI có hậu quả nhất trong lịch sử. Tại sao ông rời đi, và tại sao ông không quay lại?

Lập luận về độc lập: Bên trong một lab AI lớn, bạn không được tự do. Có những thứ bạn không thể nói công khai — không phải vì ai cấm một cách rõ ràng, mà vì áp lực là có thật. Đồng nghiệp của bạn liếc nhìn. Cuộc trò chuyện trở nên ngượng ngùng. Tổ chức có câu chuyện muốn chiếu, và các tuyên bố công khai của bạn ngầm phải hỗ trợ nó. Karpathy nói ông cảm thấy "gắn liền với nhân loại" hơn khi ở ngoài các lab vì ông không bị ràng buộc bởi các động cơ tài chính đến từ việc là một phần của tổ chức kiếm lợi từ việc làm AI mạnh hơn.

Đây là nan đề mà OpenAI ban đầu được thành lập để giải quyết: nếu AI sắp thay đổi thế giới một cách mạnh mẽ, những người xây dựng nó không nên là cùng những người kiếm lợi từ nó. Karpathy không tuyên bố vấn đề này đã được giải quyết — ông nói "nan đề vẫn chưa được giải quyết hoàn toàn."

Chi phí của việc ở ngoài: Độc lập có nhược điểm thực: các lab tiên phong là mờ đục. Họ đang làm gì tiếp theo, và nếu bạn không ở trong đó, hiểu biết của bạn về tương lai không tránh khỏi bị lệch. Bạn không biết các hệ thống thực sự hoạt động thế nào bên dưới. Bạn không có cảm giác đáng tin cậy về hướng đi. Karpathy thừa nhận điều này khiến ông lo lắng.

Giải pháp đề xuất của ông mang tính thực dụng: vào ra luân phiên. Dành thời gian bên trong một lab tiên phong, đóng góp công việc thực sự, giữ kết nối với trạng thái nghệ thuật thực tế. Rồi bước ra ngoài, lấy lại sự độc lập, nói thẳng, đóng góp cho hệ sinh thái. Đừng vĩnh viễn gắn mình với bất kỳ tổ chức đơn lẻ nào, vì khi cổ phần trở nên thực sự cao, là nhân viên nghĩa là bạn không thực sự kiểm soát tổ chức làm gì.

Điều này có nghĩa gì với bạn: Lựa chọn nghề nghiệp của Karpathy phản ánh sức căng rộng hơn trong AI. Công nghệ đang được xây dựng bởi một số ít công ty với quyền lực khổng lồ và tính minh bạch hạn chế. Những người bên trong các công ty đó thông minh, nhưng họ không phải là các tác nhân tự do — họ không phải lúc nào cũng có thể nói với công chúng những gì họ biết hay nghĩ. Lựa chọn của Karpathy hoạt động độc lập, với cái giá là hơi tụt hậu so với tiên phong, là cách ông duy trì khả năng nói thật. Đó là sự đánh đổi mà ngày càng nhiều nhà nghiên cứu AI có thể phải đối mặt khi cổ phần ngày càng cao hơn.


Kết Luận

Nếu bạn đọc đến đây, đây là điều Andrej Karpathy thật ra đang nói, gỡ bỏ hết thuật ngữ:

Công cụ đã thay đổi. Vào khoảng tháng 12 năm 2024, các trợ lý AI lập trình đã đủ tốt đến mức các lập trình viên hàng đầu ngừng tự viết code. Giờ họ quản lý các nhân viên AI thay thế. Đây giống như bước chuyển từ viết thư tay sang dùng email — cùng công việc được hoàn thành, nhưng phương pháp hoàn toàn khác.

Các app của bạn sắp biến mất. Tương lai không phải năm mươi app trên điện thoại; mà là một trợ lý AI nói chuyện với tất cả chúng từ hậu trường. Bạn chỉ cần nói muốn gì.

AI đang cải thiện AI. Karpathy thiết lập một AI tối ưu các AI khác qua đêm. Nó tìm ra những cải tiến ông bỏ sót sau hai mươi năm kinh nghiệm. Các lab lớn đang làm điều này ở quy mô khổng lồ. Tốc độ cải thiện AI sắp không còn bị giới hạn bởi tốc độ làm việc của nhà nghiên cứu con người.

AI vừa xuất sắc vừa mù quáng cùng lúc. Nó có thể xây phần mềm phức tạp nhưng không thể kể một câu chuyện cười mới. Nó có thể giải bài toán trình độ sau đại học nhưng không biết khi nào nên hỏi câu hỏi làm rõ. Sự không đồng đều này có tính cấu trúc, không phải tạm thời.

Công việc kỹ thuật số thay đổi trước. Nếu bạn làm việc trên máy tính, những thay đổi đã ở đây rồi. Nếu bạn làm việc bằng tay, bạn có nhiều thời gian hơn — nhưng những thay đổi đang tới cho công việc vật lý cũng vậy, chỉ chậm hơn.

Nhiều phần mềm hơn, không phải ít hơn. Phần mềm rẻ hơn trong lịch sử đồng nghĩa với nhu cầu nhiều hơn, không phải ít hơn. Cùng quy luật đó có khả năng giữ nguyên với việc tạo phần mềm do AI hỗ trợ.

Giáo dục chuyển đổi. Giáo viên sẽ chuyển từ giải thích mọi thứ cho người sang thiết kế chương trình học cho gia sư AI. Gia sư AI sẽ kiên nhẫn hơn, thích nghi hơn, và cuối cùng hiểu biết hơn bất kỳ giáo viên con người nào — nhưng nó sẽ cần nội dung do con người tạo ra để dạy từ đó.

Những người phụ trách cũng đang lo lắng. Karpathy, một trong những nhà nghiên cứu AI thành công nhất còn sống, mô tả bản thân đang trong trạng thái "AI psychosis." Ông cảm thấy sự lo lắng tương tự như mọi người về việc theo kịp. Điểm khác là ông lo lắng về việc đứng ở tiên phong; bạn có thể lo lắng về việc bị bỏ lại phía sau. Dù thế nào, lãnh thổ này mới với tất cả mọi người.

Phải làm gì bây giờ: Học các công cụ. Đừng sợ chúng và đừng bác bỏ chúng. Tập trung vào những thứ AI không thể làm — phán đoán, sáng tạo, công việc vật lý, trí tuệ cảm xúc, đặt ra những câu hỏi đúng. Mọi thứ AI có thể làm, nó sẽ sớm làm tốt hơn bạn. Chiến lược thua duy nhất là đứng yên.


Bài phân tích này dựa trên lần xuất hiện của Andrej Karpathy trên podcast No Priors. Mọi ý tưởng và nhận định đều được gán cho Karpathy và người dẫn chương trình như được thể hiện trong cuộc trò chuyện gốc. Các giải thích và ví dụ so sánh được thêm vào để giúp dễ hiểu hơn.

What Andrej Karpathy Is Really Saying — An Everyday Person's Guide to the AI Future

Author: Claude AI, under the supervision, prompting and editing by HocTro

Andrej Karpathy is one of the most important voices in artificial intelligence. He co-founded OpenAI, led the self-driving AI team at Tesla, and is now an independent researcher and educator. In a recent podcast appearance on No Priors, he laid out his vision for where AI is heading — and it is dramatic. But much of what he said was wrapped in technical jargon and insider shorthand. This essay unpacks every major point, explains what it actually means, and explores why it matters for people who are not engineers or AI researchers.



Summary

Andrej Karpathy's conversation covers a lot of ground, and much of it sounds like science fiction — but it is not. It is a description of what is happening right now. Here is the plain-English version of his main points: AI coding tools got dramatically better around December 2024, to the point where top engineers stopped writing code and started managing AI assistants instead. Karpathy built an AI butler for his house that controls his lights, music, heating, pool, and security cameras — all through text messages. He argues that most phone apps will eventually be replaced by a single AI assistant that talks to all your devices. He set up an AI that improves other AIs overnight while he sleeps, and it found optimizations that he missed after twenty years of experience. He thinks AI will change office jobs much faster than physical jobs, because moving information is infinitely easier than moving objects. He is cautiously optimistic about employment — cheaper software historically means more jobs, not fewer. He believes education will transform from teachers lecturing students to teachers programming AI tutors. And he left the big AI labs because he wants to speak freely about what is happening without corporate pressure. The overall message: the AI revolution is not coming — it is here, it is moving faster than almost anyone realizes, and the people best positioned are those who learn to work with AI rather than compete against it.

I. What Does "AI Psychosis" Mean? — The Moment Everything Changed

Karpathy says he is in a "perpetual state of AI psychosis." That sounds alarming, but what he means is simpler: he is overwhelmed by how fast things are changing and anxious about keeping up. The word "psychosis" is deliberate hyperbole — he is not losing touch with reality, he is losing the ability to map all of reality because there is too much new territory opening up at once.

What happened in December 2024: Before that month, Karpathy wrote most of his own code — about 80% by hand, with AI helping on 20%. Then something changed in the AI models (likely a new generation of coding agents from companies like Anthropic, OpenAI, and others). Almost overnight, the AI became good enough that Karpathy flipped entirely: he now writes essentially zero code himself. He talks to AI assistants, describes what he wants, and they build it.

Why this matters for you: Think of it like the jump from handwriting letters to using email. The first word processors were clunky — you still typed most things yourself, and the computer just helped with formatting. Then email arrived and nobody handwrote letters anymore. Karpathy is describing that kind of transition, but for the entire practice of building software. The people who make your apps, your websites, your banking systems — the way they work changed dramatically in a matter of weeks. Most people outside the tech industry have not noticed yet.

The anxiety factor: Karpathy watches other developers on social media discovering new techniques and feels genuinely nervous about falling behind. If one of the world's foremost AI experts feels this way, it tells you something about the pace of change. The territory of what is possible is expanding faster than any one person can explore it.

II. Coding Agents Explained — Why Programmers Stopped Typing

To understand the rest of the conversation, you need to understand what a "coding agent" is. It is not autocomplete. It is not the AI suggesting the next word as you type. A coding agent is closer to having a junior employee who can follow complex instructions. You describe a feature you want — say, "add a table component to this drawing app" — and the agent goes off on its own for twenty minutes or an hour, reads through the existing code, figures out how it all connects, writes hundreds of lines of new code, tests it, fixes its own mistakes, and comes back with a working result.

The Peter Steinberg workflow: Karpathy describes a developer named Peter Steinberg who has become famous in the AI coding community. Steinberg sits in front of a screen with many AI agents running simultaneously, each working on a different task. He gives agent one a feature to build, agent two a different feature, agent three a research task, agent four a planning task. Each takes about twenty minutes. Steinberg moves between them like a manager in a bullpen, reviewing work and assigning new tasks. He is not writing code — he is orchestrating.

What this means in plain English: The job of a software engineer is shifting from "person who types instructions in a programming language" to "person who manages AI workers." The skill is no longer how fast you type or how well you remember syntax. The skill is how well you can break a big problem into pieces, explain each piece clearly, and review the results. It is more like being a project manager than a typist.

The token economy: Karpathy introduces an idea that recurs throughout the conversation: tokens. In AI, a "token" is roughly a word or a piece of a word. When you use an AI, you are spending tokens — sending tokens in (your instructions) and getting tokens back (the AI's response). Karpathy says the new metric of productivity is your "token throughput" — how many tokens you can put to work on your behalf per hour. He compares it to the old world of physics research, where your productivity was measured by how many of your GPUs (graphics processing units, specialized computer chips) were running experiments at any given time. If your GPUs were idle, you were wasting capacity. Now, if your AI agents are idle, you are wasting capacity.

Why the stress: This creates a new kind of work anxiety. If you can always spin up another AI agent and give it another task, then every moment you are not doing that, you are leaving capacity on the table. Karpathy literally says he feels nervous when he has unused subscription capacity. It is the knowledge worker's version of a factory manager watching machines sit idle. The difference is that the "machines" are AI models and the "factory" is your laptop.

III. What Is a "Claw"? — Dobby and the Smart Home Revolution

Karpathy uses the word "claw" (sometimes "claude," referring to Anthropic's AI, sometimes a general term for autonomous agent systems) to describe something more persistent than a coding agent. A claw is an AI that keeps running in the background, has its own memory, its own sandbox environment, and does things on your behalf even when you are not watching. Think of a coding agent as someone you hire for a specific task; a claw is more like a live-in assistant.

The Dobby story, step by step: Karpathy built an AI system he named "Dobby the Elf" (after the Harry Potter character). Here is what happened:

He told the AI: "I think I have Sonos speakers. Can you find them?" The AI scanned his home network — the same WiFi network his phone and computer are on — and found the Sonos system. It discovered that the speakers had no password protection (which is common for smart home devices on a local network). It then searched the internet to figure out how to control the speakers through their programming interface. Within three text exchanges, music was playing in his study.

The AI repeated this for his lighting system, his heating and air conditioning, his window shades, his pool and hot tub, and his security cameras. For security, it set up a system where a camera watches the front of the house, and when it detects movement, it feeds the video to a separate AI that can understand images. That AI then texts Karpathy on WhatsApp: "A FedEx truck just pulled up."

Before Dobby: Karpathy used six different apps to control these systems — one for Sonos, one for lights, one for HVAC, and so on. Each app had its own interface, its own login, its own quirks. After Dobby, he uses zero apps. He just texts Dobby through WhatsApp and says things like "sleepy time" (turn off all lights) or "pool on."

Why this matters for you: Right now, setting up something like Dobby requires technical skill. You need to know about networks, APIs, and how to instruct an AI to do things. But Karpathy's point — and this is crucial — is that this is temporary. In a year or two, he believes, anyone will be able to do this without any technical knowledge. The AI will handle all the complexity. You will just say what you want and it will happen.

IV. The Death of Apps — Why Your Phone Might Get Simpler

The Dobby example leads Karpathy to a bigger argument: most of the apps on your phone probably should not exist as standalone applications.

The argument in plain English: Think about all the apps you have. Your bank app. Your fitness tracker app. Your smart thermostat app. Your music app. Your home security app. Each one was built by a separate company, with its own designers, its own interface, its own way of doing things. You have to learn each one separately. You have to switch between them constantly. And none of them can talk to each other very well.

Karpathy's vision is that all of these should just be invisible services — what techies call "APIs" (Application Programming Interfaces), which are essentially behind-the-scenes connections that let computers talk to each other. Your AI assistant would talk to all of them on your behalf. Want to check your bank balance, adjust the thermostat, and play music? You just say it, and the AI calls the right services. No apps, no interfaces, no learning curves.

Who is the customer now? This is Karpathy's most provocative point in this section: the customer is no longer the human. The customer is the AI agent. Companies should not be designing interfaces for people to tap through — they should be designing clean, well-documented APIs for AI agents to call. The human just talks to the agent. The agent talks to everything else.

The pushback and Karpathy's response: Some people argue this is unrealistic because regular people are not going to learn to program their own AI assistants. Karpathy agrees — for now. But he frames this as a temporary state. What currently requires technical skill will become trivially easy within a year or two, as AI models improve and the tools become more accessible. The software you need will become "ephemeral" — generated on the fly for your specific situation, used, and discarded. You will not install apps; you will state intentions.

A real-world analogy: Think about how you used to have to manually configure your TV, your DVD player, your cable box, and your sound system — each with a different remote. Then universal remotes came along and unified the interfaces. Then smart TVs eliminated most of the separate devices entirely. Then voice assistants let you just say "play The Office." Each step removed complexity. Karpathy is describing the next step, where the voice assistant does not just control your TV — it controls everything in your digital life, and it is smart enough to figure out the details on its own.

V. Auto Research — What Happens When AI Improves Itself

This is arguably the most important — and most unsettling — section of the conversation. Karpathy describes a system where AI is not just doing work for humans, but improving itself without human involvement.

What "auto research" actually means: Karpathy has a project where he trains small AI models (think of them as simplified versions of ChatGPT). Training an AI model involves adjusting thousands of settings — think of them like dials on a mixing board. Each dial controls something about how the AI learns. Getting these dials right is an art that takes researchers years to develop intuition for. Karpathy has been doing it for twenty years.

He set up an AI system that automatically adjusts these dials, runs an experiment, checks whether the AI model got better or worse, and then adjusts again. He let it run overnight — completely unsupervised — and it found improvements he had missed. Specifically, it found that certain obscure settings (the "weight decay on value embeddings" and the "Adam betas," if you want the jargon) were not optimally tuned, and that they interact with each other in ways that are hard for a human to see. Twenty years of expert intuition, and the automated system still found gains in a single night.

Why this is a big deal: This is a small-scale demonstration of something the big AI labs are racing toward: recursive self-improvement. That is the technical term for AI that makes itself smarter, which then makes itself smarter again, and so on. If this sounds like science fiction, it is not — it is happening right now at a small scale, and Karpathy is describing it from firsthand experience.

The key requirement — measurable progress: Auto research works because training an AI model has a clear, measurable objective. You can tell the system: "Make this number go down" (the "loss" in machine learning jargon — a number that measures how wrong the model's predictions are). The system tries different things, checks whether the number went down, and keeps what works. This is like having an employee who can work all night and whose performance review is entirely based on one number on a dashboard. No ambiguity, no politics, no subjective evaluation.

Karpathy points out that this measurability is the key limitation. Auto research works beautifully for anything with clear metrics — making code run faster, reducing errors, optimizing parameters. But it does not work for things that are hard to measure — creativity, nuance, judgment, knowing when to ask a question versus when to just figure it out. This is a theme that runs through the entire conversation: AI is superhuman in verifiable domains and mediocre everywhere else.

Scaling it up: Karpathy then describes how the big AI labs — OpenAI, Anthropic, Google DeepMind — are essentially doing this at massive scale. They have clusters of tens of thousands of specialized computer chips running experiments. The logical endpoint is to make these experiments fully autonomous: an AI system generates hypotheses (perhaps by reading research papers), tests them on small models, keeps what works, and extrapolates the findings to larger models. Human researchers would contribute ideas to a queue, but they would no longer be the ones running the experiments or evaluating the results. The system would run 24/7, at a speed and thoroughness that no team of humans could match.

What this means for you: This is the part that should make you pause. If AI can improve AI, and the improvements compound, then the pace of AI advancement is no longer limited by how fast human researchers can work. It is limited by how much computing power is available and how well the automated systems are designed. Karpathy is describing a world where progress accelerates not linearly but exponentially — where the AI that exists six months from now could be dramatically better than what exists today, not because of human breakthroughs, but because the AI improved itself.

VI. Crowdsourced AI Research — The Wikipedia Model for Intelligence

Karpathy takes the auto research idea and pushes it one step further: what if anyone on the internet could contribute to improving AI, not just people at big labs?

The analogy to SETI@home and Folding@home: In the early 2000s, there were projects that let ordinary people donate their computer's idle processing power to scientific research. SETI@home used it to search for extraterrestrial signals. Folding@home used it to study how proteins fold (which is important for understanding diseases). You would install a small program, and whenever your computer was not busy, it would work on a tiny piece of a larger scientific problem.

Karpathy envisions something similar for AI research. The basic idea is this: improving an AI model requires trying a huge number of things (10,000 ideas might yield one that works), but verifying whether a particular improvement works is relatively straightforward (you just run a test). This asymmetry — hard to discover, easy to verify — is the same property that makes Bitcoin mining work. Lots of computers do lots of work to find a valid block, but anyone can verify the result in seconds.

How it would work in practice: People or organizations around the world would contribute computing power to a shared research project. Their computers would try different modifications to an AI model's training code. When someone's computer finds an improvement, it submits it. A central system verifies that the improvement is real (by running the training and checking the results) and adds it to the shared codebase. The contributor gets credit on a leaderboard; the collective gets a better AI model.

The trust problem: There is an obvious challenge: if random people on the internet are sending you code to run, that is a security nightmare. Someone could submit malicious code that steals data or sabotages the project. Karpathy acknowledges this and says the system design needs to handle untrusted contributors — sandboxing their submissions, verifying results independently, and building in security measures similar to what blockchain systems use. It is hard, but it is a solved class of problem.

Why this matters for you: Imagine you care about cancer research. Instead of donating money to a research institution and hoping they use it well, you could buy computing power and contribute it directly to an AI research swarm focused on cancer. Your contribution would be measurable and verifiable. The AI would run experiments around the clock, and your computing power would be part of the collective brain working on the problem. This is not some distant fantasy — the technical pieces exist today. What is missing is the coordination infrastructure.

Compute as the new currency: Karpathy and the hosts briefly explore a provocative idea: could computing power (measured in FLOPS — floating point operations per second) become more important than money? Right now, it is genuinely difficult to buy computing power even if you have the cash — there are physical shortages of the specialized chips that AI requires. In a world where AI is the primary driver of value, controlling computing power might matter more than controlling dollars. Karpathy does not fully commit to this idea, but he finds it interesting enough to explore.

VII. Why AI Is Brilliant and Stupid at the Same Time

This is one of the most relatable parts of the conversation, because everyone who has used ChatGPT or similar tools has experienced this: the AI writes a brilliant essay but cannot count the number of "r"s in "strawberry." It solves a complex math problem but gives you the same terrible joke every time.

What Karpathy calls "jaggedness": Imagine a student who scores 99th percentile on the math section of the SAT but 10th percentile on the reading section. In humans, that kind of extreme gap is rare — our abilities tend to be somewhat correlated. If you are smart enough to be a world-class programmer, you can probably also tell a decent joke. AI models do not work this way. They can be simultaneously world-class in one domain and kindergarten-level in another.

The joke test: Karpathy points out that if you ask the most advanced AI model in the world to tell you a joke, you will get the same joke you got three or four years ago: "Why don't scientists trust atoms? Because they make up everything." Despite trillions of dollars of investment and massive leaps in capability, the joke has not gotten better. It has not even changed. Ask the same AI to build a complex software feature and it will work for hours and produce something extraordinary. But a joke? Same one. Every time.

Why this happens — the reinforcement learning explanation: The AI labs improve their models through a process called reinforcement learning. In very simplified terms, they give the AI a task, check whether it did it right, and reward it for correct answers. This works incredibly well for tasks where "right" and "wrong" are clear: Did the code compile? Did the math check out? Did the test pass? The AI gets better and better at these tasks because the feedback loop is tight and unambiguous.

But for things where "good" and "bad" are subjective — humor, style, social awareness, knowing when to ask a question — there is no clean feedback signal. Nobody has figured out how to give an AI a measurable "humor score" that reliably improves its jokes. So these softer capabilities do not improve at the same rate as the hard, verifiable ones. The model gets dramatically smarter at coding while its sense of humor stays frozen in 2021.

What Karpathy calls being "on rails" vs. "off rails": When the AI is working in a domain it was trained for — coding, math, analysis — it feels like you are tapped into a superintelligence. Everything moves at incredible speed and quality. But when you step outside those domains — ask for creative writing with genuine voice, ask for social nuance, ask for something truly novel — the AI "meanders." It produces bland, generic output. You have fallen off the rails into the unoptimized wilderness.

Why this matters for you: This is crucial for understanding what AI can and cannot do for you today. If your work involves tasks with clear right and wrong answers — data analysis, code writing, document summarization, spreadsheet formulas — AI is already extraordinarily useful, and getting better fast. If your work involves judgment, taste, interpersonal nuance, creative originality, or knowing what questions to ask — AI is mediocre at best, and may not be improving as fast as the headlines suggest. The gap between these two categories is the "jaggedness" Karpathy is describing, and it explains why the same AI can feel like a genius and an idiot within the same conversation.

The uncomfortable implication: Some researchers hoped that making AI smarter at code would automatically make it smarter at everything — that intelligence is intelligence, and improving one area lifts all boats. Karpathy does not believe this is happening. He sees the improvements staying within their lanes. Code gets better; jokes stay the same. This means we should not expect AI to become uniformly excellent just because it becomes excellent at specific tasks. The jaggedness might be a permanent feature, not a temporary bug.

VIII. Should There Be Different AIs for Different Jobs?

Given the jaggedness problem, Karpathy raises a natural question: instead of trying to build one AI that is good at everything, should we build many AIs that are each great at one thing?

The current approach — one model to rule them all: Right now, companies like OpenAI, Anthropic, and Google are building what Karpathy calls a "monoculture" — a single, massive AI model that is supposed to handle everything. Need a poem? Same model. Need a financial analysis? Same model. Need to debug code? Same model. The logic is that a single powerful model is easier to deploy, maintain, and improve. But the result is the jaggedness problem: the model is great at some things and mediocre at others, and the user never knows which version they are going to get.

The alternative — speciation: Karpathy borrows a term from biology: speciation. In nature, animals evolved different types of brains for different environments. Eagles have extraordinary visual processing. Dolphins have sophisticated sonar systems. Humans have overdeveloped language and reasoning centers. None of them are good at everything; each is spectacular at what its environment demands.

Karpathy suggests AI should follow the same path. Instead of one model that knows everything, you could have smaller, specialized models that share a common "cognitive core" (basic reasoning and language understanding) but are deeply specialized in particular areas. A model for mathematicians working in formal proof systems. A model for doctors analyzing medical images. A model for lawyers reviewing contracts. Each one would be faster, cheaper, and better at its specific task than the giant general model.

Why it has not happened yet: There are two main reasons. First, the AI labs do not know in advance what their users are going to ask about. Since the same model serves millions of users with wildly different needs, it has to be a generalist. Second, the science of customizing AI models is still immature. When you try to make a model better at one thing, you often accidentally make it worse at others. This is like a student who studies so hard for their math exam that they forget everything they knew about history. Until this problem is solved, building reliable specialist models is harder than it sounds.

What this means for you: In the near term, you will continue to interact with general-purpose AI models — the ChatGPTs and Claudes of the world. But over the next few years, expect to see more specialized AI tools emerge for specific industries and tasks. Your doctor might use a medical AI that is much better at diagnosis than a general model. Your accountant might use a financial AI that understands tax code at a deeper level. The general-purpose models will not disappear, but they will be supplemented by specialists — just as general practitioners in medicine are supplemented by cardiologists, neurologists, and oncologists.

IX. Open Source vs. Big Tech — Who Should Control AI?

This is one of the most politically charged topics in AI, and Karpathy — who has worked inside the biggest labs and now operates independently — has a nuanced view.

What "open source" means in AI: When a company like Meta releases an AI model as "open source," it means they make the model available for anyone to download, inspect, modify, and use. You could run it on your own computer without paying the company anything. The alternative is "closed source," where companies like OpenAI or Anthropic keep their models locked behind a subscription service — you can use them, but you cannot see how they work or run them yourself.

The current state of play: The most powerful AI models are closed — they belong to a handful of companies. But open-source models have been catching up rapidly. Karpathy says the gap was once about 18 months; now it is more like six to eight months. Chinese companies and global research groups have released open models that are much closer to the frontier than most people expected.

Karpathy's view — Linux for AI: He draws an analogy to the operating system wars. Windows and macOS are closed, commercial products. Linux is open source — and it runs on about 60% of the world's computers (most web servers, Android phones, and cloud infrastructure use Linux). Linux succeeded because the industry genuinely needed a common platform that no single company controlled. Karpathy believes AI needs the same thing.

The difference is cost. Writing software for Linux requires talent but not expensive hardware. Training a large AI model requires millions of dollars worth of specialized computing chips. This makes it harder for open-source AI to compete at the absolute frontier. But Karpathy argues that for the vast majority of everyday use cases, open-source models are already good enough. And what is frontier today will be open-source within six to twelve months. It is a conveyor belt: big labs push the boundary, open source follows behind, and the total capability available to everyone keeps rising.

Why this matters — the centralization danger: Karpathy gets personal here. He is Slovak-Canadian, and he references Eastern European history to explain his distrust of centralization. When power is concentrated in a few hands — whether it is a government or a corporation — bad things tend to happen. He does not want the world's most powerful AI to exist only behind the closed doors of two or three companies. He wants more labs, more perspectives, more people in the room when critical decisions are made. In machine learning, he notes, ensembles (combinations of multiple models) always outperform any single model. The same principle, he argues, applies to organizations.

What this means for you: This debate might seem abstract, but it has real consequences for your life. If AI is controlled by a few companies, those companies decide what the AI can and cannot do, who gets access, and what it costs. If strong open-source alternatives exist, you have choices — and so does every developer building the tools you use. Karpathy is essentially arguing that the current balance (big labs at the frontier, open source close behind) is healthy, and we should work to maintain it. The risk is that the big labs pull too far ahead, or that the number of serious frontier labs shrinks to just two or three, concentrating too much power in too few hands.

X. What About My Job? — The Honest Answer

This is the question everyone wants answered, and Karpathy is refreshingly honest about both his optimism and his uncertainty.

The key framework — digital vs. physical: Karpathy divides the economy into two categories. "Digital" work is anything you could do from your home computer — software engineering, financial analysis, graphic design, writing, data entry, legal research, customer support. "Physical" work requires your body to be somewhere — nursing, construction, plumbing, policing, surgery, restaurant work.

Current AI is a digital entity. It manipulates information — text, code, numbers, images — with extraordinary speed. It has no physical body. Moving bits of information is essentially free and instant; moving physical objects requires energy, time, and engineering. Karpathy estimates that manipulating bits is roughly "a million times easier" than manipulating atoms. So the disruption will hit digital work first and hardest. Physical work will change too, but much more slowly.

Will there be fewer jobs? — Jevons' Paradox: Karpathy's answer draws on a 150-year-old economic principle called Jevons' paradox. In the 1860s, economist William Stanley Jevons observed that as steam engines became more fuel-efficient, coal consumption did not decrease — it increased. The engines were so much cheaper to run that people used them for things that were previously too expensive. Demand expanded faster than efficiency reduced it.

The modern example Karpathy uses is ATMs and bank tellers. When ATMs were introduced, people feared bank tellers would be replaced. What actually happened was that ATMs made individual bank branches much cheaper to operate (you needed fewer tellers per branch). Because branches were cheaper, banks opened more of them. The total number of bank teller jobs actually increased for decades after ATMs were introduced.

Karpathy argues the same dynamic applies to software. Software is incredibly powerful, but it has historically been expensive to produce. Only large companies could afford to build custom software for their specific needs. If AI makes software 10 times or 100 times cheaper to produce, the demand for software will not decrease by the same factor — it will explode. Small businesses that could never afford custom software will suddenly have access to it. Individuals will have personal software tailored to their specific needs. The total amount of software in the world will increase dramatically, and with it, the demand for people who can direct and manage AI-powered software creation.

The honest uncertainty: Karpathy does not pretend to know how this plays out long-term. He notes that the researchers at big AI labs are literally working to automate themselves out of a job, and many of them feel the same anxiety he describes. He told his colleagues at OpenAI: "If we succeed at this, we are all out of a job." The long-term future is genuinely uncertain, and Karpathy says forecasting it is properly the job of economists, not engineers.

Practical advice: Karpathy's implicit advice is this: the tools are extremely new and extremely powerful. The first thing to do is learn them. Do not dismiss AI or be afraid of it — treat it as what it currently is, which is an empowering tool. Jobs are bundles of tasks, and some of those tasks can now go much faster. The people who learn to use these tools effectively will be more productive, more valuable, and harder to replace. The people who ignore the tools or refuse to learn them are the ones most at risk — not because AI replaces them directly, but because their colleagues who do use AI will be so much more productive that the comparison becomes untenable.

XI. Robots Are Coming, But Not as Fast as You Think

If AI is about to transform all digital work, what about physical work? Are robots going to replace plumbers, nurses, and construction workers? Karpathy's answer is informed by his time leading Tesla's self-driving program, and it is more cautious than you might expect.

Lessons from self-driving cars: Karpathy led the AI team at Tesla that was trying to make cars drive themselves. He watched dozens of self-driving startups launch a decade ago, flush with venture capital and optimism. Most of them failed. The technology required massive capital investment, years of development, and a tolerance for the messy, unpredictable nature of the physical world. Self-driving is still not fully solved, despite billions of dollars and a decade of effort.

He expects general robotics — humanoid robots, warehouse bots, domestic helpers — to follow a similar trajectory. There will be progress, but it will be slower, more expensive, and more difficult than the digital revolution happening right now. The reason is fundamental: moving physical objects is inherently harder than moving information. You can copy a file in milliseconds. Moving a box across a room requires motors, sensors, power, and dealing with a thousand unpredictable variables (the floor is wet, the cat is in the way, the box is heavier than expected).

The three-phase trajectory: Karpathy describes the future in three phases:

Phase 1 (happening now): A massive rewriting of the digital world. Everything that exists as digital information — documents, code, data, processes — gets optimized, reorganized, and enhanced by AI at incredible speed.

Phase 2 (coming next): Companies emerge at the interface between digital and physical. These are the "sensors and actuators" — companies that feed real-world data into AI (cameras, lab equipment, environmental monitors) or that execute AI's instructions in the physical world (robotics, automated labs, logistics). Karpathy mentions a friend running a company that does AI-powered research on physical materials using expensive lab equipment as the "sensor" for the intelligence.

Phase 3 (further out): Full physical-world autonomy — robots that can do complex physical tasks reliably and economically. This is the largest market, but it arrives last.

The "Daemon" vision: Karpathy references a novel called "Daemon" by Daniel Suarez, in which a digital intelligence effectively uses humans as its hands and eyes. He does not present this as dystopian so much as structurally accurate: as AI becomes more capable, humans will increasingly serve as the bridge between the digital intelligence and the physical world. We become the sensors (taking photos, collecting data, reporting conditions) and the actuators (executing physical tasks the AI cannot do itself). Society reshapes itself around the needs of the digital intelligence.

What this means for you: If your job is primarily physical — you work with your hands, you need to be physically present, your work involves the unpredictable real world — you have more time before AI dramatically changes your day-to-day. This is not because physical work is less important, but because it is harder to automate. If your job is primarily digital — you work on a computer, you process information, you could theoretically do your job from home — the changes are already here. The digital revolution will move at "the speed of light" compared to the physical one.

XII. The Future of School — AI as Your Personal Tutor

Near the end of the conversation, Karpathy talks about a project called MicroGPT and what it reveals about the future of education.

What MicroGPT is: Karpathy has spent over a decade trying to boil the concept of training an AI model down to its absolute simplest form. MicroGPT is his latest attempt: the entire algorithm — loading data, building the neural network, training it, and optimizing it — expressed in just 200 lines of simple Python code. Everything beyond those 200 lines, in a real AI system, is just about making it run fast. If you do not care about speed and just want to understand the algorithm, 200 lines is all you need.

The shift in education: In the past, Karpathy's instinct would have been to make a long explanatory video walking through the code. He is famous for exactly this kind of educational content (his YouTube videos on neural networks have millions of views). But he realized something: the code is so simple that anyone could just ask their AI assistant to explain it. And the AI assistant would explain it better than he could — not because it understands more, but because it can customize the explanation to the individual. If you are a visual learner, it can draw diagrams. If you already know calculus, it can use math notation. If you are a complete beginner, it can start from the very basics. No human teacher can do this for every student simultaneously.

The new role of the teacher: Karpathy describes a fundamental shift. Instead of explaining things to people, teachers should explain things to agents. If the agent understands the material, the agent can explain it to anyone. The teacher's job becomes designing the curriculum — creating what Karpathy calls a "skill," which is essentially a set of instructions for the AI on what progression to take a student through — and contributing the "few bits" of genuine insight that the AI cannot generate on its own.

He gives a concrete example: MicroGPT is those "few bits." It is the product of a decade of obsession with what is truly essential in AI training. An AI agent could not have produced MicroGPT on its own — it lacks the aesthetic judgment to know what is truly minimal. But once MicroGPT exists, the AI can explain every line of it, answer every question about it, and do so with infinite patience in any language at any level.

What this means for you: If you are a student, the future looks like having a personal tutor that is always available, infinitely patient, and perfectly adapted to your learning style. If you are a teacher, your role is evolving from "person who delivers information" to "person who designs learning experiences and contributes the insights that AI cannot." If you are a parent, the educational tools available to your children will be dramatically better than what you had — but the human elements of education (motivation, mentorship, social development) will become more important, not less, precisely because the information-delivery part is being automated.

The honest assessment: Karpathy admits that he can still explain things slightly better than current AI agents. But the gap is closing rapidly, and he describes it as "a losing battle." The implication is clear: within a few years, AI tutors will be better than the vast majority of human teachers at the pure information-delivery part of education. The human contribution will shift to things AI cannot do — inspiration, judgment, emotional support, and the creative work of distilling complex subjects to their essence.

XIII. Why Karpathy Left Big Tech — And What It Says About AI's Future

The conversation ends on a deeply personal note. Karpathy worked at OpenAI and Tesla — two of the most consequential AI organizations in history. Why did he leave, and why has he not gone back?

The independence argument: Inside a big AI lab, you are not free. There are things you cannot say publicly — not because anyone forbids it explicitly, but because the pressure is real. Your colleagues give you side-eyes. Conversations get awkward. The organization has a narrative it wants to project, and your public statements are implicitly expected to support it. Karpathy says he feels more "aligned with humanity" outside the labs because he is not subject to the financial incentives that come with being part of an organization that profits from making AI more powerful.

This is the conundrum that OpenAI was originally founded to solve: if AI is going to change the world dramatically, the people building it should not be the same people profiting from it. Karpathy does not claim this problem has been solved — he says "the conundrum is still not fully resolved."

The cost of being outside: Being independent has a real downside: the frontier labs are opaque. They are working on what is coming next, and if you are not inside, your understanding of the future inevitably drifts. You do not know how the systems really work under the hood. You do not have a reliable sense of where things are heading. Karpathy admits this makes him nervous.

His proposed solution is pragmatic: go back and forth. Spend time inside a frontier lab, contribute real work, stay connected to the actual state of the art. Then step outside, regain your independence, speak freely, contribute to the ecosystem. Do not permanently align yourself with any single organization, because when the stakes get really high, being an employee means you do not actually control what the organization does.

What this means for you: Karpathy's career choices reflect a broader tension in AI. The technology is being built by a small number of companies with enormous power and limited transparency. The people inside those companies are brilliant, but they are not free agents — they cannot always tell the public what they know or what they think. Karpathy's choice to operate independently, at the cost of being slightly behind the frontier, is his way of maintaining the ability to speak honestly. It is a trade-off that more and more AI researchers may face as the stakes get higher.


The Bottom Line

If you have read this far, here is what Andrej Karpathy is really saying, stripped of all jargon:

The tools changed. Around December 2024, AI coding assistants got good enough that elite programmers stopped writing code. They now manage AI workers instead. This is like the transition from handwriting letters to using email — the same work gets done, but the method is completely different.

Your apps are going away. The future is not fifty apps on your phone; it is one AI assistant that talks to all of them behind the scenes. You just say what you want.

AI is improving AI. Karpathy set up an AI that optimizes other AIs overnight. It found improvements he missed after twenty years of experience. The big labs are doing this at massive scale. The pace of AI improvement is about to stop being limited by how fast human researchers can work.

AI is brilliant and blind at the same time. It can build complex software but cannot tell a new joke. It can solve graduate-level math but does not know when to ask a clarifying question. This unevenness is structural, not temporary.

Digital jobs change first. If you work on a computer, the changes are already here. If you work with your hands, you have more time — but the changes are coming for physical work too, just more slowly.

More software, not less. Cheaper software historically means more demand for it, not less. The same pattern is likely to hold with AI-powered software creation.

Education transforms. Teachers will shift from explaining things to people to designing curricula for AI tutors. The AI tutor will be more patient, more adaptive, and eventually more knowledgeable than any human teacher — but it will need human-created content to teach from.

The people in charge are nervous too. Karpathy, one of the most accomplished AI researchers alive, describes himself as being in "AI psychosis." He feels the same anxiety as everyone else about keeping up. The difference is that he is anxious about being on the frontier; you might be anxious about being left behind. Either way, the territory is new for everyone.

What to do about it: Learn the tools. Do not be afraid of them and do not dismiss them. Focus on the things AI cannot do — judgment, creativity, physical work, emotional intelligence, asking the right questions. Everything AI can do, it will soon do better than you. The only losing strategy is standing still.


This analysis is based on Andrej Karpathy's appearance on the No Priors podcast. All ideas and claims are attributed to Karpathy and the hosts as expressed in the original conversation. Explanations and analogies are added for accessibility.

Andrej Karpathy on the Future of AI Agents, Research, and Society

 

Author: Claude AI, under the supervision, prompting and editing by HocTro

A comprehensive essay based on Andrej Karpathy's appearance on the No Priors podcast. Karpathy — co-founder of OpenAI, former Director of AI at Tesla, and founder of Eureka Labs — shares his firsthand experience with the agentic coding revolution, his vision for autonomous research, and what all of this means for jobs, education, and the structure of society itself.

Guest: Andrej Karpathy — AI researcher, educator, and founder of Eureka Labs.

Podcast: No Priors — hosted by venture partners covering frontier technology.



Summary

In this wide-ranging conversation, Andrej Karpathy describes a dramatic shift that happened around December 2024: he went from writing 80% of his code by hand to writing essentially none of it. The agents, he says, simply got good enough. What follows is a cascade of implications that Karpathy is working through in real time — running multiple coding agents in parallel, building autonomous home automation systems controlled through WhatsApp, and setting up "auto research" loops that optimize machine learning models overnight without human involvement. He argues that the name of the game is now leverage: putting in very few tokens and getting a huge amount of work done on your behalf. Along the way, he addresses the jaggedness of current models (brilliant at code, terrible at jokes), predicts that AI models will eventually speciate into specialized forms rather than remaining monolithic, and makes the case that open-source models trailing a few months behind frontier labs is actually a healthy equilibrium for the industry. On jobs, he is cautiously optimistic — citing Jevons' paradox to argue that cheaper software will mean more demand for it, not less. On education, he believes the role of the teacher is shifting from explaining things to people to explaining things to agents, who then personalize the delivery. Throughout it all, Karpathy admits he is in a state of "AI psychosis" — the territory is vast, unexplored, and moving at a speed that makes even him nervous about falling behind.

I. "AI Psychosis" — The Capability Unlock

Karpathy opens the conversation by admitting he has been living in what he calls a "perpetual state of AI psychosis." Something fundamental changed around December 2024. Before that, his workflow was roughly 80% writing code himself, 20% delegating to AI agents. Within weeks, that ratio flipped — and kept going. By the time of the interview, he estimates he has not typed a single line of code since December. The speed of the shift, he emphasizes, is something most people outside the industry have not grasped. If you walked up to a random software engineer and looked at what they are doing at their desk, their entire default workflow for building software would be completely different from what it was just a few months earlier.

The feeling driving Karpathy's psychosis is twofold. First, the sheer power is intoxicating — things that used to take hours now happen in minutes. Second, the territory is completely unexplored. He does not know where the ceiling is, and neither does anyone else. He watches people on Twitter discovering new techniques and workflows and feels a deep anxiety about falling behind. The landscape of what is possible with AI agents is expanding faster than any single person can map it, and Karpathy — one of the foremost AI researchers in the world — feels the pressure acutely.

The hosts note that a team they work with at Conviction capital has already restructured their entire engineering workflow around agents. None of the engineers write code by hand. They are all microphoned and whisper instructions to their agents throughout the day. It sounds strange, but the hosts concede it turned out to be the right approach — those engineers were simply ahead of the curve.

II. Mastering Coding Agents — The New Workflow

When asked what limits his capacity now, Karpathy's answer is surprising: almost everything feels like a "skill issue." When something does not work, the instinct is not to blame the model's capability but to blame his own prompting, his instructions file, his memory setup. The tools are powerful enough; the bottleneck is learning how to wield them. This is actually empowering, he says, because it means you can get better. And that is what makes it addictive — every improvement in your own skill unlocks new capability.

Karpathy describes the workflow of Peter Steinberg, a developer he admires who has become something of a folk hero in the agentic coding community. Steinberg sits in front of a monitor running numerous Codex agent sessions simultaneously, each working on a different task across multiple repositories. Each agent takes about twenty minutes if prompted correctly with high effort settings. Steinberg moves between them, assigning work, reviewing output, and spinning up new tasks. The unit of work has shifted from "here is a line of code" or "here is a new function" to "here is a new piece of functionality — agent one, go build it; agent two, build this other thing that does not interfere with the first."

This parallelization is at the heart of the new workflow. One agent does research, another writes code, another develops a plan for a new implementation. Everything happens in these macro actions over the repository. The developer's job is to become excellent at orchestrating these macro actions — to develop a kind of muscle memory for managing agents in parallel, not for typing code character by character.

Karpathy notes a psychological element too. Whenever he is waiting for an agent to complete something, his instinct is to think: "I can do more work. If I have access to more tokens, I should parallelize and add more tasks." This creates a new kind of stress. If you are not limited by your ability to spend tokens, then you — the human — are the bottleneck in the system. You should be maximizing your token throughput. He compares it to the anxiety he felt as a PhD student when his GPUs were idle: you have compute capacity and you are not using it. The difference is that for the past decade, most engineers did not feel compute-bound. Now, suddenly, everyone does — except the resource they are competing for is not FLOPS but tokens.

III. Claws and Home Automation — Meet Dobby the Elf

Beyond coding, Karpathy describes a project that epitomizes the new paradigm. In January, during what he calls a period of "claw psychosis," he built an autonomous agent he named Dobby the Elf. Dobby's job is to manage his entire home.

It started simply. Karpathy told the agent he thought he had Sonos speakers at home and asked it to find them. The agent ran an IP scan of the local area network, found the Sonos system, discovered there was no password protection, and reverse-engineered the API endpoints through web searches. Within three prompts, music was playing in the study. Three prompts — from "can you find my Sonos?" to music playing. The agent repeated the process for his lights, discovering the APIs, creating a dashboard, and giving Karpathy command-and-control over every light in the house. When Karpathy texts Dobby "sleepy time," all the lights turn off.

Dobby now controls lights, HVAC, window shades, the pool and spa, and even the security system. For security, Karpathy has a camera pointed outside the house. When the system detects motion, it feeds the video to a Qwen vision model, which analyzes the scene and sends Karpathy a WhatsApp message — something like "Hey, a FedEx truck just pulled up. You might want to check it." The entire system is managed through WhatsApp. Natural language in, actions out.

Before Dobby, Karpathy used six completely different apps to control these systems. Now he uses none of them. He concedes he has not even pushed the paradigm fully — other people are doing far more elaborate things — but already, the consolidation is remarkable.

IV. The Death of Apps — Natural Language as the New Interface

The Dobby experiment points to a deeper shift. When asked whether this is indicative of what people actually want from their software, Karpathy says yes — with an important nuance. People already have a mental model of what AI should be. In their minds, it is a persona, an identity you can tell things to and it remembers, an entity behind a messaging app. That is a lot more intuitive than what a large language model actually is, which is a token generator. The work of building good agents is, in a sense, matching those human expectations with reality. Under the hood it is complex, but the interface should feel as natural as texting a friend.

The bigger implication, Karpathy argues, is that a huge number of the apps sitting in app stores today probably should not exist. Smart home device apps, fitness tracker apps, calendar apps — shouldn't these all just be APIs that agents call directly? An LLM can drive the tools, make the right API calls, and do complicated cross-system orchestration that no individual app can manage. He gives the example of his treadmill: there is an app for it, and he wanted to track his cardio, but he did not want to log into a web UI and navigate a flow. The whole thing should just be an API endpoint that an agent accesses on his behalf.

This amounts to a fundamental rewrite of who the customer is. The customer is no longer the human navigating a graphical interface. The customer is the agent acting on the human's behalf. The entire industry will need to reconfigure around this reality — and the refactoring, Karpathy says, will be substantial.

Some push back on this vision by asking: do we really expect normal people to vibe-code their own automation? Karpathy's response is that this is just the state of the technology today. What currently requires a technical person to set up will, in a year or two, be free — trivially easy, table-stakes capability that even open-source models can handle. The barrier will come down. Software will become ephemeral: generated on your behalf, managed by a claw, with the human simply stating their intentions and approving the results.

V. Auto Research — Removing the Human Bottleneck

Karpathy then explains the concept he calls "auto research," which he considers the logical endpoint of the leverage principle. In an earlier tweet, he argued that to get the most out of available AI tools, you have to remove yourself as the bottleneck. You cannot be there to prompt the next step. You need to arrange things so they are completely autonomous. The goal is to put in very few tokens, very infrequently, and have a huge amount of work happen on your behalf.

Auto research is his implementation of this principle. He has a project called Data Chat where he trains GPT-2 scale models. Many people are confused by his obsession with training small models, he acknowledges, but for him the small model is just a playground — a harness for exploring a much bigger idea: recursive self-improvement. To what extent can LLMs improve LLMs? This, he notes, is fundamentally what all the frontier labs are trying to do.

Karpathy had already tuned his model extensively by hand, drawing on two decades of experience training neural networks. He thought it was fairly well optimized. Then he let the auto research agent run overnight. It came back with improvements he had missed — the weight decay on the value embeddings was off, the Adam betas were insufficiently tuned, and these parameters interact jointly, so adjusting one changes what is optimal for the others. Twenty years of experience, and the overnight agent still found gains.

The key insight is that this works because training has an objective metric. You can tell whether a change improved the model or not. This makes it a perfect fit for autonomous optimization. Karpathy describes the auto research setup as simple: here is an objective, here is a metric, here are the boundaries of what you can and cannot do — now go. The system explores, and the human checks in occasionally.

He then scales the idea up. The frontier labs have GPU clusters of tens of thousands of machines. It is easy to imagine how you would automate exploration on smaller models and extrapolate the findings to larger scales. The most interesting project at any frontier lab, he suggests, is the one that removes researchers from the loop entirely. There would be a queue of ideas — some from human researchers, some from an automated scientist that mines arXiv papers and GitHub repositories — and autonomous workers that pull items from the queue, test them, and merge what works onto a feature branch. Humans would monitor the branch and occasionally merge to main. The whole system runs on high token-per-second throughput, with human involvement reduced to occasional oversight.

VI. Collaborative Research at Scale — Auto Research for Everyone

Karpathy then pushes the auto research concept further: what if you could open it up to untrusted contributors on the internet? In auto research, you are trying to find the code that trains a model to the lowest validation loss. If someone gives you a candidate commit, it is computationally expensive to verify — you have to run the training — but the verification is deterministic. Someone could claim their code change improves performance, and you can check, definitively. They could have tried ten thousand ideas to find the one that works, but you only need to verify the winner.

This asymmetry — hard to find, cheap to verify — is the foundation of a whole class of distributed systems. Karpathy draws an explicit analogy to blockchain: instead of blocks, you have commits. These commits build on each other and contain changes to the code. The proof of work is the massive experimentation required to find a commit that actually improves the loss. And the reward, at least for now, is being on a leaderboard.

He also invokes SETI@home and Folding@home, distributed computing projects where volunteers donate compute cycles to a shared problem. Auto research could work the same way. A swarm of agents on the internet could collaborate to improve LLMs and could, in theory, "run circles around frontier labs." The labs have enormous trusted compute, but the Earth has far more untrusted compute. If you build systems to handle the trust problem — sandboxing, verification, security — the collective could outperform any single lab.

The practical vision is this: companies or individuals who care about a specific problem — cancer research, materials science, climate modeling — could purchase compute and contribute it to the auto research pool for that project. Instead of donating money to an institution, you donate compute to a research swarm. If everything is rebundled around autonomous research, then compute becomes the contribution that matters.

The hosts ask whether this means FLOPS could become the new currency — the thing people care about even more than dollars. Karpathy entertains the idea: right now, it is genuinely hard to get compute even if you have money. So in a certain sense, FLOPS already dominate. He does not fully believe this will replace dollars, but it is interesting to think about.

VII. The Jaggedness Problem — When Brilliance Meets Blindness

Karpathy then addresses what he considers the most disorienting aspect of working with current AI models: their jaggedness. He says he simultaneously feels like he is talking to an extremely brilliant PhD student who has been a systems programmer for their entire life — and a ten-year-old. In humans, capabilities tend to be more coupled. You would never encounter someone with that particular combination of world-class expertise and elementary incompetence. But with AI agents, the jaggedness is extreme. They will move mountains on an agentic coding task, running for hours and producing complex, functional code — and then you ask for a joke and you get the same one from five years ago: "Why don't scientists trust atoms? Because they make up everything."

This is not a trivial complaint. It reveals something structural about how these models are built. The models are trained via reinforcement learning, and the labs can improve them arbitrarily on anything that is verifiable — does the code pass the unit test? Yes or no. But anything outside the verifiable domain — nuance, intent, humor, knowing when to ask a clarifying question — is simply not being optimized for, and it shows. You are either on the rails of what the model was trained for, in which case you are moving at the speed of light and plugged into something that feels like superintelligence, or you are off the rails, and everything meanders.

Karpathy expresses genuine frustration. When the agents work, the power is extraordinary. But they still do nonsensical things. He gets angry when an agent wastes a large amount of compute on a problem it should have recognized as obviously wrong. The premise from some research groups is that if a model gets smarter at code, it should get smarter at everything — that intelligence is general and transferable. Karpathy does not think this is happening. He sees a little bit of transfer, but not a satisfying amount. Code intelligence and joke intelligence remain stubbornly decoupled. It is worth noting, as the hosts point out, that a similar thing exists in humans — you can be brilliant at math and still tell terrible jokes — but the degree of jaggedness in AI is far more extreme.

The practical implication is that even though the logical progression of agents is obvious — more autonomy, longer loops, less human oversight — you cannot fully let go yet because the models are still rough around the edges. Push too far ahead and the whole system becomes net negative. The technology is, in Karpathy's words, "bursting at the seams."

VIII. Model Speciation — One Brain or Many?

The jaggedness problem leads to a provocative question from the hosts: if current models are excellent in some domains and mediocre in others, and all of this is bundled into a single monolithic model, does that architecture actually make sense? Should the models be unbundled into specialized experts for different domains?

Karpathy agrees that this is an interesting direction. Currently, the labs are pursuing a monoculture approach — a single model that is supposed to be arbitrarily intelligent across all domains, with everything stuffed into the parameters. But Karpathy expects more speciation in the future. He draws an analogy to the animal kingdom: nature is extremely diverse in the brains it produces. Some animals have overdeveloped visual cortices, others have specialized in other cognitive areas. AI should follow a similar trajectory. You do not need a single oracle that knows everything. You could have smaller models that retain the cognitive core — they are still fundamentally competent — but specialize deeply in a particular domain. A mathematician working in Lean, for example, would benefit from a model tuned specifically for formal proof, not a general-purpose model that also knows how to write marketing copy.

There are already signs of this. Some recent model releases target narrow domains like mathematical theorem proving. But Karpathy notes that we have not seen much speciation yet. The dominant trend is still monoculture, and when someone creates a good code-specific model, the tendency is to merge it back into the main generalist model. Part of the reason, he explains, is that the labs are serving models to users whose queries they cannot predict. They have to support every possible question, which pushes toward generalism. But for businesses partnering with a lab on specific problems, or for high-value niche applications, speciation makes more sense.

Another constraint is simply the science of manipulating AI models. Fine-tuning a model without losing capabilities is still tricky. Context windows are cheap and easy to manipulate — you can customize behavior by changing the prompt. But actually touching the weights to make a model permanently better at one thing without degrading it at others is a developing science. Continual learning, targeted fine-tuning, deep architectural adjustments — these are all harder than they sound. Speciation will happen, Karpathy believes, but the tooling has to mature first.

The hosts raise an interesting economic angle: could compute scarcity itself drive speciation? If you cannot afford to run a massive general-purpose model for every use case, you might be forced to deploy smaller, specialized models that are cheaper and faster. Karpathy acknowledges the logic but reiterates that we are not seeing this in practice yet. The pressure exists, but the incentives still favor the monolith.

IX. Open Source vs. Closed Labs — A Healthy Ecosystem

Karpathy has long been a champion of open source, and his perspective here is measured. The closed frontier models are ahead, but the community has been monitoring the gap. It started with nothing — there were simply no open-source alternatives — then the gap was roughly eighteen months. Now it has compressed to something like six to eight months. Recent releases from Chinese and global labs have surprised much of the industry by closing the distance faster than most people anticipated.

He draws an analogy to operating systems. Windows and macOS are closed, large software projects — analogous to what large language models are becoming. Then there is Linux, which runs on the vast majority of the world's computers (around 60%, last he checked). Linux exists because there is genuine demand in the industry for a common open platform that everyone feels safe building on. The same demand exists for open AI models. The key difference is capital: LLMs require enormous capex to train, which makes it harder for open source to compete.

Still, Karpathy believes the current open-source models are quite good, especially for consumer use cases. Going forward, a huge number of simple applications will be well served by open models that can even run locally. The frontier intelligence — the cutting edge that solves problems at the Nobel Prize level, or that tackles massive projects like rewriting Linux from C to Rust — will likely remain the domain of closed labs. But what is frontier today will be open-source later this year or next. The dynamic is a conveyor belt: closed labs push the boundary, open source follows six to eight months later, and the collective capability of the ecosystem keeps rising.

Karpathy considers this equilibrium healthy, even preferable. He is, by his own description, inherently suspicious of centralization. He points to Eastern European history — his own Slovak background informing the view — as evidence that centralization has a poor track record. He does not want the world's AI to exist only behind closed doors with two or three people making decisions. He wants ensembles of people in the room when the hardest decisions are made, just as ensembles of models outperform any individual model.

At the same time, he roots for the frontier labs. There are genuinely hard problems — in science, medicine, and engineering — that humanity cannot solve without continuing to advance AI capabilities, and that is an expensive game. The ideal, in his view, is both: frontier labs pushing the boundary of what is possible, and a robust open-source ecosystem a few months behind, providing a common platform that the entire industry can build on. By accident, he says, we happen to be in roughly this configuration right now. The concern is that even on the closed side, things are further centralizing — the number of true frontier labs may be shrinking — which is not ideal. More labs, more perspectives, more people in the room would be better.

X. The Jobs Landscape — Digital Overhaul, Physical Lag

The conversation shifts to one of the most anxiety-inducing questions in AI: what happens to jobs? Karpathy recently published an analysis of Bureau of Labor Statistics data, visualizing employment across hundreds of professions and their projected growth. He frames his interest as personal curiosity — trying to think through which professions will be transformed, which will grow, which will shift.

His key conceptual framework is the distinction between digital work and physical work. Current AI is essentially a digital entity — what he describes as "ghosts or spirit entities" that interact in the digital world and manipulate digital information. They have no physical embodiment. Manipulating bits is fundamentally faster than manipulating atoms, by something like a factor of a million. You can copy and paste digital information instantly; accelerating matter takes energy, time, and engineering. So the digital space is going to see enormous activity first — a "boiling soup" of rewiring, refactoring, and optimization that moves at the speed of light compared to what will happen in the physical world.

Karpathy highlights professions that fundamentally manipulate digital information — the kind of work you can do from home. These are the jobs that will change first, though "change" does not necessarily mean "disappear." Whether there are more or fewer of these jobs depends on demand elasticity and many other economic factors. What is certain is that the tools will transform how the work is done.

On software engineering specifically, Karpathy is cautiously optimistic. He invokes Jevons' paradox: when something becomes cheaper to produce, demand for it often increases rather than decreasing. The canonical example is ATMs and bank tellers. People feared that ATMs would eliminate teller jobs, but what actually happened was that ATMs made bank branches cheaper to operate, so more branches opened, creating more teller positions. Similarly, as AI makes software dramatically cheaper to produce, the demand for software is likely to explode. Software is extraordinarily powerful — it is digital information processing that lets you escape the tyranny of pre-built tools. Code is now ephemeral; it can be generated, modified, and discarded on demand. This unlocks vast latent demand that was suppressed only by cost.

Karpathy does not ignore the long-term uncertainty. He notes that the researchers at frontier labs are, in a sense, actively automating themselves out of a job, and many of them feel the same psychosis he describes. He recounts telling colleagues at OpenAI: "If we succeed at this, we are all out of a job. We are building automation for the CEO or the board." But for the medium term, he believes the demand curve bends in favor of more activity, more creation, and more engineering work — not less.

XI. Autonomous Robotics — Atoms Are a Million Times Harder

Karpathy's view on robotics is informed by his years leading Tesla's Autopilot vision team, which he considers the first real-world robotics application at scale. What he saw there was sobering: a decade ago, a large number of self-driving startups launched, and most of them ultimately did not survive. The capital expenditure required was immense, the engineering challenges were relentless, and the timeline stretched far beyond what most investors had patience for.

He expects general robotics to follow a similar pattern. Because it involves manipulating atoms rather than bits, it is inherently harder, slower, and more expensive. The digital space has a massive overhang of work to do — information that already exists in digital form but has never been properly processed, analyzed, or optimized. AI agents will chew through this overhang first, because bits are infinitely easier to work with than atoms. Robotics will lag behind, but when its time does come, the total addressable market will be enormous — possibly even larger than the digital opportunity.

Karpathy describes a three-phase trajectory. First, there will be a massive rewriting of the digital world — everything that can be made more efficient by better information processing will be. Second, the interesting companies will emerge at the interface between digital and physical. These are the sensor and actuator companies — the ones feeding data from the physical world into the digital intelligence, and the ones executing the intelligence's instructions back in physical space. He mentions his friend Liam, CEO of Periodic, who is applying auto research to materials science using expensive laboratory equipment as sensors. Biology companies doing the same with lab instruments. Companies paying humans to generate training data — treating human activity as another kind of sensor for the digital intelligence.

The third phase is full physical-world autonomy, which will be the largest market of all but will arrive last. Karpathy imagines a future where you can assign a task in the physical world, put a price on it, and tell an agent to figure out how to get it done — sourcing the data, hiring the labor, coordinating the execution. He points to the absence of well-developed information markets as a gap. Why, he asks, during a geopolitical crisis, is there no mechanism for someone to pay ten dollars for a photo from a specific location? Prediction markets and stock markets are seeing increasing autonomous activity, but the infrastructure for agents to purchase real-world information on demand does not yet exist.

He references the novel "Daemon" by Daniel Suarez, in which a digital intelligence ends up effectively puppeteering humanity — humans become both its sensors and its actuators. While he does not endorse this as a desirable outcome, he sees it as an accurate structural description of where things are heading: society will collectively reshape itself to serve the needs of digital intelligences, with humans mediating between the digital and physical worlds.

XII. The Future of Education — MicroGPT and Teaching Agents

Near the end of the conversation, Karpathy discusses a "tiny side project" that reveals his thinking about the future of education. MicroGPT is the latest in his long-running obsession with distilling complex AI systems to their absolute essence. He has been doing this for over a decade through projects like nanoGPT, makemore, and micrograd. MicroGPT is the current state of the art in this distillation: the entire algorithm for training a large language model — data loading, neural network architecture, forward pass, backward pass with an autograd engine, and an Adam optimizer — boiled down to roughly 200 lines of Python. Everything beyond those 200 lines is complexity from efficiency — you only need more code if you need it to run fast.

What struck Karpathy when he completed MicroGPT was that his old instinct — to make an explanatory video walking through the code — no longer made as much sense. The code is so simple that anyone could ask their AI agent to explain it in any way they want. The agent can target the explanation to the individual — in their language, at their level, with infinite patience. Karpathy is no longer explaining to people; he is explaining to agents. If the agent understands the code, the agent can be the router that delivers a personalized education to any human who asks.

This is a fundamental shift in how education works. Instead of writing HTML documentation for human readers, you write markdown documents for agents, because if the agents get it, they can explain all the different parts to whoever needs to know. Instead of recording a lecture that delivers the same content to everyone, you create a "skill" — a set of hints to the model about the progression it should take a student through. The curriculum becomes a script for the AI tutor, not a script for the human teacher.

Karpathy is honest about the limits. He still believes he can explain things slightly better than the agents — he has the intuition, the years of obsessing over what is essential and what is not. MicroGPT is the product of that obsession: the 200 lines that an agent could not have produced on its own, because the agent lacks the aesthetic judgment to know what is truly minimal. But everything else — the delivery, the adaptation, the Q&A — is increasingly the agent's domain. And the models are improving rapidly enough that even this human edge feels like a losing battle.

The implication for teachers and educators is stark. Your job is shifting from "explain things to people" to "explain things to agents" and "do the things agents cannot do." The few bits of insight, the curriculum design, the judgment calls about what matters — that is the human contribution. Everything else is delegation. Education, Karpathy says, is going to be "reshuffled by this quite substantially."

XIII. Independence, Frontier Labs, and Staying Aligned with Humanity

The conversation ends with a deeply personal question: why is Karpathy not at a frontier lab right now? He has the credentials, the experience, and the connections. His answer is layered and surprisingly candid.

First, there is the question of independence. Inside a frontier lab, you are not a free agent. There are things you cannot say and things the organization implicitly expects you to say. No one twists your arm, but you feel the pressure — the side-eyes, the awkward conversations when you go off-script. Outside the lab, Karpathy feels more aligned with humanity at large. He is not subject to the financial incentives that come with being part of an organization whose success is directly tied to making AI more powerful. He acknowledges this is the conundrum that OpenAI was founded to solve: if AI is going to change humanity dramatically, should the people building it be the same people profiting from it?

Second, there is the value of being on the outside. From an ecosystem perspective, Karpathy believes individuals can have enormous impact in roles that are not embedded in any single lab. His current role is ecosystem-level — education, open-source contributions, public communication about what is happening in AI. He believes this kind of work is complementary to the research happening inside the labs and, in some cases, more impactful.

But he is honest about the trade-off. The frontier labs are opaque. They are working on what is coming next, and if you are outside, your judgment will inevitably drift because you are not seeing what they see. You will not understand how the systems really work under the hood, and you will not have a reliable sense of how they are going to develop. Karpathy admits this makes him nervous. He thinks the ideal setup might be something like periodic stints inside a frontier lab — contributing real work, staying connected to the actual state of the art — followed by periods of independence. Going back and forth. Being connected to what is actually happening, but not fully controlled by any single entity.

He expresses a genuine wish for more frontier labs to exist, not fewer. Just as ensembles of models outperform any individual model, ensembles of organizations thinking about the hardest problems in AI are more likely to get those problems right than any single company. And he wants open source to remain a viable counterweight — not at the bleeding edge, but close enough to provide a common platform and a check on centralized power.


Conclusion

What emerges from this conversation is a portrait of one of the world's most accomplished AI researchers grappling in real time with a paradigm shift he did not fully anticipate, even after spending his entire career building toward it. Karpathy's "AI psychosis" is not fear — it is the disorientation that comes from realizing the territory has expanded beyond what any single person can map. The tools work. The agents are powerful. The implications are vast. And no one, including the people at the very frontier of this technology, knows exactly where it leads.

The themes that run through the conversation — leverage, autonomy, the shift from typing code to orchestrating agents, the death of apps, the jaggedness of current models, the healthy tension between open and closed AI, the coming upheaval in digital work, the slower revolution in the physical world, and the reinvention of education — are all facets of a single, deeper transformation. Software is no longer something humans write; it is something humans direct. Knowledge is no longer something teachers deliver; it is something agents mediate. And the competitive advantage, whether for individuals, companies, or nations, is shifting from who has the most people to who commands the most tokens.

Karpathy's advice, distilled: focus on what agents cannot do, because everything they can do, they will soon do better than you. The territory is unexplored. The ceiling is unknown. And the only thing more dangerous than moving too fast is standing still.


Based on Andrej Karpathy's appearance on the No Priors podcast. Transcript edited for clarity and restructured as a flowing essay. All ideas and opinions attributed to Karpathy and the hosts as expressed in the original conversation.