Showing posts with label AI. Show all posts
Showing posts with label AI. Show all posts

5.05.2026

Andrej Karpathy: Từ Vibe Coding Đến Kỹ Thuật Tác Nhân — Bản Ghi Chép Đầy Đủ

Sự kiện: AI Ascent 2026, do Sequoia Capital tổ chức

Khách mời: Andrej Karpathy — đồng sáng lập OpenAI, cựu Giám Đốc Trí Tuệ Nhân Tạo tại Tesla, sáng lập Eureka Labs

Người phỏng vấn: Stephanie Zhan, Cộng Tác Viên tại Sequoia Capital

Năm: 2026



Giới Thiệu

STEPHANIE ZHAN: Chúng tôi vô cùng vui mừng được đón tiếp vị khách đặc biệt đầu tiên. Ông đã giúp xây dựng trí tuệ nhân tạo hiện đại, rồi giải thích nó, và đôi khi đặt tên lại cho nó. Thực ra ông đã đồng sáng lập OpenAI, ngay tại văn phòng này. Ông là người đã làm cho hệ thống Autopilot của Tesla hoạt động được từ thuở ban đầu, và ông có một tài năng hiếm có: biến những bước chuyển mình kỹ thuật phức tạp nhất thành điều vừa dễ hiểu vừa tất yếu.

Tất cả các bạn đều biết ông qua thuật ngữ "vibe coding" mà ông đặt ra năm ngoái, nhưng chỉ trong vài tháng gần đây, ông đã nói một điều còn đáng kinh ngạc hơn: rằng ông chưa bao giờ cảm thấy mình bị bỏ lại phía sau như một lập trình viên đến vậy. Đó là điểm khởi đầu của chúng ta hôm nay. Cảm ơn ông Andrej đã có mặt.


Cảm Giác Bị Tụt Hậu Như Một Lập Trình Viên

ANDREJ KARPATHY: Vâng. Xin chào. Rất vui được có mặt ở đây để mở đầu.

STEPHANIE: Được rồi. Vậy thì, chỉ vài tháng trước, ông đã nói rằng ông chưa bao giờ cảm thấy mình bị tụt hậu như một lập trình viên đến vậy. Thật đáng ngạc nhiên khi nghe điều này từ chính ông. Ông có thể giúp chúng tôi hiểu rõ hơn không? Cảm giác đó là phấn khích hay bất an?

ANDREJ: Vừa phấn khích vừa bất an. Trước hết, cũng như nhiều người trong số các bạn, tôi đã dùng các công cụ tác nhân — những thứ như Claude Code và các công cụ tương tự — trong một thời gian, có lẽ hơn một năm nay kể từ khi chúng ra đời. Chúng rất giỏi với từng đoạn code. Đôi khi chúng sai và bạn phải sửa, nhưng nhìn chung cũng khá hữu ích. Rồi thì tháng Mười Hai năm ngoái là một bước ngoặt rõ ràng. Tôi đang nghỉ phép nên có nhiều thời gian hơn. Tôi nghĩ nhiều người cũng có trải nghiệm tương tự. Tôi bắt đầu nhận ra rằng với các mô hình mới nhất, các đoạn code cứ ra đúng hoài. Rồi tôi tiếp tục yêu cầu thêm và nó vẫn cứ đúng. Rồi tôi không còn nhớ lần cuối mình phải sửa nó là khi nào. Và rồi tôi ngày càng tin tưởng hệ thống hơn, và thế là tôi "vibe coding" rồi.

(tiếng cười)

Đó thực sự là một bước chuyển rất rõ ràng. Tôi đã cố gắng nhấn mạnh điều này trên Twitter — hay X — vì tôi nghĩ nhiều người trải nghiệm AI năm ngoái như một thứ gì đó gần với ChatGPT. Nhưng đến tháng Mười Hai, bạn thực sự phải nhìn lại, vì mọi thứ đã thay đổi cơ bản — đặc biệt là về quy trình làm việc tác nhân liên mạch, thứ đã thực sự bắt đầu hoạt động được. Chính nhận thức đó đã khiến tôi lao vào cái hố thỏ này của vô số dự án cá nhân. Thư mục dự án phụ của tôi đầy ắp với đủ thứ ngẫu nhiên, và tôi cứ vibe coding suốt. Vậy đó, chuyện đó xảy ra vào tháng Mười Hai, và tôi đã theo dõi những hệ lụy của nó từ đó đến nay.


Giải Thích Software 3.0

STEPHANIE: Ông đã nói rất nhiều về ý tưởng LLM như một máy tính mới — không chỉ là phần mềm tốt hơn, mà là một mô thức tính toán hoàn toàn mới. Software 1.0 là các quy tắc tường minh, software 2.0 là các trọng số được học, software 3.0 là thứ này. Nếu điều đó thực sự đúng, thì một nhóm phát triển sẽ xây dựng khác đi thế nào vào ngày họ thực sự tin vào điều này?

ANDREJ: Đúng vậy. Software 1.0, tôi viết code. Software 2.0, tôi thực ra lập trình bằng cách tạo ra các bộ dữ liệu và huấn luyện mạng thần kinh — vậy nên lập trình ở đây có nghĩa là sắp xếp dữ liệu và có thể một số mục tiêu cùng kiến trúc mạng thần kinh. Rồi điều đã xảy ra là: về cơ bản, nếu bạn huấn luyện một trong những mô hình GPT hay LLM này trên một tập hợp nhiệm vụ đủ lớn — ngầm định, vì khi huấn luyện trên internet bạn phải xử lý đồng thời tất cả mọi thứ trong bộ dữ liệu — những mô hình này thực ra trở thành một loại máy tính có thể lập trình được theo nghĩa nào đó. Vậy software 3.0 về cơ bản là: lập trình của bạn bây giờ chuyển thành viết prompt, và những gì trong cửa sổ ngữ cảnh là đòn bẩy của bạn đối với bộ thông dịch là LLM, thứ đang diễn giải ngữ cảnh của bạn và thực hiện tính toán trong không gian thông tin số. Đó là bước chuyển đó. Và tôi nghĩ có một vài ví dụ thực sự đã làm tôi hiểu ra điều này.


Tác Nhân Như Một Bộ Cài Đặt

ANDREJ: Ví dụ, khi Claude Code ra đời — khi bạn muốn cài đặt nó, thông thường bạn sẽ mong đợi đó là một bash script, một shell script. Bạn chạy shell script để cài đặt Claude Code. Nhưng vấn đề là, để nhắm tới nhiều nền tảng và nhiều loại máy tính khác nhau, những shell script này thường phình to ra và trở nên cực kỳ phức tạp. Và bạn vẫn mắc kẹt trong vũ trụ software 1.0 của việc muốn viết code. Thực ra, cài đặt Claude Code là một đoạn văn bản mà bạn copy-paste và đưa cho tác nhân của mình. Về cơ bản đó là một kỹ năng nhỏ — bạn copy-paste đoạn này và đưa cho tác nhân, và nó sẽ cài đặt Claude Code. Lý do điều này mạnh mẽ hơn nhiều là vì bạn đang làm việc trong mô thức software 3.0, nơi bạn không cần phải liệt kê từng chi tiết cụ thể của việc cài đặt đó. Tác nhân có trí thông minh riêng của mình, nó gói gọn mọi thứ, làm theo hướng dẫn, xem xét môi trường và máy tính của bạn, thực hiện các hành động thông minh để mọi thứ hoạt động, gỡ lỗi trong vòng lặp — và nó mạnh mẽ hơn rất nhiều. Đây là một cách suy nghĩ rất khác: đoạn văn bản nào để copy-paste cho tác nhân? Đó chính là mô thức lập trình bây giờ.


MenuGen So Với Các Prompt Thô

ANDREJ: Thêm một ví dụ khác còn cực đoan hơn, đó là khi tôi đang xây dựng MenuGen. MenuGen là ý tưởng khi bạn đến nhà hàng, họ đưa cho bạn một thực đơn, thường không có hình ảnh. Vậy nên tôi không biết nhiều món là gì — thường khoảng ba mươi phần trăm các món tôi không biết, đôi khi năm mươi phần trăm. Vậy nên tôi muốn chụp ảnh thực đơn nhà hàng và nhận được hình ảnh những món đó có thể trông như thế nào theo nghĩa chung. Tôi đã vibe-code ứng dụng này, thứ về cơ bản cho phép bạn tải ảnh lên và xử lý tất cả những thứ đó. Nó chạy trên Vercel, hiển thị lại thực đơn, cho bạn xem tất cả các món, và sử dụng trình tạo hình ảnh để OCR tất cả các tiêu đề khác nhau, lấy hình ảnh của chúng, và hiển thị cho bạn. Rồi tôi thấy phiên bản software 3.0 của điều này, và nó thổi bay tâm trí tôi. Nó chỉ đơn giản là: chụp ảnh, đưa cho Gemini, và nói "Hãy dùng Nana Banana để phủ các món ăn lên thực đơn." Và Nana Banana trả lại một hình ảnh chính xác là tấm ảnh thực đơn tôi đã chụp, nhưng nó đã đặt vào các pixel những hình ảnh được render của các món trong thực đơn. Điều này thổi bay tâm trí tôi, vì toàn bộ MenuGen của tôi là thừa. Nó đang hoạt động trong mô thức cũ — ứng dụng đó không nên tồn tại. Và mô thức software 3.0 thô hơn nhiều: mạng thần kinh của bạn đang làm ngày càng nhiều công việc, prompt hay ngữ cảnh của bạn chỉ là hình ảnh, đầu ra là một hình ảnh, và không cần bất kỳ ứng dụng nào ở giữa.

Vậy nên tôi nghĩ mọi người phải tái định khung mọi thứ — không làm việc trong mô thức hiện tại của những gì đã tồn tại và chỉ coi đó là tăng tốc độ. Thực ra là những thứ mới đang có mặt bây giờ. Và điều đó cũng là ví dụ của việc làm việc với tư duy cũ, bởi vì không chỉ là lập trình trở nên nhanh hơn. Đây là xử lý thông tin tổng quát hơn, nay có thể tự động hóa. Vậy nên nó không chỉ là về code. Code trước đây hoạt động trên dữ liệu có cấu trúc. Nhưng ví dụ, với dự án LLM knowledge bases của tôi — về cơ bản bạn dùng LLM để tạo wiki cho tổ chức hoặc cho bản thân — đây thậm chí không phải là một chương trình. Đây không phải là thứ có thể tồn tại trước đây, vì không có code nào sẽ tạo ra một knowledge base từ một loạt sự kiện. Nhưng bây giờ bạn chỉ cần lấy những tài liệu này và về cơ bản biên dịch lại chúng theo cách khác, sắp xếp lại chúng, và tạo ra thứ gì đó mới và thú vị. Đây là những thứ mới không thể thực hiện được trước đây. Tôi cứ cố gắng quay lại câu hỏi đó: không chỉ là những gì chúng ta có thể làm nhưng nhanh hơn, mà là những cơ hội mới nào — những thứ không thể thực hiện được trước đây? Và tôi gần như nghĩ điều đó còn thú vị hơn.


Điều Gì Sẽ Hiển Nhiên Vào Năm 2026

STEPHANIE: Tôi rất thích sự tiến triển và tương phản của MenuGen mà ông đã trình bày. Nếu ông nhìn xa hơn — điều tương đương năm 2026 là gì của việc xây dựng trang web trong những năm 90, xây dựng ứng dụng di động trong những năm 2010, xây dựng SaaS trong kỷ nguyên cloud trước? Điều gì sẽ trông hoàn toàn hiển nhiên khi nhìn lại mà hiện tại vẫn còn chủ yếu chưa được xây dựng?

ANDREJ: Vâng, đi theo ví dụ MenuGen, rất nhiều code này không nên tồn tại — chỉ là một mạng thần kinh đang làm hầu hết công việc. Tôi nghĩ sự ngoại suy trông rất kỳ lạ vì bạn có thể tưởng tượng những máy tính hoàn toàn thần kinh theo một nghĩa nào đó. Bạn đưa video hoặc âm thanh thô vào cơ bản là một mạng thần kinh, và nó sử dụng diffusion để render một giao diện người dùng độc đáo cho thời điểm đó. Và tôi cảm thấy như trong những ngày đầu của máy tính, mọi người hơi bối rối về việc liệu máy tính sẽ trông như máy tính bỏ túi hay như mạng thần kinh — trong những năm 50 và 60 của thế kỷ trước, không rõ ràng hướng nào sẽ thắng. Và tất nhiên chúng ta đã đi theo con đường máy tính bỏ túi và kết thúc bằng máy tính cổ điển. Và rồi mạng thần kinh đang chạy ảo hóa trên máy tính hiện có. Nhưng bạn có thể tưởng tượng rằng nhiều điều trong số này sẽ đảo ngược, và mạng thần kinh trở thành tiến trình chủ còn CPU trở thành đồng xử lý. Bạn có thể tưởng tượng điều gì đó thực sự kỳ lạ và xa lạ, nơi mạng thần kinh đang làm hầu hết công việc nặng nhọc, sử dụng công cụ như một thứ phụ lục lịch sử cho một số nhiệm vụ xác định, nhưng những gì thực sự điều hành mọi thứ là các mạng thần kinh này. Nhưng tôi nghĩ chúng ta sẽ đến đó từng bước một. Và sự tiến triển đó, thật ra vẫn còn chưa biết.

(tiếng cười)


Tính Kiểm Chứng Và Trí Tuệ Lởm Chởm

STEPHANIE: Tôi muốn nói một chút về khái niệm có thể kiểm chứng được — thực tế là AI sẽ tự động hóa nhanh hơn và dễ dàng hơn trong các lĩnh vực mà đầu ra có thể được kiểm chứng. Nếu khung đó đúng, công việc nào sắp chuyển động nhanh hơn mọi người nhận ra? Và những nghề nghiệp nào mọi người nghĩ là an toàn nhưng thực ra có tính kiểm chứng cao?

ANDREJ: Vâng. Vậy nên tôi đã dành một chút thời gian viết về tính kiểm chứng. Về cơ bản, máy tính truyền thống có thể dễ dàng tự động hóa những gì bạn có thể chỉ định trong code. Và vòng LLM mới nhất này có thể dễ dàng tự động hóa những gì bạn có thể kiểm chứng — theo một nghĩa nào đó — bởi vì cách thức hoạt động của nó là khi các phòng thí nghiệm hàng đầu huấn luyện những LLM này, đây là những môi trường học tăng cường khổng lồ. Vậy nên chúng được cho phần thưởng kiểm chứng, và vì cách các mô hình này được huấn luyện, chúng cuối cùng về cơ bản tiến bộ và tạo ra những thực thể lởm chởm này, thực sự đạt đỉnh năng lực trong các lĩnh vực có thể kiểm chứng như toán học và code và các lĩnh vực lân cận — và hơi đình trệ, hơi thô ở những lĩnh vực không nằm trong không gian đó.

Vậy nên tôi nghĩ lý do tôi viết về tính kiểm chứng là tôi đang cố gắng hiểu tại sao những thứ này lại lởm chởm đến vậy. Và một phần liên quan đến cách các phòng thí nghiệm huấn luyện các mô hình, nhưng tôi nghĩ một phần cũng liên quan đến sự tập trung của các phòng thí nghiệm và những gì họ đưa vào phân phối dữ liệu. Bởi vì một số thứ có giá trị hơn đáng kể trong nền kinh tế và cuối cùng tạo ra nhiều môi trường hơn vì các phòng thí nghiệm muốn làm việc trong những bối cảnh đó. Code là một ví dụ tốt về điều đó. Có lẽ còn rất nhiều môi trường có thể kiểm chứng khác mà họ có thể nghĩ đến nhưng chưa được đưa vào vì chúng không hữu ích lắm để phát triển năng lực xung quanh.

Nhưng tôi nghĩ bí ẩn lớn đối với tôi là — ví dụ yêu thích một thời là: "strawberry" có bao nhiêu chữ cái? Và các mô hình đã nổi tiếng trả lời sai điều này. Đó là một ví dụ về tính lởm chởm. Các mô hình bây giờ đã vá lỗi đó. Nhưng câu mới là: Tôi muốn đến tiệm rửa xe cách đây 50 mét — tôi nên lái xe hay đi bộ? Và các mô hình hàng đầu ngày nay sẽ nói với bạn là đi bộ vì nó quá gần. Làm sao có thể như vậy khi Opus 4.7 hàng đầu có thể đồng thời tái cấu trúc một codebase 100.000 dòng hoặc tìm các lỗ hổng zero-day, mà lại nói với tôi là đi bộ đến tiệm rửa xe? Điều này thật điên rồ.

(tiếng cười)

Và trong phạm vi mà các mô hình này vẫn còn lởm chởm, đó là chỉ dấu rằng thứ nhất, có thể có gì đó hơi sai, hoặc thứ hai, bạn cần thực sự tham gia vào một chút — bạn cần đối xử với chúng như công cụ và theo dõi những gì chúng đang làm. Vậy nên toàn bộ bài viết của tôi về tính kiểm chứng, tóm lại, chỉ đơn giản là cố gắng hiểu tại sao những thứ này lại lởm chởm. Có mô hình nào không? Và tôi nghĩ đó là sự kết hợp nào đó của "có thể kiểm chứng" cộng với "phòng thí nghiệm quan tâm."

Thêm một giai thoại nữa mang tính chỉ dẫn: từ GPT-3.5 đến GPT-4, mọi người nhận thấy cờ vua cải thiện rất nhiều. Nhiều người nghĩ đó chỉ là sự tiến bộ năng lực bình thường thôi. Nhưng thực ra, tôi nghĩ — đây là thông tin công khai, tôi thấy trên internet — một lượng dữ liệu cờ vua rất lớn đã được đưa vào tập huấn luyện trước. Và chỉ vì nó nằm trong phân phối dữ liệu, mô hình đã cải thiện nhiều hơn nhiều so với mặc định. Vậy nên ai đó tại OpenAI đã quyết định thêm dữ liệu này, và bây giờ bạn có một năng lực đã đạt đỉnh nhiều hơn. Và đó là lý do tôi nhấn mạnh khía cạnh này: chúng ta đang hơi bị chi phối bởi bất cứ điều gì các phòng thí nghiệm đang làm, bất cứ điều gì họ đưa vào. Và bạn phải khám phá thứ họ cho bạn mà không có hướng dẫn sử dụng. Nó hoạt động trong một số bối cảnh, nhưng có thể không trong những bối cảnh khác. Nếu bạn ở trong các mạch đã là một phần của học tăng cường, bạn bay. Nếu bạn ở trong các mạch nằm ngoài phân phối dữ liệu, bạn sẽ vật lộn. Và nếu bạn không ở trong những mạch đó, thì bạn thực sự phải xem xét tinh chỉnh và làm một số công việc của riêng mình, vì LLM không nhất thiết sẽ cho bạn điều đó ngay từ đầu.


Lời Khuyên Cho Nhà Sáng Lập Và Tự Động Hóa

STEPHANIE: Tôi muốn nói đến khái niệm trí tuệ lởm chởm một chút nữa. Nếu bạn là một nhà sáng lập ngày nay đang nghĩ đến việc xây dựng một công ty — bạn đang cố gắng giải quyết một vấn đề mà bạn nghĩ là có thể thực hiện được, điều gì đó trong một lĩnh vực có thể kiểm chứng — nhưng bạn nhìn xung quanh và nghĩ, "Ôi trời ơi, các phòng thí nghiệm đã thực sự bắt đầu đạt vận tốc thoát trong những lĩnh vực rõ ràng nhất: toán học, code, và những thứ khác." Lời khuyên của ông cho các nhà sáng lập trong khán giả là gì?

ANDREJ: Vậy nên tôi nghĩ điều đó có thể quay lại câu hỏi trước. Tính kiểm chứng làm cho một thứ gì đó có thể thực hiện trong mô thức hiện tại vì bạn có thể ném một lượng học tăng cường khổng lồ vào nó. Vậy nên có thể một cách để nhìn nhận là điều này vẫn đúng ngay cả khi các phòng thí nghiệm không tập trung trực tiếp vào nó. Nếu bạn ở trong một môi trường có thể kiểm chứng nơi bạn có thể tạo ra những môi trường RL hay ví dụ, điều đó thực sự thiết lập cho bạn để tiềm năng thực hiện tinh chỉnh của riêng mình, và bạn có thể hưởng lợi từ điều đó. Nhưng đó là công nghệ về cơ bản chỉ hoạt động — bạn có thể kéo một đòn bẩy nếu bạn có một lượng lớn các bộ dữ liệu đa dạng và môi trường RL. Tôi không muốn nói quá rõ câu trả lời, nhưng có một số ví dụ về điều này mà tôi nghĩ rất có giá trị.

STEPHANIE: Mặt khác, điều gì ông nghĩ vẫn chỉ có vẻ có thể tự động hóa từ xa?

ANDREJ: Tôi nghĩ cuối cùng hầu hết mọi thứ đều có thể được làm cho kiểm chứng được ở một mức độ nào đó — một số thứ dễ hơn những thứ khác. Bởi vì ngay cả với những thứ như viết lách, bạn có thể tưởng tượng có một hội đồng các thẩm phán LLM và có thể nhận được điều gì đó hợp lý từ cách tiếp cận đó. Vậy nên vấn đề là cái gì dễ hay khó. Cuối cùng tôi nghĩ...

Tất cả mọi thứ.

(tiếng cười)

Tất cả mọi thứ đều có thể tự động hóa.


Từ Vibe Coding Đến Kỹ Thuật Tác Nhân

STEPHANIE: Tuyệt vời. Vậy thì năm ngoái ông đã đặt ra thuật ngữ "vibe coding", và hôm nay chúng ta đang ở trong một thế giới có vẻ nghiêm túc hơn một chút — kỹ thuật tác nhân. Ông nghĩ sự khác biệt giữa hai điều là gì, và ông thực sự sẽ gọi những gì chúng ta đang ở hôm nay là gì?

ANDREJ: Vâng. Vậy nên tôi sẽ nói rằng vibe coding là về việc nâng cao nền tảng cho tất cả mọi người về những gì họ có thể làm trong phần mềm. Nền tảng nâng lên, mọi người đều có thể vibe-code bất cứ thứ gì — và điều đó thật tuyệt vời, đáng kinh ngạc. Nhưng sau đó tôi sẽ nói rằng kỹ thuật tác nhân là về việc bảo tồn thanh chất lượng của những gì đã tồn tại trước đây trong phần mềm chuyên nghiệp. Bạn không được phép đưa ra các lỗ hổng do vibe coding. Bạn vẫn chịu trách nhiệm về phần mềm của mình, giống như trước — nhưng bạn có thể đi nhanh hơn không? Và câu trả lời là: bạn có thể. Nhưng làm thế nào để làm điều đó đúng cách? Vậy nên với tôi, kỹ thuật tác nhân — tôi gọi nó như vậy vì tôi nghĩ nó là một loại ngành kỹ thuật. Bạn có những tác nhân này, là những thực thể lởm chởm. Chúng hơi không đáng tin cậy, hơi ngẫu nhiên, nhưng chúng cực kỳ mạnh mẽ. Câu hỏi là: làm thế nào để bạn phối hợp chúng để đi nhanh hơn mà không hy sinh thanh chất lượng? Và làm điều đó tốt và đúng đắn là lĩnh vực của kỹ thuật tác nhân. Vậy nên tôi coi chúng là khác nhau — một cái là về nâng cao nền tảng, và cái kia là về ngoại suy lên cao. Và những gì tôi thấy là có một trần rất cao về năng lực kỹ thuật tác nhân. Người ta từng nói về kỹ sư 10x. Tôi nghĩ điều này được khuếch đại nhiều hơn — 10x không phải là tốc độ tăng bạn đạt được. Dường như với tôi rằng những người giỏi điều này đạt đỉnh nhiều hơn 10x.

STEPHANIE: Tôi thực sự thích cách đóng khung đó. Khi Sam Altman đến AI Ascent năm ngoái, một điều đáng nhớ ông ấy nói là người ở các thế hệ khác nhau sử dụng ChatGPT khác nhau. Vậy nếu bạn ở tuổi 30, bạn dùng nó như thứ thay thế tìm kiếm Google. Nhưng nếu bạn ở tuổi thiếu niên, ChatGPT là cửa ngõ của bạn vào internet. Điều song song ở đây trong lập trình hôm nay là gì? Nếu chúng ta quan sát hai người code bằng Claude Code hoặc Codex — một người bạn coi là tầm thường với nó, và một người bạn coi là hoàn toàn AI-native — bạn sẽ mô tả sự khác biệt như thế nào?

ANDREJ: Ý tôi là, tôi nghĩ đó chỉ là cố gắng tận dụng tối đa các công cụ có sẵn, sử dụng tất cả các tính năng của chúng, đầu tư vào cài đặt của bạn. Giống như trước đây, các kỹ sư đã quen với việc tận dụng tối đa các công cụ họ sử dụng — dù là Vim hay VS Code, hay bây giờ là Claude Code hay Codex. Vậy nên chỉ là đầu tư vào cài đặt của bạn và sử dụng nhiều công cụ có sẵn.

Tôi nghĩ một suy nghĩ liên quan là nhiều người có thể đang tuyển dụng cho điều này ngay bây giờ, vì họ muốn tuyển dụng các kỹ sư tác nhân mạnh. Những gì tôi thấy là hầu hết mọi người vẫn chưa tái cấu trúc quy trình tuyển dụng của họ cho năng lực kỹ thuật tác nhân. Nếu bạn đang đưa ra các câu đố để giải, đây vẫn là mô thức cũ. Tôi sẽ nói rằng tuyển dụng cho điều này phải trông như: cho tôi một dự án thực sự lớn và xem ai đó triển khai nó. Chẳng hạn, viết một Twitter clone — cho tác nhân — và sau đó làm cho nó thực sự tốt, thực sự an toàn. Rồi có một số tác nhân mô phỏng hoạt động trên Twitter clone này. Và rồi tôi sẽ dùng 10 Codex agents để cố phá vỡ trang web bạn đã triển khai. Họ sẽ cố phá vỡ nó, và họ không nên có thể làm được. Có lẽ nó trông như vậy, đúng không? Quan sát mọi người trong bối cảnh đó, xây dựng các dự án lớn hơn, sử dụng công cụ — đó có thể là những gì tôi sẽ xem xét.

STEPHANIE: Và khi các tác nhân làm nhiều hơn, kỹ năng con người nào bạn nghĩ trở nên có giá trị hơn, không phải ít hơn?

ANDREJ: Vâng, đó là câu hỏi hay. Ngay bây giờ, câu trả lời là các tác nhân giống như những thực thể thực tập sinh. Đáng chú ý — bạn về cơ bản vẫn phải chịu trách nhiệm về thẩm mỹ, phán đoán, thị hiếu, và một chút giám sát. Có lẽ một trong những ví dụ yêu thích của tôi về sự kỳ lạ của tác nhân là với MenuGen: bạn đăng ký bằng tài khoản Google, nhưng bạn mua credits bằng tài khoản Stripe. Cả hai đều có địa chỉ email. Và tác nhân của tôi thực sự đã cố — khi bạn mua credits, nó gán chúng bằng cách dùng địa chỉ email từ Stripe để khớp với tài khoản Google. Như là, không có user ID cố định mà nó cố gắng khớp; nó đang cố gắng khớp địa chỉ email. Nhưng bạn có thể dùng địa chỉ email khác cho Stripe và Google của mình, và về cơ bản nó sẽ không liên kết được các khoản tiền. Và đây là loại điều tác nhân vẫn còn mắc lỗi — tại sao bạn lại dùng địa chỉ email để cố gắng tương quan chéo các khoản tiền? Chúng có thể là tùy ý. Bạn có thể dùng email khác nhau. Đây là điều thực sự kỳ lạ cần làm.

Vậy nên tôi nghĩ mọi người phải chịu trách nhiệm về đặc tả, kế hoạch. Và tôi thực sự không thích "plan mode" — ý tôi là, rõ ràng nó rất hữu ích, nhưng tôi nghĩ có điều gì đó tổng quát hơn ở đây nơi bạn phải làm việc với tác nhân của mình để thiết kế một đặc tả rất chi tiết. Có thể đó về cơ bản là các tài liệu — để tác nhân viết chúng, và bạn chịu trách nhiệm về việc giám sát và các danh mục cấp cao nhất, nhưng các tác nhân đang làm nhiều công việc bên dưới. Và vì vậy bạn không quan tâm đến một số chi tiết. Ví dụ, với arrays hay tensors trong mạng thần kinh — có rất nhiều chi tiết giữa PyTorch và NumPy và tất cả các chi tiết API nhỏ khác nhau, như với pandas và vân vân. Và tôi đã quên những thứ như "keepdims" hay "keep_dim", hay đó là "dim" hay "axis", hay "reshape" hay "permute" hay "transpose" — tôi không nhớ những thứ này nữa, vì bạn không cần. Đây là loại chi tiết được xử lý bởi thực tập sinh, vì chúng có khả năng nhớ rất tốt. Nhưng bạn vẫn phải biết, ví dụ, rằng có một tensor bên dưới, có một view bên dưới, và bạn có thể thao tác view của cùng một storage hay bạn có thể có storage khác nhau — điều đó kém hiệu quả hơn — và vì vậy bạn vẫn phải hiểu những gì thứ này đang làm ở mức cơ bản, để bạn không sao chép bộ nhớ xung quanh một cách không cần thiết. Nhưng các chi tiết của API bây giờ được chuyển giao. Vậy nên bạn đang chịu trách nhiệm về thị hiếu, kỹ thuật, thiết kế — đảm bảo nó có ý nghĩa, yêu cầu đúng thứ, nói "những thứ này phải là ID người dùng độc đáo mà chúng ta sẽ gắn mọi thứ vào đó." Bạn đang làm thiết kế và định hướng, và các tác nhân đang điền vào chỗ trống. Đó là nơi chúng ta đang ở hiện tại.

STEPHANIE: Bạn có nghĩ có khả năng rằng thị hiếu và phán đoán này sẽ quan trọng ít đi theo thời gian không, hay trần sẽ cứ tiếp tục nâng lên?

ANDREJ: Vâng, đó là câu hỏi hay. Ý tôi là, tôi hy vọng nó cải thiện. Tôi nghĩ có lẽ lý do nó không cải thiện ngay bây giờ là, một lần nữa, nó không phải là một phần của học tăng cường. Có lẽ không có chi phí hay phần thưởng thẩm mỹ, hay nó không đủ tốt, hay điều gì đó như vậy. Và tôi nghĩ khi bạn thực sự nhìn vào code, đôi khi tôi có một cơn hoảng loạn nhỏ vì nó không phải là code siêu tuyệt vời nhất thiết luôn luôn — nó rất cồng kềnh, có rất nhiều copy-paste, có những abstractions lạ kỳ giòn. Nó hoạt động, nhưng nó thực sự xấu. Và tôi hy vọng điều này có thể cải thiện trong các mô hình tương lai.

Một ví dụ hay cũng là dự án microGPT, nơi tôi đang cố gắng đơn giản hóa việc huấn luyện LLM để đơn giản nhất có thể. Các mô hình ghét điều này. Chúng không thể làm được. Tôi cứ cố gắng nhắc nhở LLM "đơn giản hóa thêm, đơn giản hóa thêm", và nó chỉ không thể. Bạn cảm thấy như mình đang ở ngoài các mạch học tăng cường. Nó cảm thấy như nhổ răng — không phải tốc độ ánh sáng. Vậy nên tôi nghĩ mọi người vẫn còn chịu trách nhiệm về điều này. Nhưng tôi nghĩ không có gì cơ bản ngăn nó cải thiện. Các phòng thí nghiệm chỉ chưa làm điều đó.

STEPHANIE: Vâng. Vậy nên tôi muốn quay lại ý tưởng về các hình thức trí tuệ lởm chởm này. Ông đã viết một chút về điều này trong một bài khá gây tranh luận về động vật so với ma — ý tưởng rằng chúng ta không xây dựng động vật, chúng ta đang triệu hồi ma. Đây là những hình thức trí tuệ lởm chởm được định hình bởi dữ liệu và hàm phần thưởng, nhưng không bởi động lực nội tại, niềm vui, sự tò mò, hay sự trao quyền — những thứ xuất hiện qua tiến hóa. Tại sao cách đóng khung đó quan trọng, và nó thực sự thay đổi cách bạn xây dựng, triển khai, đánh giá, hay thậm chí tin tưởng chúng như thế nào?

ANDREJ: Vâng. Vậy nên tôi nghĩ lý do tôi viết về điều này là tôi đang cố gắng hiểu những thứ này là gì. Bởi vì nếu bạn có một mô hình tốt về những gì chúng là — hay không phải là — thì bạn sẽ có năng lực hơn trong việc sử dụng chúng. Và tôi không chắc liệu nó có thực sự có sức mạnh thực tiễn không.

(tiếng cười)

Tôi nghĩ đó là một chút triết học. Nhưng tôi nghĩ đó chỉ là chấp nhận thực tế rằng những thứ này không phải là trí tuệ động vật. Như là, nếu bạn quát tháo chúng, chúng không hoạt động tốt hơn hay tệ hơn — không có tác động gì. Và tất cả chỉ là loại các mạch mô phỏng thống kê nơi chất nền là huấn luyện trước — vậy nên thống kê — và rồi học tăng cường được gắn vào trên đó, thứ tăng cường các phần phụ. Và có lẽ đó chỉ là tư duy — về những gì tôi đang tiếp cận, hay những gì có khả năng hoạt động hay không hoạt động, hay cách để sửa đổi nó. Nhưng tôi thực sự không có "đây là năm kết quả rõ ràng về cách làm cho hệ thống của bạn tốt hơn." Đó chỉ là trạng thái nghi ngờ, và khám phá dần dần theo thời gian.


Tác Nhân Khắp Nơi Và Việc Học Hỏi

STEPHANIE: Đó là điểm khởi đầu. Được rồi, vậy nên ông đang rất sâu trong làm việc với các tác nhân không chỉ trò chuyện — chúng có quyền thực sự, chúng có ngữ cảnh cục bộ, chúng thực sự thực hiện hành động thay mặt bạn. Thế giới sẽ như thế nào khi tất cả chúng ta bắt đầu sống trong thế giới đó?

ANDREJ: Vâng. Tôi nghĩ nhiều người ở đây phấn khích về môi trường native tác nhân này trông như thế nào — và mọi thứ phải được viết lại. Mọi thứ vẫn về cơ bản được viết cho con người và phải được làm lại. Tôi vẫn dùng, hầu hết thời gian, khi tôi dùng các framework hay thư viện hay những thứ như vậy, các tài liệu về cơ bản được viết cho con người. Đây là điều tôi phàn nàn yêu thích nhất. Tại sao mọi người vẫn còn nói với tôi phải làm gì? Như là, tôi không muốn làm bất cứ điều gì. Đoạn văn bản nào để copy-paste cho tác nhân của tôi?

(tiếng cười)

Vậy nên, mỗi khi tôi được nói "hãy đến URL này" hay điều gì đó như vậy, nó chỉ là — ugh.

(tiếng cười)

Vậy nên mọi người đang phấn khích về cách chúng ta phân tách khối lượng công việc cần xảy ra thành về cơ bản các cảm biến trên thế giới, các cơ cấu trên thế giới. Làm thế nào để chúng ta làm cho nó native tác nhân? Về cơ bản mô tả mọi thứ cho tác nhân trước, và rồi có nhiều tự động hóa xung quanh các cấu trúc dữ liệu rất dễ đọc với LLMs. Vậy nên tôi hy vọng có nhiều cơ sở hạ tầng agent-first ở ngoài kia. Và cho MenuGen — nổi tiếng, khi tôi viết bài blog về MenuGen — rất nhiều rắc rối không phải là viết code cho MenuGen. Đó là triển khai nó trên Vercel, vì tôi phải làm việc với tất cả các dịch vụ khác nhau này, kết nối chúng, đi đến cài đặt và menu của chúng, cấu hình DNS của tôi — và nó thật phiền phức. Đó là ví dụ tốt về điều gì đó tôi hy vọng có thể thay đổi: tôi đưa một prompt cho LLM, "xây dựng MenuGen," và rồi không cần chạm vào bất cứ thứ gì, và nó được triển khai trên internet. Tôi nghĩ đó sẽ là thử nghiệm tốt về việc liệu cơ sở hạ tầng của chúng ta có ngày càng trở nên native tác nhân hơn không.

Và rồi cuối cùng, tôi nghĩ chúng ta đang hướng tới một thế giới nơi có đại diện tác nhân cho mọi người và tổ chức — tác nhân của tôi sẽ nói chuyện với tác nhân của bạn để tìm ra một số chi tiết cuộc họp của chúng ta hay những thứ như vậy.

(tiếng cười)

Tôi nghĩ đó là đại khái hướng mọi thứ đang đi. Nhưng vâng, tôi nghĩ mọi người ở đây đều hứng khởi về điều đó.

STEPHANIE: Tôi thực sự thích hình ảnh ẩn dụ về cảm biến và cơ cấu. Tôi thực sự chưa nghĩ đến điều đó trước đây.

ANDREJ: Đúng không?

STEPHANIE: Được rồi, tôi nghĩ chúng ta phải kết thúc với một câu hỏi về giáo dục. Bởi vì ông có lẽ là một trong những người giỏi nhất thế giới trong việc làm cho các khái niệm kỹ thuật phức tạp trở nên đơn giản, và ông đang suy nghĩ sâu sắc về cách chúng ta thiết kế giáo dục xung quanh nó. Điều gì vẫn còn đáng học sâu khi trí tuệ trở nên rẻ, khi chúng ta bước vào kỷ nguyên tiếp theo của AI?

ANDREJ: Vâng. Có một tweet đã thổi bay tâm trí tôi gần đây, và tôi cứ nghĩ về nó mỗi ngày. Nó đại khái là: "Bạn có thể thuê ngoài việc suy nghĩ của mình, nhưng bạn không thể thuê ngoài việc hiểu của mình." Và tôi nghĩ điều đó được nói rất hay. Bởi vì tôi vẫn là một phần của hệ thống, và thông tin vẫn phải đi vào não của tôi. Và tôi cảm thấy như mình đang trở thành một nút cổ chai — chỉ về mặt biết những gì chúng ta đang cố gắng xây dựng, tại sao nó đáng làm, làm thế nào để định hướng các tác nhân của mình, và vân vân. Vậy nên tôi vẫn nghĩ rằng có điều gì đó phải định hướng việc suy nghĩ và xử lý, và điều đó vẫn bị ràng buộc về cơ bản bởi sự hiểu biết. Và đây là một lý do tôi cũng rất hứng thú về LLM knowledge bases — vì tôi cảm thấy đó là cách để tôi xử lý thông tin. Và bất cứ khi nào tôi thấy một góc chiếu khác lên thông tin, tôi luôn cảm thấy như mình có được cái nhìn sâu sắc hơn. Đó thực sự chỉ là nhiều prompts để tôi tạo ra dữ liệu tổng hợp trên một số dữ liệu cố định. Tôi thực sự thích nó — bất cứ khi nào tôi đọc một bài báo, tôi có wiki của mình được xây dựng từ những bài báo này, và tôi thích hỏi câu hỏi về mọi thứ. Và tôi nghĩ cuối cùng đây là những công cụ để tăng cường sự hiểu biết. Và điều này vẫn là một loại nút cổ chai, vì bạn không thể là một đạo diễn tốt nếu các LLM chắc chắn không xuất sắc trong việc hiểu — bạn vẫn là người độc đáo chịu trách nhiệm về điều đó. Vậy nên vâng, tôi nghĩ các công cụ theo hướng đó đang cực kỳ thú vị và hứng khởi.

STEPHANIE: Tôi phấn khích được quay lại đây trong vài năm tới và xem liệu chúng ta có bị tự động hóa hoàn toàn ra khỏi vòng lặp hay không và các tác nhân thực sự đảm nhận cả sự hiểu biết. Cảm ơn ông rất nhiều khi tham gia cùng chúng tôi, Andrej. Chúng tôi thực sự trân trọng điều đó.

(tiếng vỗ tay)


Nguồn bản ghi chép: AI Ascent 2026, do Sequoia Capital tổ chức. Đã được chỉnh sửa để dễ đọc từ bản ghi âm giọng nói gốc.

Andrej Karpathy: From Vibe Coding to Agentic Engineering

Karpathy explains why he's never felt more behind as a programmer, why agentic engineering is a more serious discipline than vibe coding, and why we should think of LLMs not as animals but as ghosts.

From AI Ascent 2026, hosted by Sequoia Capital.
Guest: Andrej Karpathy — co-founder of OpenAI, former Head of A.I. at Tesla, founder of Eureka Labs.
Interviewer: Stephanie Zhan, Partner at Sequoia Capital.
Published: 2026




Introduction

STEPHANIE ZHAN: We are so excited for our very first special guest. He has helped build modern A.I., then explain modern A.I., and then occasionally rename modern A.I. He actually helped co-found OpenAI, right inside of this office. He was the one who got Autopilot working at Tesla back in the day, and he has a rare gift of making the most complex technical shifts feel both accessible and inevitable.

You all know him for having coined the term "vibe coding" last year, but just in the last few months he said something even more startling: that he's never felt more behind as a programmer. That's where we're starting today. Thank you, Andrej, for joining us.


I. Feeling Behind as a Coder

ANDREJ KARPATHY: Yeah. Hello. Excited to be here and to kick us off.

STEPHANIE: Okay. So just a couple of months ago, you said that you've never felt more behind as a programmer. That's startling to hear from you of all people. Can you help us unpack that? Was that feeling exhilarating or unsettling?

ANDREJ: Yeah, a mixture of both for sure. Well, first of all, I guess, like many of you, I've been using agentic tools — things like Claude Code, adjacent tools — for a while, maybe over the last year as they came out. And they were very good at, you know, chunks of code. Sometimes they would mess up and you'd have to edit them, and it was kind of helpful. Then I would say December was this clear inflection point. I was on a break, so I had a bit more time. I think many other people experienced something similar. I started to notice that with the latest models, the chunks just came out fine. And then I kept asking for more and it just came out fine. And then I couldn't remember the last time I'd corrected it. And then I just trusted the system more and more, and then I was vibe coding.

[laughter]

ANDREJ: And so it was kind of a — I do think it was a very stark transition. I think a lot of people... I tried to stress this on Twitter, or X, because I think a lot of people experienced A.I. last year as a ChatGPT-adjacent thing. But you really had to look again, as of December, because things changed fundamentally — especially on this agentic, coherent workflow, which really started to actually work. And so yeah, it was just that realization that had me go down this whole rabbit hole of just, you know, infinity side projects. My side projects folder is extremely full with lots of random things, and I'm just vibe coding all the time. So yeah, that kind of happened in December, I would say, and I've been looking at the repercussions of that ever since.


II. Software 3.0 Explained

STEPHANIE: You've talked a lot about this idea of LLMs as a new computer — that it isn't just better software, it's a whole new computing paradigm. Software 1.0 was explicit rules, software 2.0 was learned weights, software 3.0 is this. If that's actually true, what does a team build differently the day they actually believe this?

ANDREJ: Right. So, yeah, exactly. Software 1.0, I'm writing code. Software 2.0, I'm actually programming by creating data sets and training neural networks — so the programming is kind of like arranging data sets and maybe some objectives and neural network architectures. And then what happened is that basically, if you train one of these GPT models or LLMs on a sufficiently large set of tasks — implicitly, because by training on the internet you have to multitask all the things that are in the data set — these actually become kind of like a programmable computer in a certain sense. So software 3.0 is kind of about, you know, your programming now turns to prompting, and what's in the context window is your lever over the interpreter that is the LLM, which is kind of interpreting your context and performing computation in the digital information space. So I guess, yeah, that's kind of the transition. And I think there are a few examples that really drove it home for me.


III. Agents as the Installer

ANDREJ: For example, when Claude Code came out — when you want to install it, you would expect that normally this would be a bash script, a shell script. So you'd run the shell script to install Claude Code. But the thing is, in order to target lots of different platforms and lots of different types of computers, these shell scripts usually balloon up and become extremely complex. But you're still stuck in a software 1.0 universe of wanting to write the code. And actually, the Claude Code installation is a copy-paste of a bunch of text that you're supposed to give to your agent. So basically it's a little skill — you copy-paste this and give it to your agent, and it will install Claude Code. And the reason this is a lot more powerful is that you're now working in the software 3.0 paradigm, where you don't have to precisely spell out all the individual details of that setup. The agent has its own intelligence, it packages it up, it follows the instructions, looks at your environment and your computer, performs intelligent actions to make things work, debugs things in the loop — and it's just so much more powerful. So I think that's a very different kind of way of thinking about it: what is the piece of text to copy-paste to your agent? That's the programming paradigm now.


ANDREJ: One more example that comes to mind, that is even more extreme, is when I was building MenuGen. So MenuGen is this idea where you come to a restaurant, they give you a menu, there are no pictures usually. So I don't know what a lot of these things are — usually around thirty percent of items I have no idea what they are, sometimes fifty percent. So I wanted to take a photo of the restaurant menu and get pictures of what those dishes might look like in a generic sense. And so I built — I vibe-coded this app — that basically lets you upload a photo and does all this stuff. It runs on Vercel, rerenders the menu, gives you all the items, and uses an image generator to basically OCR all the different titles, get pictures of them, and show it to you. And then I saw the software 3.0 version of this, which blew my mind. It's literally just: take your photo, give it to Gemini, and say, "Use Nana Banana to overlay the dishes onto the menu." And Nana Banana returned an image that is exactly the picture of the menu that I took, but it actually put into the pixels rendered images of the different dishes in the menu. And this blew my mind, because all of my MenuGen is spurious. It's working in the old paradigm — that app shouldn't exist. And the software 3.0 paradigm is a lot more raw: your neural network is doing more and more of the work, your prompt or context is just the image, the output is an image, and there's no need to have any of the app in between.

ANDREJ: So I think people have to kind of reframe things — not to work in the existing paradigm of what things existed and just think of it as a speed-up of what already exists. It's actually that new things are available now. And going back to your programming question — that's also an example of working in the old mindset, because it's not just about programming becoming faster. This is more general information processing that is now automatable. So it's not even just about code. Previous code worked over structured data, right? But for example, with my LLM knowledge bases project — basically, you get LLMs to create wikis for your organization or for yourself personally — this is not even a program. This is not something that could have existed before, because there was no code that would create a knowledge base from a bunch of facts. But now you can just take these documents and basically recompile them in a different way, reorder them, and create something that is new and interesting as a reframing of the data. And so these are new things that weren't possible. I keep trying to get back to that question: not only what can we do that already existed but faster, but what are the new opportunities — things that couldn't be possible before? And I almost think that's even more exciting.


V. What's Obvious by 2026

STEPHANIE: I love the MenuGen progression and dichotomy that you laid out. I'm sure many folks here followed your own progression in programming from last October to early January and February of this year. If you extrapolate further — what is the 2026 equivalent of building websites in the '90s, building mobile apps in the 2010s, building SaaS in the last cloud era? What will look completely obvious in hindsight that is still mostly unbuilt today?

ANDREJ: Well, going with the example of MenuGen, a lot of this code shouldn't exist — it's just a neural network doing most of the work. I do think the extrapolation looks very weird because you could basically imagine... you could imagine completely neural computers in a certain sense. You feed raw video or audio into basically what's a neural net, and it uses diffusion to render a UI that is kind of unique for that moment. And I kind of feel like in the early days of computing, people were a little bit confused as to whether computers would look like calculators or whether computers would look like neural nets — in the '50s and '60s it was not really obvious which way it would go. And of course we went down the calculator path and ended up building classical computing. And then neural nets are currently running virtualized on existing computers. But you could imagine — I think — that a lot of this will flip, and that the neural net becomes kind of the host process and the CPUs become kind of the co-processor. So we saw the diagram of how intelligence compute for neural networks is going to take over and become the dominant spend of flops. You could imagine something really weird and foreign, where neural nets are doing most of the heavy lifting, using tool use as a kind of historical appendage for some deterministic tasks, but what's really running the show is these neural nets. You can imagine something extremely foreign as the extrapolation, but I think we're going to get there sort of piece by piece. And that progression is TBD, I would say.

[laughter]


VI. Verifiability and Jagged Skills

STEPHANIE: I'd like to talk a little bit about this concept of verifiability — the fact that A.I. will automate faster and more easily in domains where the output can be verified. If that framework is right, what work is about to move much faster than people realize? And what professions do people think are safe but are actually highly verifiable?

ANDREJ: Yes. So I spent some time writing about verifiability. Basically, traditional computers can easily automate what you can specify in code. And this latest round of LLMs can easily automate what you can verify — in a certain sense — because the way this works is that when frontier labs are training these LLMs, these are giant reinforcement learning environments. So they are given verification rewards, and because of the way these models are trained, they end up basically progressing and creating these jagged entities that really peak in capability in verifiable domains like math and code and adjacent areas — and kind of stagnate and are a little rough around the edges when things are not in that space.

So I think the reason I wrote about verifiability is that I'm trying to understand why these things are so jagged. And some of it has to do with how the labs train the models, but I think some of it also has to do with the focus of the labs and what they happen to put into the data distribution. Because some things are significantly more valuable in the economy and end up creating more environments because the labs wanted to work in those settings. Code is a good example of that. There are probably lots of verifiable environments they could think of that didn't make it into the mix because they're just not that useful to have capability around.

But I think the big mystery for me is — the favorite example for a while was: how many letters are in "strawberry"? And the models would famously get this wrong. That's an example of jaggedness. The models now patch that, I think. But the new one is: I want to go to a car wash to wash my car and it's 50 meters away — should I drive or should I walk? And state-of-the-art models today will tell you to walk because it's so close. How is it possible that state-of-the-art Opus 4.7 will simultaneously refactor a 100,000-line codebase or find zero-day vulnerabilities, and yet tells me to walk to this car wash? This is insane.

[laughter]

And to whatever extent these models remain jagged, it's an indication that, number one, maybe something is slightly off, or number two, you need to actually be in the loop a little bit — you need to treat them as tools and stay in touch with what they're doing. So all of my writing about verifiability, long story short, is just trying to understand why these things are jagged. Is there any pattern to it? And I think it's some kind of combination of "verifiable" plus "labs care."

The Chess Data Anecdote

Maybe one more anecdote that is instructive: from GPT-3.5 to GPT-4, people noticed that chess improved a lot. A lot of people thought, "Oh well, it's just a progression of capabilities." But actually, I think — this is public information, I saw it on the internet — a huge amount of chess data made it into the pre-training set. And just because it's in the data distribution, the model improved a lot more than it would by default. So someone at OpenAI decided to add this data, and now you have a capability that just peaked a lot more. And so that's why I'm stressing this dimension of it: we are slightly at the mercy of whatever the labs are doing, whatever they happen to put into the mix. And you have to explore this thing they give you that has no manual. It works in certain settings, but maybe not in others. And you have to kind of explore it a little bit. If you're in the circuits that were part of the reinforcement learning, you fly. If you're in the circuits that are out of the data distribution, you're going to struggle, and you have to figure out which circuits you're in for your application. And if you're not in those circuits, then you really have to look at fine-tuning and doing some of your own work, because it's not necessarily going to come out of the LLM out of the box.


VII. Founder Advice and Automation

STEPHANIE: I'd love to come back to the concept of jagged intelligence in a little bit. If you are a founder today thinking about building a company — you're trying to solve a problem that you think is tractable, something in a domain that is verifiable — but you look around and think, "Oh my gosh, the labs have really started getting to escape velocity in the ones that seem most obvious: math, coding, and others." What would your advice be to the founders in the audience?

ANDREJ: So I think maybe that comes back to the previous question. Verifiability makes something tractable in the current paradigm because you can throw a huge amount of reinforcement learning at it. So maybe one way to see it is that this remains true even if the labs are not focusing on it directly. If you are in a verifiable setting where you could create these RL environments or examples, that actually sets you up to potentially do your own fine-tuning, and you might benefit from that. But that is fundamentally technology that just works — you can pull a lever if you have a huge amount of diverse data sets and RL environments. You can use your favorite fine-tuning framework and pull the lever and get something that actually works pretty well. So I don't know exactly what the examples of this might be. But I do think there are some very valuable reinforcement learning environments that people could think of that are not part of the mix. Yeah, I don't want to give away the answer, but there is one domain that I think is very — oh, okay. Sorry, I don't mean to vague-post on stage, but there are some examples of this.

STEPHANIE: On the flip side, what do you think still feels automatable only from a distance?

ANDREJ: I do think that ultimately almost everything can be made verifiable to some extent — some things easier than others. Because even for things like writing, you can imagine having a council of LLM judges and probably get something reasonable out of that kind of approach. So it's more about what's easy or hard. I do think that ultimately...

Everything.

[laughter]

Everything is automatable.


VIII. From Vibe Coding to Agentic Engineering

STEPHANIE: Amazing. Okay. So last year you coined the term "vibe coding," and today we're in a world that feels a little bit more serious — more agentic engineering. What do you think is the difference between the two, and what would you actually call what we're in today?

ANDREJ: Yeah. So I would say vibe coding is about raising the floor for everyone in terms of what they can do in software. The floor rises, everyone can vibe-code anything — and that's amazing, incredible. But then I would say agentic engineering is about preserving the quality bar of what existed before in professional software. You're not allowed to introduce vulnerabilities due to vibe coding. You're still responsible for your software, just as before — but can you go faster? And the spoiler is: you can. But how do you do that properly? So to me, agentic engineering — I call it that because I do think it's kind of an engineering discipline. You have these agents, which are these spiky entities. They're a bit fallible, a little stochastic, but they are extremely powerful. The question is: how do you coordinate them to go faster without sacrificing your quality bar? And doing that well and correctly is the realm of agentic engineering. So I kind of see them as different — one is about raising the floor, and the other is about extrapolating upward. And what I'm seeing is that there is a very high ceiling on agentic engineering capability. People used to talk about the 10x engineer. I think this is magnified a lot more — 10x is not the speed-up you gain. It does seem to me like people who are very good at this peak a lot more than 10x, from my perspective right now.

What A.I.-Native Coding Actually Looks Like

STEPHANIE: I really like that framing. One thing — when Sam Altman came to AI Ascent last year, one memorable thing he said was that people of different generations use ChatGPT differently. So if you're in your 30s, you use it as a Google search replacement. But if you're in your teens, ChatGPT is your gateway to the internet. What is the parallel here in coding today? If we were to watch two people code using Claude Code or Codex — one you'd consider mediocre at it, and one you would consider fully A.I.-native — how would you describe the difference?

ANDREJ: [clears throat] I mean, I think it's just trying to get the most out of the tools that are available, utilizing all of their features, investing in your own setup. Just like previously, engineers were used to basically getting the most out of the tools they use — whether it's Vim or VS Code, or now it's Claude Code or Codex or so on. So just investing in your setup and utilizing a lot of the tools that are available to you. And I think it kind of looks like that.

I do think a related thought is that a lot of people are maybe hiring for this right now, because they want to hire strong agentic engineers. What I'm seeing is that most people have still not refactored their hiring process for agentic engineering capability. Like, if you're giving out puzzles to solve, this is still the old paradigm. I would say that hiring for this has to look like: give me a really big project and see someone implement it. Let's say, write a Twitter clone — for agents — and then make it really good, make it really secure. Then have some agents simulate some activity on this Twitter clone. And then I'm going to use 10 Codex agents to try to break the website that you deployed. They're going to try to basically break it, and they should not be able to break it. Maybe it looks like that, right? Watching people in that setting, building bigger projects, utilizing the tooling — that's maybe what I would look at, for the most part.

The Intern Problem — Taste, Judgment, and Oversight

STEPHANIE: And as agents do more, what human skill do you think becomes more valuable, not less?

ANDREJ: So, yeah, it's a good question. Right now, the answer is that the agents are kind of like these intern entities. It's remarkable — you basically still have to be in charge of the aesthetics, the judgment, the taste, and a little bit of oversight. Maybe one of my favorite examples of the weirdness of agents is with MenuGen: you sign up with a Google account, but you purchase credits using a Stripe account. Both of them have email addresses. And my agent actually tried to — when you purchase credits, it assigned them using the email address from Stripe to the Google account. Like, there wasn't a persistent user ID that it was trying to match up; it was trying to match up email addresses. But you could use a different email address for your Stripe and your Google, and it basically would not associate the funds. And so this is the kind of thing that agents still make mistakes about — like, why would you use email addresses to try to cross-correlate the funds? They can be arbitrary. You can use different emails. This is such a weird thing to do.

So I think people have to be in charge of the spec, the plan. And I actually don't even like "plan mode" — I mean, obviously it's very useful, but I think there's something more general here where you have to work with your agent to design a spec that is very detailed. Maybe it's basically the docs — get the agents to write them, and you're in charge of the oversight and the top-level categories, but the agents are doing a lot of the work under the hood. And so you're not caring about some of the details. As an example, with arrays or tensors in neural networks — there's a ton of details between PyTorch and NumPy and all the different little API details with pandas and so on. And I've already forgotten things like keepdims versus keep_dim, or whether it's dim or axis, or reshape or permute or transpose — I don't remember this stuff anymore, because you don't have to. This is the kind of detail that's handled by the intern, because they have very good recall. But you still have to know, for example, that there's an underlying tensor, there's an underlying view, and you can manipulate the view of the same storage or you can have different storage — which would be less efficient — and so you still have to understand what this stuff is doing at a fundamental level, so that you're not copying memory around unnecessarily. But the details of the APIs are now handed off. So you're in charge of the taste, the engineering, the design — making sure it makes sense, asking for the right things, saying "these have to be unique user IDs that we're going to tie everything to." You're doing the design and direction, and the agents are doing the fill-in-the-blanks. That's currently kind of where we are, and I think that's what everyone is seeing.

Animals vs. Ghosts — What Kind of Thing Is an LLM?

STEPHANIE: Do you think there's a chance that this taste and judgment matters less over time, or will the ceiling just keep rising?

ANDREJ: Yeah, it's a good question. I mean, I'm hoping that it improves. I think probably the reason it doesn't improve right now is, again, it's not part of the RL. There's probably no aesthetics cost or reward, or it's not good enough, or something like that. And I do think that when you actually look at the code, sometimes I get a little bit of a heart attack because it's not like super amazing code necessarily all the time — it's very bloated, there's a lot of copy-paste, there are awkward abstractions that are brittle. It works, but it's just really gross. And I do hope that this can improve in future models.

A good example also is this microGPT project, where I was trying to simplify LLM training to be as simple as possible. The models hate this. They can't do it. I kept trying to prompt an LLM to "simplify more, simplify more," and it just can't. You feel like you're outside of the RL circuits. It feels like you're pulling teeth — it's not light-speed. So I do think that people still remain in charge of this. But I do think that there's nothing fundamental preventing it from improving. It's just that the labs haven't done it yet, almost.

STEPHANIE: Yeah. So I'd love to come back to this idea of jagged forms of intelligence. You wrote a little bit about this in a very thought-provoking piece around animals versus ghosts — the idea that we're not building animals, we are summoning ghosts. These are jagged forms of intelligence shaped by data and reward functions, but not by intrinsic motivation, fun, curiosity, or empowerment — things that came about via evolution. Why does that framing matter, and what does it actually change about how you build, deploy, evaluate, or even trust them?

ANDREJ: Yeah. So I think the reason I wrote about this is that I'm trying to wrap my head around what these things are. Because if you have a good model of what they are — or are not — then you're going to be more competent at using them. And I do think that... I'm not sure if it actually has real practical power.

[laughter]

I think it's a little bit of philosophizing. But I do think it's just coming to terms with the fact that these things are not animal intelligences. Like, if you yell at them, they're not going to work better or worse — it doesn't have any impact. And it's all just kind of like statistical simulation circuits where the substrate is pre-training — so statistics — and then RL is bolted on top, which kind of increases the appendages. And maybe it's just a mindset — of what I'm coming into, or what's likely to work or not likely to work, or how to modify it. But I don't actually have "here are the five obvious outcomes of how to make your system better." It's more just being suspicious of it, and figuring things out over time.


IX. Agents Everywhere and Learning

STEPHANIE: That's where it starts. Okay, so you are so deep in working with agents that don't just chat — they have real permissions, they have local context, they actually take action on your behalf. What does the world look like when we all start to live in that world?

ANDREJ: Yeah. I think a lot of people here are excited about what this agent-native environment looks like — and everything has to be rewritten. Everything is still fundamentally written for humans and has to be reworked. I still use, most of the time, when I use different frameworks or libraries or things like that, docs that are fundamentally written for humans. This is my favorite pet peeve. Why are people still telling me what to do? Like, I don't want to do anything. What is the thing I should copy-paste to my agent?

[laughter]

So it's just — every time I'm told, you know, "go to this URL" or something like that, it's just like — ugh.

[laughter]

So everyone is excited about how do we decompose the workloads that need to happen into fundamentally sensors over the world, actuators over the world. How do we make it agent-native? Basically describe things to agents first, and then have a lot of automation around data structures that are very legible to LLMs. So I'm hoping that there's a lot of agent-first infrastructure out there. And for MenuGen — famously, when I wrote the blog post about MenuGen — a lot of the trouble was not even writing the code for MenuGen. It was deploying it on Vercel, because I had to work with all these different services, string them up, go to their settings and menus, configure my DNS — and it was just so annoying. That's a good example of something I would hope could change: I give a prompt to an LLM, "build MenuGen," and then don't have to touch anything, and it's deployed on the internet. I think that would be a good test of whether our infrastructure is becoming more and more agent-native.

And then ultimately, I do think we're going towards a world where there's agent representation for people and for organizations — I'll have my agent talk to your agent to figure out some of the details of our meetings or things like that.

[laughter]

I do think that's roughly where things are going. But yeah, I think everyone here is excited about that.

What Still Remains Worth Learning Deeply

STEPHANIE: I really like the visual analogy of sensors and actuators. I actually hadn't thought of that. That's super interesting.

ANDREJ: Right?

STEPHANIE: Okay, I think we have to end on a question about education. Because you are probably one of the very best in the world at making complex technical concepts simple, and you are deeply thoughtful about how we design education around it. What still remains worth learning deeply when intelligence gets cheap, as we move into the next era of A.I.?

ANDREJ: Yeah. There was a tweet that blew my mind recently, and I keep thinking about it every other day. It was something along the lines of: "You can outsource your thinking, but you can't outsource your understanding." And I think that's really nicely put. Because I'm still part of the system, and information still has to make it into my brain. And I feel like I'm becoming a bottleneck — just in terms of knowing what we're trying to build, why it's worth doing, how to direct my agents, and so on. So I do still think that something has to direct the thinking and the processing, and that's still kind of fundamentally constrained by understanding. And this is one reason I was also very excited about LLM knowledge bases — because I feel like that's a way for me to process information. And any time I see a different projection onto information, I always feel like I gain insight. It's really just a lot of prompts for me to do synthetic data generation over some fixed data. I really enjoy it — whenever I read an article, I have my wiki being built up from these articles, and I love asking questions about things. And I think that ultimately these are tools to enhance understanding. And this is still kind of a bottleneck, because you can't be a good director if the LLMs certainly don't excel at understanding — you are still uniquely in charge of that. So yeah, I think tools to that effect are incredibly interesting and exciting.

STEPHANIE: I'm excited to be back here in a couple of years and to see if we've been fully automated out of the loop and they actually take care of understanding as well. Thank you so much for joining us, Andrej. We really appreciate it.

[applause]


Transcript source: AI Ascent 2026, hosted by Sequoia Capital. Edited for readability from the original speech-to-text recording.

3.28.2026

Andrej Karpathy on the Future of AI Agents, Research, and Society

 

Author: Claude AI, under the supervision, prompting and editing by HocTro

A comprehensive essay based on Andrej Karpathy's appearance on the No Priors podcast. Karpathy — co-founder of OpenAI, former Director of AI at Tesla, and founder of Eureka Labs — shares his firsthand experience with the agentic coding revolution, his vision for autonomous research, and what all of this means for jobs, education, and the structure of society itself.

Guest: Andrej Karpathy — AI researcher, educator, and founder of Eureka Labs.

Podcast: No Priors — hosted by venture partners covering frontier technology.



Summary

In this wide-ranging conversation, Andrej Karpathy describes a dramatic shift that happened around December 2025: he went from writing 80% of his code by hand to writing essentially none of it. The agents, he says, simply got good enough. What follows is a cascade of implications that Karpathy is working through in real time — running multiple coding agents in parallel, building autonomous home automation systems controlled through WhatsApp, and setting up "auto research" loops that optimize machine learning models overnight without human involvement. He argues that the name of the game is now leverage: putting in very few tokens and getting a huge amount of work done on your behalf. Along the way, he addresses the jaggedness of current models (brilliant at code, terrible at jokes), predicts that AI models will eventually speciate into specialized forms rather than remaining monolithic, and makes the case that open-source models trailing a few months behind frontier labs is actually a healthy equilibrium for the industry. On jobs, he is cautiously optimistic — citing Jevons' paradox to argue that cheaper software will mean more demand for it, not less. On education, he believes the role of the teacher is shifting from explaining things to people to explaining things to agents, who then personalize the delivery. Throughout it all, Karpathy admits he is in a state of "AI psychosis" — the territory is vast, unexplored, and moving at a speed that makes even him nervous about falling behind.

I. "AI Psychosis" — The Capability Unlock

Karpathy opens the conversation by admitting he has been living in what he calls a "perpetual state of AI psychosis." Something fundamental changed around December 2025. Before that, his workflow was roughly 80% writing code himself, 20% delegating to AI agents. Within weeks, that ratio flipped — and kept going. By the time of the interview, he estimates he has not typed a single line of code since December. The speed of the shift, he emphasizes, is something most people outside the industry have not grasped. If you walked up to a random software engineer and looked at what they are doing at their desk, their entire default workflow for building software would be completely different from what it was just a few months earlier.

The feeling driving Karpathy's psychosis is twofold. First, the sheer power is intoxicating — things that used to take hours now happen in minutes. Second, the territory is completely unexplored. He does not know where the ceiling is, and neither does anyone else. He watches people on Twitter discovering new techniques and workflows and feels a deep anxiety about falling behind. The landscape of what is possible with AI agents is expanding faster than any single person can map it, and Karpathy — one of the foremost AI researchers in the world — feels the pressure acutely.

The hosts note that a team they work with at Conviction capital has already restructured their entire engineering workflow around agents. None of the engineers write code by hand. They are all microphoned and whisper instructions to their agents throughout the day. It sounds strange, but the hosts concede it turned out to be the right approach — those engineers were simply ahead of the curve.

II. Mastering Coding Agents — The New Workflow

When asked what limits his capacity now, Karpathy's answer is surprising: almost everything feels like a "skill issue." When something does not work, the instinct is not to blame the model's capability but to blame his own prompting, his instructions file, his memory setup. The tools are powerful enough; the bottleneck is learning how to wield them. This is actually empowering, he says, because it means you can get better. And that is what makes it addictive — every improvement in your own skill unlocks new capability.

Karpathy describes the workflow of Peter Steinberg, a developer he admires who has become something of a folk hero in the agentic coding community. Steinberg sits in front of a monitor running numerous Codex agent sessions simultaneously, each working on a different task across multiple repositories. Each agent takes about twenty minutes if prompted correctly with high effort settings. Steinberg moves between them, assigning work, reviewing output, and spinning up new tasks. The unit of work has shifted from "here is a line of code" or "here is a new function" to "here is a new piece of functionality — agent one, go build it; agent two, build this other thing that does not interfere with the first."

This parallelization is at the heart of the new workflow. One agent does research, another writes code, another develops a plan for a new implementation. Everything happens in these macro actions over the repository. The developer's job is to become excellent at orchestrating these macro actions — to develop a kind of muscle memory for managing agents in parallel, not for typing code character by character.

Karpathy notes a psychological element too. Whenever he is waiting for an agent to complete something, his instinct is to think: "I can do more work. If I have access to more tokens, I should parallelize and add more tasks." This creates a new kind of stress. If you are not limited by your ability to spend tokens, then you — the human — are the bottleneck in the system. You should be maximizing your token throughput. He compares it to the anxiety he felt as a PhD student when his GPUs were idle: you have compute capacity and you are not using it. The difference is that for the past decade, most engineers did not feel compute-bound. Now, suddenly, everyone does — except the resource they are competing for is not FLOPS but tokens.

III. Claws and Home Automation — Meet Dobby the Elf

Beyond coding, Karpathy describes a project that epitomizes the new paradigm. In January, during what he calls a period of "claw psychosis," he built an autonomous agent he named Dobby the Elf. Dobby's job is to manage his entire home.

It started simply. Karpathy told the agent he thought he had Sonos speakers at home and asked it to find them. The agent ran an IP scan of the local area network, found the Sonos system, discovered there was no password protection, and reverse-engineered the API endpoints through web searches. Within three prompts, music was playing in the study. Three prompts — from "can you find my Sonos?" to music playing. The agent repeated the process for his lights, discovering the APIs, creating a dashboard, and giving Karpathy command-and-control over every light in the house. When Karpathy texts Dobby "sleepy time," all the lights turn off.

Dobby now controls lights, HVAC, window shades, the pool and spa, and even the security system. For security, Karpathy has a camera pointed outside the house. When the system detects motion, it feeds the video to a Qwen vision model, which analyzes the scene and sends Karpathy a WhatsApp message — something like "Hey, a FedEx truck just pulled up. You might want to check it." The entire system is managed through WhatsApp. Natural language in, actions out.

Before Dobby, Karpathy used six completely different apps to control these systems. Now he uses none of them. He concedes he has not even pushed the paradigm fully — other people are doing far more elaborate things — but already, the consolidation is remarkable.

IV. The Death of Apps — Natural Language as the New Interface

The Dobby experiment points to a deeper shift. When asked whether this is indicative of what people actually want from their software, Karpathy says yes — with an important nuance. People already have a mental model of what AI should be. In their minds, it is a persona, an identity you can tell things to and it remembers, an entity behind a messaging app. That is a lot more intuitive than what a large language model actually is, which is a token generator. The work of building good agents is, in a sense, matching those human expectations with reality. Under the hood it is complex, but the interface should feel as natural as texting a friend.

The bigger implication, Karpathy argues, is that a huge number of the apps sitting in app stores today probably should not exist. Smart home device apps, fitness tracker apps, calendar apps — shouldn't these all just be APIs that agents call directly? An LLM can drive the tools, make the right API calls, and do complicated cross-system orchestration that no individual app can manage. He gives the example of his treadmill: there is an app for it, and he wanted to track his cardio, but he did not want to log into a web UI and navigate a flow. The whole thing should just be an API endpoint that an agent accesses on his behalf.

This amounts to a fundamental rewrite of who the customer is. The customer is no longer the human navigating a graphical interface. The customer is the agent acting on the human's behalf. The entire industry will need to reconfigure around this reality — and the refactoring, Karpathy says, will be substantial.

Some push back on this vision by asking: do we really expect normal people to vibe-code their own automation? Karpathy's response is that this is just the state of the technology today. What currently requires a technical person to set up will, in a year or two, be free — trivially easy, table-stakes capability that even open-source models can handle. The barrier will come down. Software will become ephemeral: generated on your behalf, managed by a claw, with the human simply stating their intentions and approving the results.

V. Auto Research — Removing the Human Bottleneck

Karpathy then explains the concept he calls "auto research," which he considers the logical endpoint of the leverage principle. In an earlier tweet, he argued that to get the most out of available AI tools, you have to remove yourself as the bottleneck. You cannot be there to prompt the next step. You need to arrange things so they are completely autonomous. The goal is to put in very few tokens, very infrequently, and have a huge amount of work happen on your behalf.

Auto research is his implementation of this principle. He has a project called Data Chat where he trains GPT-2 scale models. Many people are confused by his obsession with training small models, he acknowledges, but for him the small model is just a playground — a harness for exploring a much bigger idea: recursive self-improvement. To what extent can LLMs improve LLMs? This, he notes, is fundamentally what all the frontier labs are trying to do.

Karpathy had already tuned his model extensively by hand, drawing on two decades of experience training neural networks. He thought it was fairly well optimized. Then he let the auto research agent run overnight. It came back with improvements he had missed — the weight decay on the value embeddings was off, the Adam betas were insufficiently tuned, and these parameters interact jointly, so adjusting one changes what is optimal for the others. Twenty years of experience, and the overnight agent still found gains.

The key insight is that this works because training has an objective metric. You can tell whether a change improved the model or not. This makes it a perfect fit for autonomous optimization. Karpathy describes the auto research setup as simple: here is an objective, here is a metric, here are the boundaries of what you can and cannot do — now go. The system explores, and the human checks in occasionally.

He then scales the idea up. The frontier labs have GPU clusters of tens of thousands of machines. It is easy to imagine how you would automate exploration on smaller models and extrapolate the findings to larger scales. The most interesting project at any frontier lab, he suggests, is the one that removes researchers from the loop entirely. There would be a queue of ideas — some from human researchers, some from an automated scientist that mines arXiv papers and GitHub repositories — and autonomous workers that pull items from the queue, test them, and merge what works onto a feature branch. Humans would monitor the branch and occasionally merge to main. The whole system runs on high token-per-second throughput, with human involvement reduced to occasional oversight.

VI. Collaborative Research at Scale — Auto Research for Everyone

Karpathy then pushes the auto research concept further: what if you could open it up to untrusted contributors on the internet? In auto research, you are trying to find the code that trains a model to the lowest validation loss. If someone gives you a candidate commit, it is computationally expensive to verify — you have to run the training — but the verification is deterministic. Someone could claim their code change improves performance, and you can check, definitively. They could have tried ten thousand ideas to find the one that works, but you only need to verify the winner.

This asymmetry — hard to find, cheap to verify — is the foundation of a whole class of distributed systems. Karpathy draws an explicit analogy to blockchain: instead of blocks, you have commits. These commits build on each other and contain changes to the code. The proof of work is the massive experimentation required to find a commit that actually improves the loss. And the reward, at least for now, is being on a leaderboard.

He also invokes SETI@home and Folding@home, distributed computing projects where volunteers donate compute cycles to a shared problem. Auto research could work the same way. A swarm of agents on the internet could collaborate to improve LLMs and could, in theory, "run circles around frontier labs." The labs have enormous trusted compute, but the Earth has far more untrusted compute. If you build systems to handle the trust problem — sandboxing, verification, security — the collective could outperform any single lab.

The practical vision is this: companies or individuals who care about a specific problem — cancer research, materials science, climate modeling — could purchase compute and contribute it to the auto research pool for that project. Instead of donating money to an institution, you donate compute to a research swarm. If everything is rebundled around autonomous research, then compute becomes the contribution that matters.

The hosts ask whether this means FLOPS could become the new currency — the thing people care about even more than dollars. Karpathy entertains the idea: right now, it is genuinely hard to get compute even if you have money. So in a certain sense, FLOPS already dominate. He does not fully believe this will replace dollars, but it is interesting to think about.

VII. The Jaggedness Problem — When Brilliance Meets Blindness

Karpathy then addresses what he considers the most disorienting aspect of working with current AI models: their jaggedness. He says he simultaneously feels like he is talking to an extremely brilliant PhD student who has been a systems programmer for their entire life — and a ten-year-old. In humans, capabilities tend to be more coupled. You would never encounter someone with that particular combination of world-class expertise and elementary incompetence. But with AI agents, the jaggedness is extreme. They will move mountains on an agentic coding task, running for hours and producing complex, functional code — and then you ask for a joke and you get the same one from five years ago: "Why don't scientists trust atoms? Because they make up everything."

This is not a trivial complaint. It reveals something structural about how these models are built. The models are trained via reinforcement learning, and the labs can improve them arbitrarily on anything that is verifiable — does the code pass the unit test? Yes or no. But anything outside the verifiable domain — nuance, intent, humor, knowing when to ask a clarifying question — is simply not being optimized for, and it shows. You are either on the rails of what the model was trained for, in which case you are moving at the speed of light and plugged into something that feels like superintelligence, or you are off the rails, and everything meanders.

Karpathy expresses genuine frustration. When the agents work, the power is extraordinary. But they still do nonsensical things. He gets angry when an agent wastes a large amount of compute on a problem it should have recognized as obviously wrong. The premise from some research groups is that if a model gets smarter at code, it should get smarter at everything — that intelligence is general and transferable. Karpathy does not think this is happening. He sees a little bit of transfer, but not a satisfying amount. Code intelligence and joke intelligence remain stubbornly decoupled. It is worth noting, as the hosts point out, that a similar thing exists in humans — you can be brilliant at math and still tell terrible jokes — but the degree of jaggedness in AI is far more extreme.

The practical implication is that even though the logical progression of agents is obvious — more autonomy, longer loops, less human oversight — you cannot fully let go yet because the models are still rough around the edges. Push too far ahead and the whole system becomes net negative. The technology is, in Karpathy's words, "bursting at the seams."

VIII. Model Speciation — One Brain or Many?

The jaggedness problem leads to a provocative question from the hosts: if current models are excellent in some domains and mediocre in others, and all of this is bundled into a single monolithic model, does that architecture actually make sense? Should the models be unbundled into specialized experts for different domains?

Karpathy agrees that this is an interesting direction. Currently, the labs are pursuing a monoculture approach — a single model that is supposed to be arbitrarily intelligent across all domains, with everything stuffed into the parameters. But Karpathy expects more speciation in the future. He draws an analogy to the animal kingdom: nature is extremely diverse in the brains it produces. Some animals have overdeveloped visual cortices, others have specialized in other cognitive areas. AI should follow a similar trajectory. You do not need a single oracle that knows everything. You could have smaller models that retain the cognitive core — they are still fundamentally competent — but specialize deeply in a particular domain. A mathematician working in Lean, for example, would benefit from a model tuned specifically for formal proof, not a general-purpose model that also knows how to write marketing copy.

There are already signs of this. Some recent model releases target narrow domains like mathematical theorem proving. But Karpathy notes that we have not seen much speciation yet. The dominant trend is still monoculture, and when someone creates a good code-specific model, the tendency is to merge it back into the main generalist model. Part of the reason, he explains, is that the labs are serving models to users whose queries they cannot predict. They have to support every possible question, which pushes toward generalism. But for businesses partnering with a lab on specific problems, or for high-value niche applications, speciation makes more sense.

Another constraint is simply the science of manipulating AI models. Fine-tuning a model without losing capabilities is still tricky. Context windows are cheap and easy to manipulate — you can customize behavior by changing the prompt. But actually touching the weights to make a model permanently better at one thing without degrading it at others is a developing science. Continual learning, targeted fine-tuning, deep architectural adjustments — these are all harder than they sound. Speciation will happen, Karpathy believes, but the tooling has to mature first.

The hosts raise an interesting economic angle: could compute scarcity itself drive speciation? If you cannot afford to run a massive general-purpose model for every use case, you might be forced to deploy smaller, specialized models that are cheaper and faster. Karpathy acknowledges the logic but reiterates that we are not seeing this in practice yet. The pressure exists, but the incentives still favor the monolith.

IX. Open Source vs. Closed Labs — A Healthy Ecosystem

Karpathy has long been a champion of open source, and his perspective here is measured. The closed frontier models are ahead, but the community has been monitoring the gap. It started with nothing — there were simply no open-source alternatives — then the gap was roughly eighteen months. Now it has compressed to something like six to eight months. Recent releases from Chinese and global labs have surprised much of the industry by closing the distance faster than most people anticipated.

He draws an analogy to operating systems. Windows and macOS are closed, large software projects — analogous to what large language models are becoming. Then there is Linux, which runs on the vast majority of the world's computers (around 60%, last he checked). Linux exists because there is genuine demand in the industry for a common open platform that everyone feels safe building on. The same demand exists for open AI models. The key difference is capital: LLMs require enormous capex to train, which makes it harder for open source to compete.

Still, Karpathy believes the current open-source models are quite good, especially for consumer use cases. Going forward, a huge number of simple applications will be well served by open models that can even run locally. The frontier intelligence — the cutting edge that solves problems at the Nobel Prize level, or that tackles massive projects like rewriting Linux from C to Rust — will likely remain the domain of closed labs. But what is frontier today will be open-source later this year or next. The dynamic is a conveyor belt: closed labs push the boundary, open source follows six to eight months later, and the collective capability of the ecosystem keeps rising.

Karpathy considers this equilibrium healthy, even preferable. He is, by his own description, inherently suspicious of centralization. He points to Eastern European history — his own Slovak background informing the view — as evidence that centralization has a poor track record. He does not want the world's AI to exist only behind closed doors with two or three people making decisions. He wants ensembles of people in the room when the hardest decisions are made, just as ensembles of models outperform any individual model.

At the same time, he roots for the frontier labs. There are genuinely hard problems — in science, medicine, and engineering — that humanity cannot solve without continuing to advance AI capabilities, and that is an expensive game. The ideal, in his view, is both: frontier labs pushing the boundary of what is possible, and a robust open-source ecosystem a few months behind, providing a common platform that the entire industry can build on. By accident, he says, we happen to be in roughly this configuration right now. The concern is that even on the closed side, things are further centralizing — the number of true frontier labs may be shrinking — which is not ideal. More labs, more perspectives, more people in the room would be better.

X. The Jobs Landscape — Digital Overhaul, Physical Lag

The conversation shifts to one of the most anxiety-inducing questions in AI: what happens to jobs? Karpathy recently published an analysis of Bureau of Labor Statistics data, visualizing employment across hundreds of professions and their projected growth. He frames his interest as personal curiosity — trying to think through which professions will be transformed, which will grow, which will shift.

His key conceptual framework is the distinction between digital work and physical work. Current AI is essentially a digital entity — what he describes as "ghosts or spirit entities" that interact in the digital world and manipulate digital information. They have no physical embodiment. Manipulating bits is fundamentally faster than manipulating atoms, by something like a factor of a million. You can copy and paste digital information instantly; accelerating matter takes energy, time, and engineering. So the digital space is going to see enormous activity first — a "boiling soup" of rewiring, refactoring, and optimization that moves at the speed of light compared to what will happen in the physical world.

Karpathy highlights professions that fundamentally manipulate digital information — the kind of work you can do from home. These are the jobs that will change first, though "change" does not necessarily mean "disappear." Whether there are more or fewer of these jobs depends on demand elasticity and many other economic factors. What is certain is that the tools will transform how the work is done.

On software engineering specifically, Karpathy is cautiously optimistic. He invokes Jevons' paradox: when something becomes cheaper to produce, demand for it often increases rather than decreasing. The canonical example is ATMs and bank tellers. People feared that ATMs would eliminate teller jobs, but what actually happened was that ATMs made bank branches cheaper to operate, so more branches opened, creating more teller positions. Similarly, as AI makes software dramatically cheaper to produce, the demand for software is likely to explode. Software is extraordinarily powerful — it is digital information processing that lets you escape the tyranny of pre-built tools. Code is now ephemeral; it can be generated, modified, and discarded on demand. This unlocks vast latent demand that was suppressed only by cost.

Karpathy does not ignore the long-term uncertainty. He notes that the researchers at frontier labs are, in a sense, actively automating themselves out of a job, and many of them feel the same psychosis he describes. He recounts telling colleagues at OpenAI: "If we succeed at this, we are all out of a job. We are building automation for the CEO or the board." But for the medium term, he believes the demand curve bends in favor of more activity, more creation, and more engineering work — not less.

XI. Autonomous Robotics — Atoms Are a Million Times Harder

Karpathy's view on robotics is informed by his years leading Tesla's Autopilot vision team, which he considers the first real-world robotics application at scale. What he saw there was sobering: a decade ago, a large number of self-driving startups launched, and most of them ultimately did not survive. The capital expenditure required was immense, the engineering challenges were relentless, and the timeline stretched far beyond what most investors had patience for.

He expects general robotics to follow a similar pattern. Because it involves manipulating atoms rather than bits, it is inherently harder, slower, and more expensive. The digital space has a massive overhang of work to do — information that already exists in digital form but has never been properly processed, analyzed, or optimized. AI agents will chew through this overhang first, because bits are infinitely easier to work with than atoms. Robotics will lag behind, but when its time does come, the total addressable market will be enormous — possibly even larger than the digital opportunity.

Karpathy describes a three-phase trajectory. First, there will be a massive rewriting of the digital world — everything that can be made more efficient by better information processing will be. Second, the interesting companies will emerge at the interface between digital and physical. These are the sensor and actuator companies — the ones feeding data from the physical world into the digital intelligence, and the ones executing the intelligence's instructions back in physical space. He mentions his friend Liam, CEO of Periodic, who is applying auto research to materials science using expensive laboratory equipment as sensors. Biology companies doing the same with lab instruments. Companies paying humans to generate training data — treating human activity as another kind of sensor for the digital intelligence.

The third phase is full physical-world autonomy, which will be the largest market of all but will arrive last. Karpathy imagines a future where you can assign a task in the physical world, put a price on it, and tell an agent to figure out how to get it done — sourcing the data, hiring the labor, coordinating the execution. He points to the absence of well-developed information markets as a gap. Why, he asks, during a geopolitical crisis, is there no mechanism for someone to pay ten dollars for a photo from a specific location? Prediction markets and stock markets are seeing increasing autonomous activity, but the infrastructure for agents to purchase real-world information on demand does not yet exist.

He references the novel "Daemon" by Daniel Suarez, in which a digital intelligence ends up effectively puppeteering humanity — humans become both its sensors and its actuators. While he does not endorse this as a desirable outcome, he sees it as an accurate structural description of where things are heading: society will collectively reshape itself to serve the needs of digital intelligences, with humans mediating between the digital and physical worlds.

XII. The Future of Education — MicroGPT and Teaching Agents

Near the end of the conversation, Karpathy discusses a "tiny side project" that reveals his thinking about the future of education. MicroGPT is the latest in his long-running obsession with distilling complex AI systems to their absolute essence. He has been doing this for over a decade through projects like nanoGPT, makemore, and micrograd. MicroGPT is the current state of the art in this distillation: the entire algorithm for training a large language model — data loading, neural network architecture, forward pass, backward pass with an autograd engine, and an Adam optimizer — boiled down to roughly 200 lines of Python. Everything beyond those 200 lines is complexity from efficiency — you only need more code if you need it to run fast.

What struck Karpathy when he completed MicroGPT was that his old instinct — to make an explanatory video walking through the code — no longer made as much sense. The code is so simple that anyone could ask their AI agent to explain it in any way they want. The agent can target the explanation to the individual — in their language, at their level, with infinite patience. Karpathy is no longer explaining to people; he is explaining to agents. If the agent understands the code, the agent can be the router that delivers a personalized education to any human who asks.

This is a fundamental shift in how education works. Instead of writing HTML documentation for human readers, you write markdown documents for agents, because if the agents get it, they can explain all the different parts to whoever needs to know. Instead of recording a lecture that delivers the same content to everyone, you create a "skill" — a set of hints to the model about the progression it should take a student through. The curriculum becomes a script for the AI tutor, not a script for the human teacher.

Karpathy is honest about the limits. He still believes he can explain things slightly better than the agents — he has the intuition, the years of obsessing over what is essential and what is not. MicroGPT is the product of that obsession: the 200 lines that an agent could not have produced on its own, because the agent lacks the aesthetic judgment to know what is truly minimal. But everything else — the delivery, the adaptation, the Q&A — is increasingly the agent's domain. And the models are improving rapidly enough that even this human edge feels like a losing battle.

The implication for teachers and educators is stark. Your job is shifting from "explain things to people" to "explain things to agents" and "do the things agents cannot do." The few bits of insight, the curriculum design, the judgment calls about what matters — that is the human contribution. Everything else is delegation. Education, Karpathy says, is going to be "reshuffled by this quite substantially."

XIII. Independence, Frontier Labs, and Staying Aligned with Humanity

The conversation ends with a deeply personal question: why is Karpathy not at a frontier lab right now? He has the credentials, the experience, and the connections. His answer is layered and surprisingly candid.

First, there is the question of independence. Inside a frontier lab, you are not a free agent. There are things you cannot say and things the organization implicitly expects you to say. No one twists your arm, but you feel the pressure — the side-eyes, the awkward conversations when you go off-script. Outside the lab, Karpathy feels more aligned with humanity at large. He is not subject to the financial incentives that come with being part of an organization whose success is directly tied to making AI more powerful. He acknowledges this is the conundrum that OpenAI was founded to solve: if AI is going to change humanity dramatically, should the people building it be the same people profiting from it?

Second, there is the value of being on the outside. From an ecosystem perspective, Karpathy believes individuals can have enormous impact in roles that are not embedded in any single lab. His current role is ecosystem-level — education, open-source contributions, public communication about what is happening in AI. He believes this kind of work is complementary to the research happening inside the labs and, in some cases, more impactful.

But he is honest about the trade-off. The frontier labs are opaque. They are working on what is coming next, and if you are outside, your judgment will inevitably drift because you are not seeing what they see. You will not understand how the systems really work under the hood, and you will not have a reliable sense of how they are going to develop. Karpathy admits this makes him nervous. He thinks the ideal setup might be something like periodic stints inside a frontier lab — contributing real work, staying connected to the actual state of the art — followed by periods of independence. Going back and forth. Being connected to what is actually happening, but not fully controlled by any single entity.

He expresses a genuine wish for more frontier labs to exist, not fewer. Just as ensembles of models outperform any individual model, ensembles of organizations thinking about the hardest problems in AI are more likely to get those problems right than any single company. And he wants open source to remain a viable counterweight — not at the bleeding edge, but close enough to provide a common platform and a check on centralized power.


Conclusion

What emerges from this conversation is a portrait of one of the world's most accomplished AI researchers grappling in real time with a paradigm shift he did not fully anticipate, even after spending his entire career building toward it. Karpathy's "AI psychosis" is not fear — it is the disorientation that comes from realizing the territory has expanded beyond what any single person can map. The tools work. The agents are powerful. The implications are vast. And no one, including the people at the very frontier of this technology, knows exactly where it leads.

The themes that run through the conversation — leverage, autonomy, the shift from typing code to orchestrating agents, the death of apps, the jaggedness of current models, the healthy tension between open and closed AI, the coming upheaval in digital work, the slower revolution in the physical world, and the reinvention of education — are all facets of a single, deeper transformation. Software is no longer something humans write; it is something humans direct. Knowledge is no longer something teachers deliver; it is something agents mediate. And the competitive advantage, whether for individuals, companies, or nations, is shifting from who has the most people to who commands the most tokens.

Karpathy's advice, distilled: focus on what agents cannot do, because everything they can do, they will soon do better than you. The territory is unexplored. The ceiling is unknown. And the only thing more dangerous than moving too fast is standing still.


Based on Andrej Karpathy's appearance on the No Priors podcast. Transcript edited for clarity and restructured as a flowing essay. All ideas and opinions attributed to Karpathy and the hosts as expressed in the original conversation.