記事一覧へ
Sequoia Ascent 2026 での約 1 週間前のファイアサイドチャット。いくつかのハイライトを:
私が押し進めようとした最初のテーマは、LLM が以前存在したものを加速すること(コーディングなど)だけに関するものではないということです。新しい地平の 3 つの例:
1. **menugen**:LLM が完全に飲み込めるアプリ。古典的なコードは一切不要。画像を入力すると画像を出力し、LLM がそれをネイティブに実行できます。
2. **.sh スクリプトをインストールする代わりに .md スキルをインストールする**。ソフトウェアをインストールするような複雑な Software 1.0 の bash スクリプトをなぜ作るのでしょうか、インストール手順を言葉で書いて「これを LLM に見せてください」と言えばいい。LLM は英語の高度なインタープリターであり、インストールをあなたの環境にインテリジェントに対応させ、すべてをインラインでデバッグします。
3. **LLM ナレッジベース**は、古典的なコードでは*不可能*だったものの例です。なぜなら構造化されていないデータ(知識)の計算だからです。任意のソースから任意の形式で、単純なテキスト記事を含みます。
これらを押し進めた理由は、新しいパラダイムシフトでは明らかなことが常に、存在していたものをスピードアップするか何らかの形で改善する領域にあるからです。しかしここには、突然存在すべきではないかもしれない機能(1, 2)や、根本的に以前は不可能だった機能(3)の例があります。
2 番目の(継続的な)テーマは、LLM のでこぼこパターンを説明しようとすることです。単一のアーティファクトが同時に 1) 100,000 行のコードベースをコヒーレントにリファクタリングし、*かつ* 2) 洗車機まで歩いて車を洗うよう指示するのがどうして真実であり得るか。以前これについて、ドメインの検証可能性に関係すると書きました。ここではこれが経済学にも関係すると拡張します。収益/TAM が、RL 中のトレーニングデータ分布にフロンティアラボが何をパッケージするかを決定するからです。データ分布の中にいれば(RL 回路のレールの上にいれば)飛んでいますが、そうでなければ相対的にジャングルをマチェーテで開拓しています。まだ 100% 満足していませんが、LLM の機能の正確なモデルを構築することは継続的な闘いです。それが続いて...
最後のテーマはエージェントネイティブ経済です。センサー・アクチュエーター・ロジックへの製品とサービスの分解(1.0/2.0/3.0 すべての計算パラダイムに分割)、情報を LLM に最大限読み取りやすくする方法、急速に台頭するエージェントエンジニアリングとそのスキルセット、関連する採用慣行、CPU コプロセッサーの補助を受けながら大部分の計算を完全ニューラルコンピューティングが処理するという夢/ヒントなど。
ai-thinkingagent-opsbusiness-model
Karpathy × Sequoia Ascent 2026 — LLM の新地平とエージェントネイティブ経済
♥ 264↻ 28
原文を表示 / Show original
Fireside chat at Sequoia Ascent 2026 from a ~week ago. Some highlights:
The first theme I tried to push on is that LLMs are about a lot more than just speeding up what existed before (e.g. coding). Three examples of new horizons:
1. menugen: an app that can be fully engulfed by LLMs, with no classical code needed: input an image, output an image and an LLM can natively do the thing.
2. install .md skills instead of install .sh scripts. Why create a complex Software 1.0 bash script for e.g. installing a piece of software if you can write the installation out in words and say "just show this to your LLM". The LLM is an advanced interpreter of English and can intelligently target installation to your setup, debug everything inline, etc.
3. LLM knowledge bases as an example of something that was *impossible* with classical code because it's computation over unstructured data (knowledge) from arbitrary sources and in arbitrary formats, including simply text articles etc.
I pushed on these because in every new paradigm change, the obvious things are always in the realm of speeding up or somehow improving what existed, but here we have examples of functionality that either suddenly perhaps shouldn't even exist (1,2), or was fundamentally not possible before (3).
The second (ongoing) theme is trying to explain the pattern of jaggedness in LLMs. How it can be true that a single artifact will simultaneously 1) coherently refactor a 100,000-line code base *and* 2) tell you to walk to the car wash to wash your car. I previously wrote about the source of this as having to do with verifiability of a domain, here I expand on this as having to also do with economics because revenue/TAM dictates what the frontier labs choose to package into training data distributions during RL. You're either in the data distribution (on the rails of the RL circuits) and flying or you're off-roading in the jungle with a machete, in relative terms. Still not 100% satisfied with this, but it's an ongoing struggle to build an accurate model of LLM capabilities if you wish to practically take advantage of their power while avoiding their pitfalls, which brings me to...
Last theme is the agent-native economy. The decomposition of products and services into sensors, actuators and logic (split up across all of 1.0/2.0/3.0 computing paradigms), how we can make information maximally legible to LLMs, some words on the quickly emerging agentic engineering and its skill set, related hiring practices, etc., possibly even hints/dreams of fully neural computing handling the vast majority of computation with some help from (classical) CPU coprocessors.