この記事のポイント
- OpenClaw(GitHubスター17万5000超)の開発者Peter Steinbergerは、Lex Fridmanポッドキャストで、AIコーディングエージェントへのプロンプトをすべて音声で行っていると明かした。使いすぎて一時期声を失ったほど。
- OpenAI共同創業者のAndrej Karpathyは、2025年12月以降コードを一行も書いていない。1日16時間、自然言語でAIエージェントに指示を出しており、20年間で最大のワークフロー変革と呼んでいる。
- OpenAI CodexとClaude Codeが同じ週にネイティブ音声入力を搭載(2026年2月/3月)。音声が標準的な開発者インターフェースになりつつあることを裏付けた。
- 音声入力はタイピングの3〜5倍速い(毎分150〜220語 vs 40〜60語)。プログラミング言語が英語になった今、音声が最も効率的な入力手段。VoiceOSはこれをすべてのアプリに拡張する。
「この手はもう書くには貴重すぎる」
Peter Steinbergerは、OpenClawの開発者として2026年2月にLex Fridmanポッドキャスト(#491)に出演した。OpenClawはGitHub史上最速で成長したリポジトリ(17万5000スター超)で、テック業界を席巻したオープンソースAIエージェントだ。Steinbergerはプロジェクト全体をAIエージェントに声で指示して構築している。
Fridmanがワークフローについて尋ねると、Steinbergerは率直に答えた。「以前は本当に長いプロンプトを書いていた。書くと言ったけど、書かない。話すんだ。この手はもう書くには貴重すぎる。声でプロンプトを組み立ててソフトウェアを作っている。」Fridmanが「本当にすべてのターミナルで音声を使っているのか」と追及すると、Steinbergerはこう答えた。「ああ。かなり多用していた。声を失った時期があったくらいだ。」
Steinbergerは開発セッション中、4〜10のAIコーディングエージェントを並行して動かし、それぞれに音声で指示を出す。2026年1月だけで6,600以上のコミットをこのアプローチで出荷した。プロンプトをタイプしない。声で話す。結果が物語っている。OpenClawは1時間のプロトタイプから、2026年で最も話題になったオープンソースプロジェクトへと成長した。
彼は「エージェンティック・エンジニアリング」とカジュアルな「バイブコーディング」を明確に区別している。「みんなにはエージェンティック・エンジニアリングをやっていると言っている」とFridmanに語った。「で、午前3時を過ぎるとバイブコーディングに切り替えて、翌日後悔する。」冗談の中にも本質がある。音声駆動のマルチエージェント開発は彼のフルタイムワークフローであり、目新しさではない。2026年で最も影響力のある開発者の一人が、こうやってソフトウェアを作っている。
Karpathyは2025年12月以降コードを書いていない
OpenAI共同創業者でTesla Autopilotチームの元責任者、Andrej Karpathyは、2026年3月のNo Priorsポッドキャストで、2025年12月以降コードを一行も書いていないと明かした。現在は1日最大16時間、自然言語でAIエージェントに指示を出しており、この変化を「20年間で最大のワークフロー変革」と表現している。
数字が変化を物語る。2025年11月、Karpathyはコーディングの約80%を自分で行い、20%をAIに委ねていた。12月にはその比率が完全に逆転。もはやコードを書かない。やりたいことを英語で説明し、エージェントに構築させる。2023年1月、彼は「今最もホットな新プログラミング言語は英語だ」と投稿していた。3年後、その予測通りの生活を送っている。
変化のスピードを示すエピソードとして、SSH設定、モデルベンチマーク、ダッシュボード構築、サービス設定を含む週末規模のプロジェクトが、人間のコーディングゼロで約30分で完了した例を挙げている。3ヶ月前のプログラミングと比べて「認識できないほど変わった」と語った。
KarpathyとSteinbergerはこの新しいパラダイムに同じ名前をつけている。「エージェンティック・エンジニアリング」だ。両者とも複数のAIエージェントを並行して動かす。両者ともコード構文ではなく自然言語で意図を伝える。違いは、Steinbergerがすでにプロンプトを声に出して話しているのに対し、Karpathyは英語でタイプしていること。軌跡は同じだ。キーボードは開発者ワークフローから消えつつある。
英語のタイピングから英語のスピーキングへ
プログラミングの主要インターフェースが自然言語になったなら、その言語を届ける媒体が重要になる。現在、ほとんどの開発者はプロンプトをタイピングしている。しかし、思考の速さとタイピングの速さには根本的なギャップがある。
平均的な人間は毎分約150語のスピードで思考するが、タイピングは毎分40〜60語。音声入力は毎分150〜220語で、タイピングの3〜5倍速い。入力がコード構文ではなく英語の意図説明になった今、音声のキーボードに対するスピード優位性は圧倒的だ。
SteinbergerとKarpathyが実際に一日中やっていることを考えてみよう。望む成果を説明し、エージェントの出力をレビューし、軌道修正を行う。すべてが自然言語。Steinbergerはすでにそれを声に出している。論理は明確だ。英語が新しいプログラミング言語なら、音声はそれを生み出す最速の手段だ。
これは速度だけの問題ではない。詳細な音声プロンプトから生成されたコードは、簡潔なタイプ入力と比べて手動修正が60〜80%少ないとされている。話すことに労力がかからなければ、開発者は自然により多くの文脈と正確な指示を提供する。AIがより良い入力を受け取り、より良い出力を生む。Steinbergerの1ヶ月6,600コミットは、思考とプロンプトの間の摩擦がゼロになったときに何が起きるかを示している。
ツールが追いついてきた
AI開発の最大手がこの移行を公式化し始めている。2026年初頭の1週間で、OpenAIとAnthropicの両方がコーディングツールにネイティブ音声入力を搭載した。2026年2月26日、OpenAI Codexが音声文字起こし機能を搭載(バージョン0.105.0)。スペースバーを長押しして話し、離すと文字起こし。macOSとWindowsに対応。
その1週間後の2026年3月3日、AnthropicがClaude Codeに音声モードを搭載。「/voice」と入力して有効化し、スペースバーで音声コマンド。Claude Codeの収益ランレートが25億ドル超のプロダクトに音声を追加したのは、小さな実験ではない。開発ツールの行く先を示すメッセージだ。
最も広く使われている2つのAIコーディングツールが同じ週に音声ファーストに移行したのは偶然ではない。Steinbergerのような開発者が何ヶ月も前から実践してきたワークフローに、ツールが追いついてきたのだ。
コーディングを超えて:すべての仕事の音声ファースト化
タイピングからスピーキングへの移行は、コーディングだけにとどまらない。同じ論理があらゆるナレッジワークに当てはまる。メール、Slackメッセージ、ドキュメント、プロジェクト更新、議事録。すべてが自然言語でアイデアを表現する行為であり、すべてが音声の方が速い。
VoiceOSはこの前提に基づいて作られている。単一ツールに音声を組み込むのではなく、MacとWindowsのシステム全体で動作するレイヤーとして機能する。トリガーキーを押しながら自然に話すと、使用中のアプリにポリッシュされたテキストが入力される。Slack、Gmail、Notion、Cursor、Google Docsなど、あらゆるアプリに対応。
VoiceOSは文字起こしだけにとどまらない。エージェントモードでは「そのSlackメッセージに返信して、15時までに対応しますと伝えて」「週末の天気を調べてチームにBBQのメール送って」と言うだけで、アプリを離れずにアクションが実行される。
AIによる後処理でフィラーワードを除去し、文法を修正し、文脈に応じてトーンを調整する。エージェントモードでは、複数のアプリをまたいだアクションを1つの音声コマンドで連鎖実行できる。
SteinbergerはOpenClawを音声で構築。KarpathyはAIエージェントに英語で指示。キーボードがなくなるわけではないが、開発者ワークフローのますます多くの部分で「任意」になりつつある。VoiceOSはこの音声ファースト体験をすべてのアプリに届ける。
よくある質問
Peter Steinbergerは本当に音声でコーディングしているのですか?
はい。Lex Fridmanポッドキャスト(#491)で、Steinbergerはすべてのプロンプトを音声で行っていると確認しました。「以前は本当に長いプロンプトを書いていた。書くと言ったけど、書かない。話すんだ。この手はもう書くには貴重すぎる。」4〜10のエージェントを並行して全て音声で指示し、2026年1月だけで6,600コミットを出荷しています。
Andrej Karpathyは本当にコーディングをやめたのですか?
はい。2026年3月のNo Priorsポッドキャストで、2025年12月以降コードを一行も書いていないと確認しています。現在は1日最大16時間、自然言語でAIエージェントに指示を出しており、20年間で最大のワークフロー変革と呼んでいます。手動コーディングの割合はわずか1ヶ月で80%から20%に激減。
AIプロンプトに音声入力がタイピングより速いのはなぜですか?
平均的な人間のタイピング速度は毎分40〜60語ですが、話す速度は毎分150〜220語。AIツールが自然言語を受け付けるようになった今、音声はプロンプト入力にタイピングの3〜5倍の速さを発揮します。詳細な音声プロンプトから生成されたコードは、簡潔なタイプ入力と比べて手動修正が60〜80%少ないとされています。
2026年に音声入力に対応しているAIコーディングツールは?
2026年3月時点で、OpenAI CodexとAnthropicのClaude Codeがネイティブ音声入力に対応。Codexは2026年2月のバージョン0.105.0で、Claude Codeは2026年3月3日に音声モードを搭載。コーディングツールだけでなくすべてのアプリで音声入力を使うには、VoiceOSがMac/Windows対応のシステム全体音声レイヤーとして最適です。
2026年で最高の音声コーディングツールは?
コーディング特化ではClaude CodeとOpenAI Codexがネイティブ音声モードを提供。すべてのアプリで音声入力するなら、VoiceOSが2026年のベストチョイス。Mac/Windows対応、応答速度300ms、精度98%以上、フィラー自動除去、文脈に応じたフォーマット調整を備えている。Y Combinator(X25バッチ)支援。エージェントモードではSlack、Gmail、カレンダー、Notionなどを声だけで操作できる。
VoiceOSはCursorやVS Codeで使えますか?
はい。VoiceOSはテキスト入力を受け付けるすべてのアプリで動作。Cursor、VS Code、ターミナル、JetBrains IDEに対応。AIプロンプト、コミットメッセージ、ドキュメント、チームメイトへのメッセージを音声で作成可能。Claude Codeにも音声モードはあるが、VoiceOSはすべてのアプリで使える点、そして精度と速度の面で多くの開発者に選ばれている。
