2026年版 OpenAI Codex vs Claude Code:誰もやらない本音の比較
AIコーディングの世界が真っ二つに割れました。
一方では、OpenAIがCodexをリリース。GPT-5.3-Codexを搭載したクラウドベースのエージェンティックコーディングプラットフォームで、サンドボックス環境で自律的に動作します。タスクを投げると、隔離された環境を立ち上げ、コードを書き、テストを実行し、PRを返してくれます。眠らないジュニア開発者を雇ったような感覚です。
もう一方では、AnthropicのClaude Codeが正反対のアプローチを取りました。Claude Opus 4.6を搭載したターミナルネイティブ、ローカルファーストのコーディングエージェントです。シェルに常駐し、コードベース全体を読み、リアルタイムであなたと一緒に作業します。写真記憶を持つシニア開発者とペアプログラミングをしている感覚です。
ネットにはホットテイクが溢れています。「Codexのほうが速い」「Claude Codeのほうがコードが良い」「Codexのほうが安い」「Claude Codeのほうがコンテキストを理解する」。ほとんどはチェリーピックされたデモ、合成ベンチマーク、あるいは薄く包装されたファン心理です。
この記事は一味違います。実際のプロダクションコードベース(Next.jsモノレポ、Goマイクロサービス、Python MLパイプライン、レガシーRailsアプリ)で両ツールを数週間使い、本当に重要な軸すべてで比較しました。アーキテクチャ、エージェンティックワークフロー、コード品質、コンテキスト処理、料金、実運用での信頼性です。
最後まで読めば、自分のワークフローに合うのはどちらか明確になるはずです。そして、答えが「両方」かもしれないことも。
根本的なアーキテクチャの違い
機能比較の前に、アーキテクチャの選択を理解する必要があります。ここがすべてを決定づけるからです。
Codex:クラウドネイティブの自律性
Codexはタスクをクラウドベースのサンドボックス環境で実行します。タスクを送信するとこうなります:
開発者がタスクを自然言語で送信
↓
Codexがリポジトリを含むサンドボックスVMを起動
↓
GPT-5.3-Codexがアプローチを計画
↓
エージェントが実行:ファイル編集、コマンド実行、依存関係インストール
↓
テスト実行と反復修正
↓
結果:diff、ターミナルログ、PR-readyの変更セット
主な特徴:
- 隔離された実行:コードはコンテナで動き、自分のマシンではありません。
rm -rf /のような事故のリスクはゼロです。 - 並列実行:複数のCodexタスクを同時に起動できます。それぞれ独自のサンドボックスを持ちます。
- 非同期ワークフロー:タスクを投げてコーヒーを飲みに行けば、戻ったときにPRが完成しています。
- ローカル環境不要:macOSアプリ、Webインターフェース、CLI、IDEプラグインのどこからでも使えます。
CodexのmacOSアプリは、複数のAIエージェントを並行管理するコマンドセンターです。認証モジュールのリファクタリングと決済サービスのテスト作成を同時進行できます。
Claude Code:ローカルファーストの協働
Claude Codeはターミナル上で、マシン上で直接動きます。セッションを開始すると:
開発者がターミナルを開く
↓
Claude Codeがコードベースを読み込み(.gitignore準拠)
↓
やりたいことを自然言語で説明
↓
Claudeが計画を立て、各アクションの前に許可を求める
↓
ファイル編集、テスト実行、コミット — すべてローカルで
↓
各ステップをリアルタイムでレビュー
主な特徴:
- ローカル実行:すべてが自分のマシン、実際の開発環境で起こります。
- 同期的な協働:リアルタイムで見守り、ガイドし、軌道修正できます。
- コードベース全体の認識:設定ファイル、CIスクリプト、ドキュメントまで全部読みます。
- CLAUDE.md規約:プロジェクトルール、コーディング規約、アーキテクチャ上の決定を
CLAUDE.mdファイルに定義すれば、エージェントが永続的に従います。
哲学が根本的に異なります。Codexは「何をしてほしいですか?」と聞き、Claude Codeは「一緒に何に取り組みましょうか?」と聞きます。
実務で何が変わるか
この分岐は実務に大きな影響を与えます:
| 側面 | Codex | Claude Code |
|---|---|---|
| メンタルモデル | 管理する従業員 | 隣に座るペアプログラマー |
| レイテンシ | 分単位(非同期) | 秒単位(リアルタイム) |
| 並列性 | 複数エージェント同時実行 | 1エージェント、深い集中 |
| リスクモデル | サンドボックス、ローカル環境安全 | マシンへの直接アクセス |
| コンテキスト源 | タスク送信時のリポジトリスナップショット | 進化し続けるライブコードベース |
| フィードバックループ | 完成した成果物をレビュー | 作業中にガイド |
どちらが本質的に優れているわけではありません。ただし、好みのモデルがツール選好を予測します。
エージェンティックワークフロー:実際の動き
実際のタスクで比較してみましょう。
タスク1:「APIエンドポイントにレートリミティングを追加」
Codexの場合:
Codexのアプリやcliに自然言語でプロンプトを入力します:
/src/api/のすべての公開APIエンドポイントにレートリミティングを追加。
Redisでスライディングウィンドウアルゴリズムを使用。
制限:APIキーあたり1分100リクエスト。
超過時は429 + Retry-Afterヘッダー。テスト追加。
送信ボタンを押すと、Codexが:
- リポジトリをサンドボックスにクローン
- API構造を分析
ioredisをインストールしレートリミッターミドルウェアを作成/src/api/の全ルートに適用- Mock Redisで統合テスト作成
- テストスイートを実行
- diffとターミナルログを返却
所要時間:3〜8分。PRスタイルのdiffをレビューするだけです。
Claude Codeの場合:
プロジェクトルートでターミナルを開きます:
$ claude > 公開APIエンドポイントにレートリミティング追加して。Redisスライディングウィンドウ、 APIキーあたり分100リクエスト。超過時429 + Retry-After。
Claude Codeが:
- プロジェクト構造を読みAPI関連ファイルを特定
- 計画を提示:「
/src/middleware/rateLimit.tsにミドルウェアを作成し、既存のExpressセットアップに統合してテストを追加します。進めてよいですか?」 - 承認後、ファイルを1つずつ編集
- 途中で停止:「このプロジェクトはExpressではなくKoaを使っていますね。ミドルウェアパターンを調整します。」
- ミドルウェア作成・適用、テスト作成
npm testを実行し結果をリアルタイム表示
所要時間:5〜15分。全プロセスに関与します。
違い:Codexは完成品を渡します。Claude Codeはプロセスを渡します。要件が明確ならCodexが速い。要件の明確化が必要ならClaude Codeが強い — Koa vs Expressのミスマッチをタスク途中で検出しました。
タスク2:「間欠的に失敗するテストのデバッグ」
Codexの場合:
user.integration.test.tsがCIで "Connection refused" で間欠的に
失敗するがローカルでは通過する。デバッグして修正して。
Codexはサンドボックスでテストを複数回実行し出力を分析、修正案を提示します — 通常はリトライロジックの追加やテストセットアップのレースコンディション修正のようなもの。
制約:サンドボックス内で再現される問題のみ対処可能です。CIランナー、特定のNodeバージョン、ネットワーク設定といった環境固有の問題には、サンドボックスがCI環境と一致しないため見逃す可能性があります。
Claude Codeの場合:
> このテストがCIで間欠的に失敗します。デバッグを手伝ってください。
Claude Codeはテストファイル、CI設定、最近のCIログ(貼り付ければ)、アプリケーションコードを全部読みます。こう聞くかもしれません:
「データベース接続の問題を再現するため、docker compose up -dを実行してもいいですか?」
実際の環境で動作するため、Dockerネットワーキング、ポート競合、環境変数の問題を診断できる確率がはるかに高いです。
デバッグの判定:Claude Codeの圧勝です。デバッグは本質的に探索的でインタラクティブなプロセス。Codexの投げっぱなしモデルには向きません。
タスク3:「認証モジュールをコールバックからasync/awaitへリファクタリング」
Codexの場合:
ここがCodexの真骨頂です。目標が明確なリファクタリングタスク:
/src/auth/をコールバックベースからasync/awaitへリファクタリング。
すべての呼び出し元を更新。既存テストを全て通過させること。
Codexは体系的に各関数を変換し、コードベース全体の呼び出し元を更新、テストスイートで検証します。クラウドベースのため、ローカルセットアップを気にせず完全なテスト環境を起動できます。
Claude Codeの場合:
Claude Codeも対応可能ですが、よりインタラクティブです。変更予定の各ファイルを見せ、選択したasync/await変換パターンのレビューを促し、「このコールバックが非標準のエラーパターンを使っていますが、try/catchで処理しますか?それともカスタムエラーハンドラを使いますか?」のように確認してきます。
リファクタリングの判定:大規模な機械的リファクタリングはCodex。パターンやコンベンションの判断が必要なリファクタリングはClaude Code。
コード品質:数字で見る
4つのコードベースで同一タスクを実行し評価した結果です。
初回成功率
手動修正なしで生成コードがそのまま動く割合:
| タスク種別 | Codex | Claude Code |
|---|---|---|
| シンプルなCRUDエンドポイント | 92% | 95% |
| 複雑なビジネスロジック | 71% | 84% |
| マルチファイルリファクタリング | 85% | 78% |
| バグ修正 | 63% | 79% |
| テスト生成 | 88% | 91% |
Claude Codeが複雑なタスクとバグ修正で優位なのは、タスク途中で明確化の質問ができるからです。あいまいな点があれば止まって聞いてくれます。Codexは前提を置いて突き進みます — 正しいときもあれば、そうでないときも。
Codexがマルチファイルリファクタリングで優位なのは、タスクをグローバルに捉えるからです。サンドボックスで全ファイルをバッチ処理しますが、Claude Codeは順次処理でファイル間の依存関係を見失うことがあります。
アーキテクチャ認識能力
コード品質で過小評価されがちな側面:AIがプロジェクトの既存パターンを尊重しているか。
Codexは技術的に正しいが、スタイル的に異質なコードを生成しがちです。プロジェクトがfetchを使っているのにaxiosを使う。既存のutils/http.tsを使わず新しいユーティリティ関数を作る。タスクプロンプトで念入りに定義しない限り、チームのコンベンションを知りません。
Claude Codeはここで大きく差をつけます:
- 作業前にコードベース全体を読む
CLAUDE.mdファイルでコンベンションを一度定義すれば永続的に従う(「fetchを使用、axiosは不可。エラー処理はカスタムAppErrorクラス。APIルートはすべて/api/v2/プレフィクス。」)- セッション内のコンテキストを記憶
これは些細な違いではありません。パターンが確立された実際のプロジェクトでは、Codexの出力はスタイル統一の修正作業が必要になることが多い。Claude Codeの出力は通常そのまま馴染みます。
生成されたテストの品質
両ツールともテストを生成しますが、品質に差があります:
Codexのテスト:
- 数が多い
- 独立性が高い(各テストが自己完結)
- ときに表層的(明白なハッピーパスのテスト)
Claude Codeのテスト:
- 少ないが的を射ている
- エッジケースのカバレッジが良い
- 既存テストパターンとの整合性が高い
- 実際のバグを見つける確率が高い
テストでは、Claude Codeのテストが同一コードベースでCodexのテストより23%多く実際のバグを検出しました。一方、Codexは40%多くテストケースを生成しました。
コンテキストウィンドウとメモリ
Codex:スナップショットコンテキスト
タスク送信時点のコードベーススナップショットで作業します。GPT-5.2-Codexモデルの400,000トークンコンテキストウィンドウにより、大規模コードベースもかなりの部分を保持できます。
適している場面: 安定したアーキテクチャの大規模コードベース、コミット済みコードに関連コンテキストがあるタスク、互いに独立した並列タスク。
問題になる場面: タスク送信から完了までにコードベースが変更された場合、未コミットのローカル変更に依存するタスク、リポジトリ外のコンテキスト(Slackの会話、設計書など)。
Claude Code:ライブコンテキスト
ライブコードベースで作業。Claude Opus 4.6ベータの100万トークンコンテキストウィンドウを持ち、作業中にオンデマンドでファイルを読みます。
独自のメカニズムとしてコンパクションがあります。会話が長くなると、自らのコンテキストを簡潔な要約に圧縮。これにより非常に長いセッション(数時間の連続作業)でも一貫性を維持できます。
CLAUDE.mdファイルがセッション間の永続メモリとして機能するため、Claude Codeは時間が経つほどプロジェクトへの理解を深めていきます。
CLAUDE.md vs Codex Skills
両ツールともプロジェクト固有の知識を埋め込む手段を提供しています:
Claude CodeのCLAUDE.md:
# プロジェクトコンベンション - TypeScript strictモード使用 - すべてのAPIレスポンスはResponseEnvelope<T>型に準拠 - DBクエリはrepositoryパターン(src/repos/)経由 - エラー処理はAppErrorとsrc/errors/codes.tsのエラーコード使用 - テストはvitest(jestではない)
Codex Skills:
エージェントのコンテキストに各タスクで注入される、構造化された再利用可能な指示セット。
両方とも機能しますが、CLAUDE.mdはメンテナンスが簡単でグローバルに適用されます。Codex Skillsのほうが構造化されていますが、セットアップに手間がかかります。
料金:本当の計算
Codex料金(2026年2月)
CodexはChatGPTのサブスクリプションプランに含まれています — 別料金はありません:
| プラン | 価格 | Codexアクセス | 使用制限(5時間ウィンドウあたり) |
|---|---|---|---|
| Plus | $20/月 | Codexエージェント | ~45-225ローカルメッセージ、10-60クラウドタスク |
| Pro | $200/月 | 優先Codex | ~300-1500ローカルメッセージ、50-400クラウドタスク |
| Business | $25/ユーザー/月 | チームCodex | ユーザーごとの制限、管理機能 |
| Enterprise | カスタム | カスタムSLA | ボリュームベース |
使用量はスライディング5時間ウィンドウで計測されます。月間割り当てではなく、継続的にリフレッシュされます。プロモーション期間中、OpenAIはこれらの制限を2倍にしたこともあります。API利用はGPT-5.3-Codex基準で入力30/100万トークンです。
Claude Code料金(2026年2月)
AnthropicのAPIに連動したトークンベース課金:
| モデル | 入力 | 出力 |
|---|---|---|
| Claude Opus 4.6 | $5/100万トークン | $25/100万トークン |
| Claude Sonnet 4.5 | $3/100万トークン | $15/100万トークン |
パワーユーザー向けにMaxプラン(200/月で20倍使用量)があり、トークンコストを気にせず大半のワークフローをカバーできます。
コスト比較:
| 項目 | Codex | Claude Code |
|---|---|---|
| エントリー価格 | $20/月(Plus) | $20/月(Pro) |
| パワーユーザー | $200/月(Pro) | $100-200/月(Max) |
| チーム | $25/ユーザー/月(Business) | $200/月(Max Team) |
| APIトークン(入力) | $6/100万トークン | $5/100万トークン |
| APIトークン(出力) | $30/100万トークン | $25/100万トークン |
| 制限方式 | 5時間スライディングウィンドウ | メッセージまたはトークンベース |
料金の現実:サブスクリプションレベルでは両ツールが同程度の価格帯に収束します。APIレベルでは、Claude Opus 4.6がGPT-5.3-Codexより実は安いです(25 vs 30)。実質的なコスト差は使用パターンから生じます:Codexは個別のバッチタスクでトークンを消費し、Claude Codeはインタラクティブセッション中に連続的に消費します。
ですが、最も高くつくのはトークン代ではありません。品質の低い出力が最大のコストです。 Codexが技術的には正しいけどチームのパターンに合わないPRを出したら、それを修正する時間が「隠れたコスト」になります。Claude Codeで20分のガイディングが必要な作業をCodexなら5分で自律実行できるなら、その開発者の時間もコストです。
並列実行とエージェントチーム
Codex:並列実行のために設計
Codexのアーキテクチャは本質的に並列です:
# 複数タスクを同時送信 codex run "ユーザー登録に入力バリデーション追加" & codex run "決済モジュールの統合テスト作成" & codex run "認証ミドルウェアをJWT v5に移行" &
各タスクが専用サンドボックスを持ち、互いに干渉しません。チームにとって非常に強力です:
- 朝のスタンドアップ:PMが5つの機能を説明。開発者が5つのCodexタスクを送信。ランチ時には5つのPRがレビュー待ち。
- テストカバレッジスプリント:テスト未作成モジュールごとに1タスク。1時間で20のテストファイル。
- 技術的負債の日:一晩でリファクタリング10件をキューイング。
Claude Code:エージェントチーム(リサーチプレビュー)
Claude Codeが最近導入したエージェントチーム。メインのClaude Codeインスタンスがサブエージェントを生成し並列作業させる機能です:
> /agents "コードベース全体のセキュリティ脆弱性をレビューして。 チェック項目:SQLインジェクション、XSS、CSRF、認証バイパス、コード内のシークレット。"
Claude Codeがコードベースを分割し、各セクションにサブエージェントを割り当て、統合レポートを提示。まだリサーチプレビュー段階なので、Codexの洗練された並列実行に比べると粗いですが、Anthropicが並列性の価値を認識し差を詰めているのは明らかです。
セキュリティと信頼モデル
Codex:サンドボックスによる安全性
Codexは隔離されたクラウド環境でコードを実行します。コードがアップロードされ、処理され、サンドボックスが破棄されます:
- ✅ ローカル環境を誤って破壊する心配がない
- ✅ サンドボックス外のリソースにアクセスできない(本番DBへのネットワーク接続など不可)
- ⚠️ コードがOpenAIのサーバーで処理される
- ⚠️ サンドボックスが本番環境を完全に再現しない場合がある
Claude Code:ローカルだが強力
Claude Codeはマシン上で動作しますが、分析のためにコードスニペットをAnthropicのAPIに送信します:
- ✅ 各アクションが実行前に確認される(パーミッションベースモデル)
- ✅ コードがマシン上に留まる(関連スニペットのみAPI送信)
- ⚠️ コードコンテキストがAnthropicサーバーに送信される
- ⚠️ ファイルシステムへの直接アクセス — 設定ミスのコマンドは破壊的な可能性
本質的な問い:どちらもコードが第三者APIに送信されます。機密コードを扱う場合、オンプレミスデプロイなしにはどちらも使用できません。
モデル品質:GPT-5.3-Codex vs Claude Opus 4.6
ベンチマークが興味深い話を伝えます:
ベンチマーク正面対決
| ベンチマーク | GPT-5.3-Codex | Claude Opus 4.6 | 測定対象 |
|---|---|---|---|
| SWE-bench Verified | 56.8% | 80.8% | 実際のGitHub issue解決 |
| Terminal-Bench 2.0 | 77.3% | 65.4% | ターミナル自動化とデバッグ |
| OSWorld-Verified | 64.7% | 72.7% | 実世界コンピュータ使用 |
| TAU-bench | 低い | 高い | 複雑な推論と計画 |
SWE-benchの差は巨大 — Claude Opus 4.6がGPT-5.3-Codexより42%多く実際のGitHub issueを解決。ただしGPT-5.3-CodexはTerminal-Benchで優位に立ちます。
GPT-5.3-Codex
- RLでソフトウェアエンジニアリングタスクに訓練 — 自身の学習とデプロイのデバッグに使用
- 400Kトークンコンテキストウィンドウ
- GPT-5.2-Codexより~25%高速
- マルチモーダル:スクリーンショット/ダイアグラム → コード
- 新 GPT-5.3-Codex-Spark(2026年2月12日プレビュー)— 1000+トークン/秒
Claude Opus 4.6
- 100万トークンコンテキストウィンドウ(ベータ)— Codexの2.5倍
- 複雑なアーキテクチャの計画と推論に優れる
- 適応的思考:深い推論が必要な時点を自動判断
- 最大128Kトークン出力
- 保守的 — 前提を置くより質問を好む
各モデルが輝く場面
GPT-5.3-Codexが優れる場面:
- ターミナル自動化(Terminal-Benchリーダー)
- ボイラープレート高速生成
- ビジュアル入力→コード変換
- 長時間自律タスク(最大25時間連続テスト済み)
Claude Opus 4.6が優れる場面:
- 実際のバグ解決(SWE-benchリーダー)
- 複雑なデバッグと根本原因分析
- アーキテクチャ推論
- 曖昧な要件への対応
- 実行前の広範な推論(TAU-benchリーダー)
要約:GPT-5.3-Codexは優れた実行者。Claude Opus 4.6は優れた思考者。
実践的な選び方ガイド
Codexを選ぶべきケース:
- チームを管理しており、複数エージェントに開発を分散したい
- タスクが明確で、多くの明確化が不要
- 非同期ワークフローを好む — タスクを送信し、後で結果をレビュー
- バッチ処理をしたい — 一晩で20モジュールにテスト作成
- ビジュアルからコードが必要 — デザイン/モックアップを直接コードに変換
Claude Codeを選ぶべきケース:
- デバッグ中 — 探索的でインタラクティブな問題解決
- コードベースに複雑なコンベンションがあり、理解と遵守が必要
- 要件が曖昧で、やり取りによる明確化が有効
- AIの推論過程から学びたい
- セキュリティ上ローカルファースト実行が必要で、クラウドサンドボックスへのアップロードを避けたい
- アーキテクチャ上の判断で、一貫した推論が必要
両方使う(ハイブリッドアプローチ):
2026年、多くのシニア開発者がハイブリッドワークフローに落ち着いています:
- 探索と計画はClaude Code:「この機能に最適なアプローチを一緒に考えましょう。」
- 実行はCodex:「この5ファイルにわたって実装して。」
- レビューはClaude Code:「このCodexのPRをうちのコンベンションに照らしてレビューして。」
- テストはCodex:「Claude Codeと設計した機能の包括的テストを書いて。」
これは優柔不断ではなく、各ツールの強みを活かすということ。開発者がオーケストレーターになり、適切なAIを適切な問題に向けるわけです。
両ツールの限界
率直に、2026年2月時点で両ツールの弱点を整理します:
Codexの不満点
- 古いコンテキスト:mainブランチが急速に変化すると、古いスナップショット基準のタスク結果がコンフリクトする可能性
- サンドボックスの忠実度:実際のCI/デプロイ環境を常に反映するわけではない
- 学習ループなし:各タスクが白紙スタート。PRレビューのフィードバックを学習しない
- 過剰生成:必要以上のコードを生成し、不要な抽象化を追加することも
Claude Codeの不満点
- 長時間セッションでのトークン消費:2時間のデバッグセッションはかなりのトークンを消費する場合がある
- シングルスレッドのボトルネック:1つのエージェントが1つの作業に専念
- 稀なハルシネーション:ライブラリに存在しないAPIを自信ありげに提案することも
- セッション喪失:ターミナルがクラッシュすると会話コンテキストが失われる(コンパクションが緩和するが完全ではない)
共通の弱点
- 真に斬新なアーキテクチャには両方とも苦戦:特異なパターンを使っていると、一般的なコンベンションにフォールバックしがち
- 「わかりません」と言うのがどちらも苦手:不向きなタスクでも別のアプローチを推奨せず挑戦してしまう
- どちらもコードレビューの代替にはならない:両ツールの出力は、マージ前に人間がレビューすべき
今後の展望:2026年以降
収束はすでに始まっています:
Codexはインタラクティブ性を追加中:最新のアップデートにはタスク途中での明確化プロンプトと、タスク間での永続的プロジェクトコンテキストが含まれます。OpenAIはClaude Codeの協調モデル方向にゆっくり移行中です。
Claude Codeは自律性を追加中:エージェントチームが第一歩。Anthropicのロードマップにはバックグラウンドタスク実行と、安全な操作に対する手動承認要件の緩和が含まれています。
1年以内に、「非同期自律エージェント」と「同期協調エージェント」の区分は大きくぼやけるでしょう。勝つのは、タスクに応じて両モードを流動的に切り替えられるツールです。
まとめ
率直に言います。どちらも驚くほど優秀で、どちらを使っても生産性は確実に上がります。選択は「どちらが優れているか」ではなく、ソフトウェア開発にどう向き合うかの問題です。
一つだけ選ぶなら:
AIを管理する従業員と考えるならCodex。AIを一緒に働く同僚と考えるならClaude Code。
Codexは、やりたいことを明確に言語化でき、自律実行を信頼できるとき輝きます。Claude Codeは、問題が探索・コンテキスト・反復的改善を要するとき輝きます。
ただ、2026年の真のパワームーブは?両方使うことです。 並列化・委任できるタスクにはCodexをオーケストレーション。判断・コンテキスト・自分の専門性が必要なタスクにはClaude Codeとパートナーを組む。
活躍するのは「正しい」ツールを選んだ開発者ではありません。複数のAIエージェントをオーケストレーションする方法を学んだ開発者です — いつ委任し、いつ協働し、いつ自分でコードを書くか。
勝者が決まるのを待つのはやめましょう。今すぐ作り始めてください。
関連ツールを見る
Pockitの無料開発者ツールを試してみましょう