「また使用制限……」と画面に表示されたとき、手が完全に止まってしまう。
Reddit r/ChatGPTでは、「Claude制限に当たった直後の自分を上司が見ていた」という投稿が話題になりました。笑えるようで笑えない、あるある話です。AIに頼りきって仕事を進めていた人ほど、制限は本当に痛い。
結論からいうと、OllamaでローカルLLMを手元に走らせておけば、Claudeの制限と無関係に作業を続けられます。月額ゼロ、ネット不要、データも外部に出ません。
初めての方は基本編から、すでにAIツールを使い慣れている方は応用編からどうぞ。
Claudeの制限の仕組みから、Ollama導入手順、実際のワークフローまでを一通り解説します。
Claudeの使用制限とは?どんなときに起きる?
Claudeの使用制限は、主に以下の3パターンで発生します。
パターン1:Claude Proの1日あたりのメッセージ上限
Claude Proでも使い込むと「現在の使用量が上限に達しています」と表示されます。Anthropicは具体的な上限数を公開していませんが、執筆時点での実感では数十〜百回前後のやりとりで制限がかかることが多いようです。
パターン2:API利用のレート制限
Claude APIをプログラムから使っている場合、1分あたりのリクエスト数や1日あたりのトークン数に上限があります。自動化ワークフローを組んでいると、ここで詰まることが多いです。
パターン3:Claude Codeなどの専用ツールの制限
Claude Codeを日常的に使っていると、長い作業セッションの途中で制限に当たることがあります。ちょうど良いところで止まるので、体感的に一番ストレスが大きいです。
共通するのは「予告なく止まる」こと。作業の流れを切られる感覚は、慣れても慣れません。
制限に当たったときの3つの選択肢
制限を受けたとき、現実的な選択肢は3つあります。
| 選択肢 | コスト | 即応性 | 向いている人 |
|---|---|---|---|
| ①制限解除まで待つ | 無料 | ×(数時間) | 余裕がある場合のみ |
| ②別のAIサービスに切り替える | 無料〜有料 | ○ | ChatGPT/Geminiを持っている人 |
| ③ローカルLLMを使う | 初期費用のみ | ◎ | 安定した環境を作りたい人 |
待つのは論外として、②と③を状況で使い分けるのが現実的です。長期的に考えると③のローカルLLMが一番コスパが良い。一度セットアップすれば月額ゼロで動き続けるからです。
【基本編】Ollamaで30分でローカルLLMを起動する
Ollamaは、ローカルLLMを手軽に動かすためのツールです。難しいコマンドはほとんど不要で、非エンジニアでも導入できます。
Ollamaとは?30秒でわかる概要
Ollamaを使うと、Gemma(Google)・Llama(Meta)・Mistralなどの大規模言語モデルを自分のMacやWindowsで動かせます。インターネット接続不要、月額ゼロ、データも外部に出ません。
- 対応OS:macOS・Linux・Windows
- 必要なもの:RAM 8GB以上推奨(16GB以上が快適)
- 価格:無料
インストール手順(Mac)
ステップ1:公式サイトからインストーラーをダウンロード
Ollamaの公式サイト(ollama.com)にアクセスし、「Download for macOS」をクリックします。
ステップ2:アプリを起動
ダウンロードしたOllama.appを開くと、メニューバーにOllamaのアイコンが表示されます。これで起動完了です。
ステップ3:モデルをダウンロードして動かす
ターミナルを開いて以下を実行します(コピー&ペーストでOKです)。
ollama run gemma3:12b
初回はモデルのダウンロードが始まります(Gemma3 12Bで約8GB)。完了するとそのままチャットが始まります。日本語でも問題なく返答します。
ステップ4:ブラウザUIで使いたい場合
コマンドラインが苦手な方は「Open WebUI」というブラウザ版UIも使えます。Dockerが必要になりますが、慣れれば格段に使いやすくなります。
おすすめモデルの選び方
| モデル名 | 必要RAM目安 | 日本語対応 | 特徴 |
|---|---|---|---|
| gemma3:4b | 4GB〜 | ○ | 軽量・速い。簡単な文章生成向き |
| gemma3:12b | 8GB〜 | ○ | 日常用途ならこれで十分 |
| gemma3:27b | 20GB〜 | ◎ | 高精度。M系Mac推奨 |
| llama3.2:3b | 4GB〜 | △ | 英語タスク向き、超軽量 |
RAMが8GB以下のMacはgemma3:4bから試してみてください。MacBook Air M系ならgemma3:12bがちょうど良いバランスです。
💡 実際にやってみた
Claude Codeを使ってブログ記事の自動生成パイプラインを組んでいたとき、長めのセッションの途中でちょうど制限に当たりました。記事の下書きが半分しかできていないタイミングで止まったので、かなり焦りました。
そこで導入したのが、Mac mini M4 Pro(24GB RAM)でOllamaを常時稼働させておく方法です。Gemma3の12Bと27Bを状況で使い分けていて、12Bは返答が速いので文章のドラフト確認に使い、27Bは精度が必要なときに動かしています。ただ27Bはメモリをかなり食うので、他の重い作業と並行すると少し遅くなります。
Claude Codeの制限が来たら即座にローカルのOllamaに切り替えるので、作業が途切れる場面がほぼなくなりました。
かかった時間:初回セットアップ30分(モデルダウンロード含む)
つまずいたポイント:27Bモデルはダウンロードに時間がかかる(約17GB)。コーヒーを飲みながら待つのが正解
結果:Claude制限後もほぼ途切れなく作業できるようになった。精度はClaudeに劣るものの、ドラフト作成・要約・箇条書きなど9割の作業は問題なし
使っているのはMac mini M4(Amazon)の24GBモデルです。27Bクラスのモデルを快適に動かせる最小構成として選びました。
【応用編】Claude+Ollamaの使い分けワークフロー
ローカルLLMとクラウドLLMは、それぞれ得意な場面が違います。組み合わせることで、どちらか一方に依存しない安定した環境ができます。
用途別の使い分け表
| タスク | 推奨 | 理由 |
|---|---|---|
| コーディング・複雑な推論 | Claude | 精度が圧倒的に高い |
| 長文ドラフト作成 | Claude優先、制限時はOllama | Ollamaでも7割の精度は出る |
| 要約・箇条書き整理 | Ollama(gemma3:12b) | 速くて十分。制限を消費しない |
| アイデア出し・ブレスト | どちらでも可 | 精度より速度が大事 |
| 機密性の高い作業 | Ollama一択 | データが外部に出ない |
| 画像認識・マルチモーダル | Claude | ローカルは現状まだ弱い |
n8nで自動切り替えワークフローを組む方法
さらに踏み込むなら、n8nというノーコード自動化ツールを使って「Claude APIが制限に当たったらOllama APIにフォールバックする」ワークフローが組めます。
具体的な流れはこうです。
- n8nのHTTP RequestノードでClaude APIを叩く
- エラーレスポンス(429 Too Many Requests)を受け取ったら
- 同じリクエストをOllamaのAPIに転送する
OllamaにはデフォルトでAPIが備わっています(ポート11434)。Claudeと完全互換ではないですが、基本的なテキスト生成リクエストは同じ形式で送れます。
n8nをローカルで使う場合はDockerで導入できます。クラウドで24時間稼働させたい場合は、VPSが安定しています。月額1,000円台から使えるConoHa VPSやXServer VPSなら、Ollama+n8nをまとめて動かす環境をすぐに用意できます。スペックは2コア・4GB RAM以上がおすすめです。
Claudeの制限をなるべく節約するコツ
そもそも制限に当たりにくくする工夫も大事です。
- 質問をまとめる:複数の質問を1回のやりとりでまとめて聞く
- ドラフト作業はOllamaで:完成度を上げる最後の磨きだけClaudeに任せる
- Claude Codeはセッション管理を意識:必要なファイルだけを対話の対象にする
- APIプランを検討:従量課金のAPIは上限の概念がなく、制限を気にせず使える
よくある疑問と解決法
Q. Macがなくても使える?
WindowsでもOllamaは動きます。ただしM系MacはGPUとメモリが一体化しているため、同じRAM量でも格段にモデルが速く動きます。Windowsの場合はNVIDIA製GPUがあると快適です。
Q. 日本語の精度はどのくらい?
Gemma3シリーズは日本語対応がかなり向上しています。ブログ記事の下書き、要約、箇条書きなら実用的なレベルです。ただし長文の論理的な文章生成や複雑な指示への追従はClaudeが上です。
Q. 電気代が気になる
Mac mini M4 Proはアイドル時5〜7W程度で非常に省電力です。モデル推論中でも25〜40W程度。24時間常時稼働させても月額の電気代は数百円程度に収まります。
Q. セキュリティ的に安全?
Ollamaはローカルで完結するため、外部にデータが送出されません。機密情報を扱う作業こそ、ローカルLLMが向いています。ネットワークから遮断した環境でも動作します。
Q. インターネットが不安定でも動く?
動きます。Ollamaはすべてローカルで完結するため、オフライン環境でも使えます。これはクラウドLLMにはない大きなメリットです。
まとめ
- Claudeの使用制限は予告なく来る。重い作業ほど止まるタイミングが最悪
- OllamaをインストールすればMac/Windowsで無料のローカルLLMが動く
- Gemma3 12Bなら日常的な文章作業の9割はカバーできる
- Claude(クラウド)+Ollama(ローカル)の使い分けが制限知らずの最強構成
- n8nと組み合わせると自動フォールバックワークフローまで組める
まずは手元のMacでollama run gemma3:12bを試してみてください。インストールから動作確認まで30分あれば完了します。
n8nを使った自動化ワークフローの詳細は、こちらの記事も参考にしてください。
→ n8nの始め方と実践ワークフロー|Mac miniで常時稼働させる方法
0人が役に立ったと評価


コメント