n8nでLinkedInリード獲得を自動化する全手順

n8nでLinkedInリード獲得を自動化する全手順 アイキャッチ画像 AI自動化

「LinkedInで見込み客を探したいけど、プロフィールを一件ずつ手でチェックするのは時間がかかりすぎる…」と感じたことはありませんか?

n8nというノーコード自動化ツールを使えば、LinkedInの検索からリスト記録、メール送付まで、一連の営業プロセスをほぼ完全に自動で動かせます。

結論として、n8n+LinkedInスクレイパー(Apifyなど)+AIを組み合わせると、毎朝9時に自動でリードリストが更新される仕組みが作れます。

初めての方は基本編から、すでにn8nを使っている方は応用編から読んでみてください。

この記事では、全体像の把握→必要ツール→ワークフローの組み方→AIによる精度アップ→よくあるトラブルの解決法、という流れで解説します。

n8nとLinkedInリード自動化とは?30秒で分かる仕組み

n8n(読み方:エヌエイトエヌ)は、ビジュアルなフローでワークフローを作れるノーコード自動化ツールです。

プログラムのコードを書かなくても、「ノード」と呼ばれるブロックを繋ぐだけで、複数のアプリを連携させた自動処理が作れます。

LinkedInとn8nを組み合わせた「リード獲得パイプライン」とは、次のような仕組みです。

  • 毎朝決まった時間にLinkedInで検索を自動で実行する
  • ターゲットのプロフィール情報を自動で取得する
  • AIが条件に合うリードかどうかを判定する
  • スプレッドシートに記録する(必要があればメールも送る)

この一連の流れが、人の手を使わず毎日動き続けるのがポイントです。

r/n8nコミュニティでは「完全自律型のLinkedInリード獲得パイプラインを構築した」という投稿が大きな反響を呼んでいます。「自分も同じ仕組みを作りたい」というコメントが多数ついており、n8n×LinkedIn自動化への注目が高まっています。

このパイプラインに必要なもの

まず、必要なツールと前提条件を整理しておきましょう。

必須ツール

  • n8n:ワークフロー自動化の核となるツール。セルフホスト版なら無料で使えます
  • Apify:LinkedInスクレイパーが充実した自動化プラットフォーム。無料トライアルから始められます
  • Googleアカウント:スプレッドシートへのリスト記録に使います
  • OpenAI APIキー:AI判定を入れる場合のみ必要です(応用編で解説)

あると便利なもの

  • LinkedInプレミアムアカウント:検索精度が上がり、表示件数も増えます
  • GmailまたはSMTPサーバー:メールでのアウトリーチを自動化する場合に必要です
  • 常時稼働できるサーバー(VPS):n8nを24時間動かすために必要です

n8nをVPS上で動かしたい方には、XServer VPSが月額1,569円〜で使えます。DockerをサポートしているVPSなので、n8nのインストールもコマンド数行で完了します。まずローカルで動作確認してからVPSに移行する流れがおすすめです。

なお、n8nのクラウド版(n8n.io)を使えばサーバーは不要ですが、月額20ドル〜かかります(執筆時点)。試してみるだけなら無料トライアルから始められます。

【基本編】パイプラインの全体像を把握する

ワークフローを組み始める前に、全体の流れをイメージしておきましょう。

このパイプラインは大きく4つのブロックで構成されます。

  1. トリガー:毎朝9時などのスケジュールで自動起動する
  2. データ取得:ApifyのLinkedInスクレイパーでプロフィール情報を取得する
  3. 絞り込み・判定:重複を除外し、条件に合うリードだけを通過させる
  4. アクション:スプレッドシートへの記録、またはメール送付を実行する

n8nのワークフロー画面では、これを左から右へノードをつなぐ形で表現します。フロー全体を視覚的に確認できるのが、n8nの大きな強みです。コードは一行も書かずに、次のような流れが作れます。

[Schedule Trigger](毎朝9時に起動)
    ↓
[HTTP Request: Apify](LinkedInプロフィールを取得)
    ↓
[Google Sheets: 既存リスト取得]
    ↓
[IF: 重複チェック](未登録のみ通過)
    ↓
[AI Node: リード判定](スコア70以上のみ通過)
    ↓
[Google Sheets: リスト追記]

まずこの全体像を頭に入れた上で、各ステップの設定を進めていきましょう。

【基本編】3ステップでワークフローを組む

ステップ1:Schedule Triggerでスタートを設定する

n8nのワークフロー画面を開き、「New Workflow」から新しいワークフローを作成します。

最初のノードとして「Schedule Trigger」を追加しましょう。設定はシンプルで、「Trigger Interval」を「Every Day」にして起動したい時刻を指定するだけです。

まずは毎日朝9時など、自分が確認しやすい時間に設定しておくと、動作確認がしやすくなります。

ステップ2:ApifyでLinkedInプロフィールを取得する

次に「HTTP Request」ノードを追加し、Apifyの「LinkedIn Profile Scraper」アクターを呼び出します。

Apifyの設定でよく使うパラメータはこの3つです。

  • searchUrl:LinkedInの検索結果URLを貼り付ける(役職・会社規模などで絞った検索URLをそのまま使う)
  • maxItems:1回あたり最大取得件数(最初は20〜50件程度がおすすめ)
  • proxyConfiguration:プロキシ設定(LinkedInの検出を避けるために必ず有効にする)

ApifyからのレスポンスはJSON形式で返ってきます。主なフィールドは「name(名前)」「headline(役職)」「companyName(会社名)」「profileUrl(LinkedInのURL)」です。

LinkedInの検索URLを作るコツは、LinkedIn上で実際に絞り込み検索をして、そのURLをそのままコピーすることです。「役職がCTO、業界がSaaS」のような条件で絞ると、取得精度が大きく上がります。

ステップ3:重複除去してスプレッドシートに記録する

同じプロフィールを何度も取得しないよう、重複チェックの仕組みを入れます。

「Google Sheets」ノードを2段階で使います。

  1. 1つ目のSheetsノードで、既存リストのプロフィールURLを全件取得する
  2. 「IF」ノードで、新規取得URLが既存リストにない場合だけ通過させる
  3. 2つ目のSheetsノードで、通過したリードを「Append Row」で追記する

スプレッドシートに書き込む列は、名前・役職・会社名・LinkedInのURL・取得日の5列を最低限入れておくと、後で活用しやすくなります。

これで基本的なパイプラインは完成です。毎朝9時になると自動で動き、新しいリードがスプレッドシートに追記されていきます。

💡 実際にやってみた

Mac mini M4 Pro(24GB)でDockerを使ってn8nを立ち上げ、LinkedInリード取得ワークフローを組んでみました。ApifyのアクターをHTTP Requestノードで呼び出し、Google Sheetsへの書き込みノードをつなぐだけで、基本的なパイプラインは約40分で完成しました。

最初につまずいたのはApify APIの認証設定です。APIトークンをHTTPヘッダーの「Authorization: Bearer ○○」形式で渡す必要があるのに、最初はリクエストBodyに入れようとして動きませんでした。n8nの「Credential」設定から「Header Auth」を選ぶのが正解でした。

もう一点、重複チェックで既存シートのデータをうまく配列として扱えず、「Code」ノードでJavaScriptを数行書いて対処しました。n8nはノーコードですが、複雑な処理はCodeノードで補えるので、ほぼどんな処理でも実現できます。

かかった時間:初期設定40分+デバッグ約1時間
つまずいたポイント:Apify APIの認証設定、重複チェックの配列処理
結果:Mac miniがヘッドレスで常時稼働しているため、毎朝9時に自動でリードリストが更新される環境が完成

【応用編】AIでリードの精度を引き上げる

基本のパイプラインが動いたら、次はAIによるリード判定を加えましょう。

「全員にアウトリーチする」から「本当に話すべき人だけに絞る」に変えるだけで、返信率が大きく変わります。

AIリード判定ノードの組み込み方

n8nには「OpenAI」ノードが標準搭載されています。Apifyで取得したプロフィール情報をOpenAIに渡し、ターゲット適合度を0〜100点でスコアリングさせます。

プロンプトの構成はシンプルです。

  • ターゲット条件を箇条書きで渡す(役職・会社規模・業界など)
  • プロフィール情報(名前・役職・会社名・概要)を変数で埋め込む
  • 「{“score”: 数値, “reason”: “理由を1文で”} のJSON形式のみで返してください」と明記する

この後、「IF」ノードでscoreが70以上のリードだけ次のステップに流します。70未満のリードは別シートに振り分けておくと、ターゲット設定を見直すときの参考になります。

ローカルLLMでAPI費用をゼロにする方法

OpenAI APIのコストが気になる方は、Ollamaで動かすローカルLLMを使うことも可能です。

n8nの「HTTP Request」ノードでOllamaのAPIエンドポイント(http://localhost:11434/api/generate)を呼び出す設定にするだけで、ほぼ同じことができます。

Gemma3 12Bモデルであれば、MacのM系チップ上でも十分な速度でリード判定が動作します。判定精度はGPT-4oのほうが高い傾向にあるため、まずローカルで試して精度が不足していればOpenAIに切り替える、という使い分けがおすすめです。

メール文章もAIで自動生成する

リードのプロフィール情報をAIに渡して、アウトリーチメールを自動生成する拡張もできます。

「このCTOが抱えていそうな課題」をAIに推測させ、それに合わせた文章を自動生成→「Gmail」ノードで送信、という流れです。

ただし、メール送信は相手に届いてしまうアクションです。最初はGoogle Sheetsへの記録だけにして、送信内容を自分で確認してから実行する運用をおすすめします。自動化を進めるほど、最後の確認ステップが大切になります。

n8nをVPSで24時間稼働させる

ローカルのMacでDockerを動かしている場合、MacをシャットダウンするとN8nも止まります。本番運用では常時稼働できるVPSが必要です。

Dockerでのセットアップを前提にするなら、ConoHa VPS(月額1,000円〜)でも十分動きます。メモリ1GBプランで最低限動作しますが、AI判定ノードも含めるなら2GBプランを選ぶと安定します。

よくあるトラブルと対処法

Q. LinkedInにIPブロックされた

Apifyのプロキシ設定を必ず有効にしましょう。プロキシなしで動かすと、数回のリクエストで検出されます。

1回の取得件数を50件以下に抑え、「Schedule Trigger」の実行頻度を1日1回にするだけで、ブロックされるリスクが大幅に下がります。

Q. Schedule TriggerがVPSで時刻通りに動かない

VPS環境でDockerを使う際、タイムゾーンの設定がズレていることがよくあります。docker-compose.ymlに以下の環境変数を追加しましょう。

GENERIC_TIMEZONE=Asia/Tokyo

この設定を入れると、日本時間で正しく動くようになります。

Q. AI判定の結果がJSON形式で返ってこない

プロンプトに「JSONのみで返してください」と明記しても、モデルによっては前後に余分な文章が付くことがあります。n8nの「Code」ノードを追加して、レスポンスからJSONを抜き出す処理を入れると安定します。

Q. Google Sheetsへの書き込みが遅い

リードを1件ずつ書き込んでいると、件数が増えるほど時間がかかります。「Batch」ノードでまとめてから「Append Row」に流すと、API呼び出し回数が減って速度が上がります。

まとめと次のステップ

n8nでLinkedInリード獲得を自動化するポイントをまとめます。

  • Schedule Trigger→Apify→重複除去→Google Sheetsの順にノードをつなぐのが基本構成
  • Apifyのプロキシ設定を必ず有効にして、LinkedInのブロックを回避する
  • AI判定(スコアリング)で質の高いリードだけを絞り込むと返信率が変わる
  • 24時間稼働にはVPSが必要。ローカルで動作確認してから移行するのが安全
  • メール送信など「相手に届く」アクションは、人間が確認するステップを残す

このパイプラインをベースに、HubSpotやNotionとの連携、Slackへの通知追加など、さらに拡張できます。n8nには200種類以上のインテグレーションがあるため、CRMとの連携も難しくありません。

n8nをこれから導入したい方は、まずDockerでのセットアップから確認しましょう。Mac miniやVPSへの導入手順は、n8nをDockerで導入する全手順の記事を参考にしてください。

コメント

タイトルとURLをコピーしました