ファイルを渡すだけで RAG が完成?サクっと始める RAG 構築と n8n での活用例

こんにちは、株式会社ジパンク太田です!

この記事は AIエージェント構築&運用 - Qiita Advent Calendar 2025 シリーズ2の22日目の記事として執筆しています。

今回は、RAG(Retrieval-Augmented Generation)構築のトレンド変化について紹介します。従来はVector Storeの用意やチャンキング戦略の検討など、多くの作業が必要でした。しかし最近では、ファイルをアップロードするだけでRAGを構築できるマネージドサービスが次々と登場しています。

本記事では、これらの新しいサービスを紹介し、さらにn8nを使ってオーケストレーションする方法を簡単に説明します。RAG構築をもっと手軽にしたい方の参考になれば幸いです。

注意

本記事の内容は2025年12月時点の情報に基づいています。サービスの仕様や価格は変更される可能性があるため、最新情報は各サービスの公式ドキュメントをご確認ください。

目次

従来の RAG 構築の手間

RAGを自前で構築しようとすると、以下のような作業が必要でした。

  • Vector Storeの用意: Pinecone、Weaviate、pgvectorなどのベクトルデータベースを選定・セットアップ
  • チャンキング戦略の検討: ドキュメントをどのように分割するか(サイズ、オーバーラップ、セマンティックチャンキングなど)
  • 埋め込みパイプラインの構築: テキストをベクトル化するためのエンベディングモデルの選定と実行環境の整備
  • 検索ロジックの実装: ベクトル検索、キーワード検索、ハイブリッド検索、リランキングなど

これらを一から構築するのは、正直なところ簡単な作業ではありませんでした。 特に、PDFやWordなど多様なドキュメント形式に対応する場合、前処理の実装も複雑になります。

トレンド:「ファイルをアップロードするだけ」でRAGを構築可能に

マネージド RAG サービスの登場

こうした背景から、RAG構築の抽象化が進んでいます。

2024年から2025年にかけて、OpenAIやGoogle Cloud、AWSなど各社がマネージドなRAG機能を提供し始めています。これらのサービスでは、ファイルをアップロードするだけで、チャンキング・埋め込み・検索が自動化されます。

さらに、これらのサービスではAgentic RAGを構築できることがスタンダードになりつつあります。

Agentic RAG とは

従来のRAGでは、ユーザーの入力をそのままベクトル化して検索していました。しかしAgentic RAGでは、LLMが検索プロセス全体を自律的に制御します。

具体的には以下のような動作をします。

  1. 検索の必要性を判断: 質問の内容によっては検索せず、モデルの知識だけで回答
  2. 検索クエリの自動生成: ユーザー入力をそのまま使わず、検索に適したクエリをLLMが生成
  3. 再検索ループ: 検索結果が不十分な場合、クエリを変えて再検索

これにより、単純なベクトル検索よりも高品質な回答が得られるようになっています。

例えば、Gemini APIのFile Search機能では、以下のようなフローでAgentic RAGが実現されています1

Gemini ドキュメントより引用: The indexing and querying process of File Search

上図のとおり、LLMが検索の必要性を判断し、適切なクエリを生成して、必要に応じて検索を繰り返しながら回答を生成していることが分かります。

ここまでの比較を図にすると、以下のようになります。

RAG 構築: スクラッチ vs マネージド (Gemini で生成)

主要サービスの比較

それでは具体的に、マネージドなRAG機能を提供している主要サービスの概要を見ていきましょう。 ここでは例として下記のようなサービスについて紹介します。

  • OpenAI Responses API (File Search)
  • Gemini File Search
  • Amazon Bedrock AgentCore + Amazon Bedrock Knowledge Bases + S3 Vectors

OpenAIのResponses APIは、従来のAssistants APIを進化させたものです。File Searchツールを使うと、ファイルをアップロードするだけで自動的にチャンキング・エンベディング・インデックス化が行われます。

主な特徴は以下のとおりです。

  • キーワード検索とベクトル検索を組み合わせたハイブリッド検索
  • 自動リランキング
  • 多様なファイル形式に対応

コスト2:

項目 価格
ベクトルストレージ $0.10 / GB / 日(最初の 1GB は無料)
File Search 呼び出し $2.50 / 1,000 呼び出し
入力トーク モデル従量課金

機能の詳細については、以下の公式ドキュメントを参照してください。

GoogleのGeminiもFile Search機能を提供しており、こちらもファイルアップロードだけでRAGが構築可能です。2025年11月6日にリリースされました。

主な特徴は以下のとおりです。

  • インデックス作成のみ課金($0.15 / 1Mトークン)
  • ストレージ・クエリ実行は無料
  • Geminiの長大なコンテキストウィンドウ(最大200万トークン)と組み合わせ可能

コスト3:

項目 価格
インデックス作成 $0.15 / 1M トーク
ストレージ 無料
クエリ実行 無料
推論 モデル従量課金

こちらも機能の詳細については、以下の公式ドキュメントを参照してください。

Amazon Bedrock AgentCore + Amazon Bedrock Knowledge Bases + S3 Vectors

AWSでは、以下のサービスを組み合わせてAgentic RAGを構築できます。

S3 Vectorsは2025年12月2日に一般提供が開始されたばかりの新サービスで、安価でコスパのよいベクトルストレージとして利用できます。

主な特徴は以下のとおりです。

  • Amazon Bedrock Knowledge Baseとの連携でサーバーレスなRAGを実現
  • S3 Vectorsの利用によりAWSエコシステム内で完結
  • Amazon Bedrock AgentCoreと組み合わせてAgentic RAGも可能
  • Wordドキュメントやエクセルにも対応

コストは下記ページを参考にしてください。

すでにAWS上に大量のデータを持つエンタープライズにとっては、データを外部に出すことなくRAGを構築できる点が大きな魅力です。

詳細は、それぞれのドキュメントを参照してください。

n8n と組み合わせる

RAGを構築した後は、問い合わせ用のインターフェイスが必要です。 インターフェイスの作り方は様々ですが、ここではSlackからRAGに問い合わせできるように、ワークフロービルダーのn8nを用いて簡単なワークフローを作成する例をご紹介します。

注意

ここでは n8n の基本的な使い方については触れません。n8n の公式ドキュメントやチュートリアルを参照してください。

n8n をオーケストレーターとして使うメリット

n8nは、ノーコード/ローコードのワークフロー自動化ツールです。RAGを活用したシステムを構築する際、n8nを使うと以下のメリットがあります。

  • ビジュアルでフローが分かる: ワークフローを図として可視化できる
  • API連携が簡単: HTTP Requestノードで任意のAPIと連携可能
  • トリガーやアクションを柔軟に設定できる: Slack、Discord、Webhookなど様々なサービスに対応

n8nからOpenAIのFile Searchを使う実装例を紹介します。

実装は下記の流れで進めます。

  1. Vector Storeの作成とファイルアップロード
  2. n8nワークフローの構築

1. Vector Store の作成とファイルアップロード

まず、OpenAIのダッシュボードまたはAPIVector Storeを作成し、ファイルをアップロードします。

操作はOpenAIのダッシュボードから、またはAPIを用いて実施します。

OpenAI ストレージダッシュボード画面例

2. n8n ワークフローの構築

例として、以下のようなワークフローを構築します。

  1. トリガーノード: Slackでメッセージ受信のイベントを検知
  2. OpenAIノード: OpenAI Responses APIを呼び出す
  3. アクションノード: 結果をSlackのチャンネルに送信

n8nワークフロー例

OpenAIのノードは以下のように設定します。 ポイントはオプションの Built-in ToolsFile Search > Vector Store IDs に先のステップで作成したVector StoreのIDを指定することです。 なお、ここではInstructionsには最低限のプロンプトのみ記載しているので、ケースに応じて適宜カスタマイズするとよいでしょう。

OpenAI ノード設定例

このように設定することで、Slackからのメッセージをトリガーにした簡易的なチャットボットを作成できます。OpenAI Responses APIのFile Search機能を活用し、回答を生成します。

まとめ:どう選ぶか

従来の方法 vs 新潮流

改めて、RAG構築の従来の方法とマネージドの方法を比較してみましょう。

観点 スクラッチ マネージド
初期構築の手間 高い 低い
カスタマイズ性 高い サービス依存
コスト構造 インフラ費用 API 従量課金
Agentic 機能 自前実装が必要 サービス側で提供

ユースケース別の判断基準

ユースケース毎に、どのサービスが適しているかをまとめます。 あくまで一例ですが、参考になれば幸いです。

  • 「とにかく早く、賢いエージェントを作りたい」
    • 推奨: OpenAI Responses API
    • 理由: サーバーサイドの状態管理(会話コンテキストの保持)とリランキング機能が優秀。開発工数を最小化できる
  • 「コスト重視で、Googleエコシステムを活用したい」
    • 推奨: Gemini File Search
    • 理由: 検索・ストレージ無料は圧倒的。ロングコンテキストとの使い分けで高いコストパフォーマンスを実現
  • AWS上に大量の社内ドキュメントがある」
    • 推奨: Amazon Bedrock AgentCore + Amazon Bedrock Knowledge Bases + S3 Vectors
    • 理由: データを移動させないセキュリティ上の利点。Bedrockとの連携でサーバーレスに実装可能

おわりに

RAG構築のトレンドは、「自前で構築する」から「マネージドサービスを活用する」へとシフトしつつあります。ファイルをアップロードするだけでRAGが完成し、Agentic RAGの仕組みも組み込まれている時代になりました。

一方で、これらのサービスを選ぶ際には、コスト構造やベンダーロックインについても考慮が必要です。各自の利用環境における要件に応じて、最適なサービスを選択できると良さそうです。

この記事が、皆さんのRAG構築の第一歩となれば幸いです。何かリクエストやフィードバックがありましたら、ぜひコメントやDMでお気軽にお寄せください!

最後までお読みいただきありがとうございました!