RAGを用いた社内文書検索AIの開発・導入支援
社内規定・マニュアルが散在し「探す・問い合わせる」負荷が大きかった企業向け。自然言語で横断検索できるAIを導入し、問い合わせ対応と情報探索の負担を削減。実運用で管理部門の工数約30%削減を実現。
プロジェクトの課題 (The Problem)
クライアント企業では、社内規定や業務手順に関するマニュアルが膨大な量にのぼり、かつ複数のサイロ化されたストレージに散在していました。その結果、社員が必要な情報を探し出すための検索時間、および管理部門への問い合わせ対応の手間が恒常的なコストとなっていました。
従来のキーワード検索では「表記ゆれ」や「文脈の意図」を汲み取れないため、自然言語で質問でき、社内ドキュメントに基づいて正確に回答する直感的な検索システムが求められました。
解決策・アプローチ (The Solution)
最新のLLM(大規模言語モデル)とLangChain、そして高効率なベクトルデータベースを組み合わせた RAG(Retrieval-Augmented Generation)アーキテクチャ を設計し、社内専用のAIチャットボットを構築しました。

1. ドキュメントのチャンク化とベクトル化パイプライン
PDF、Word、社内Wikiなどの多種多様な社内ドキュメントを定期的にクロールし、意味のある段落(チャンク)に分割。それらを埋め込みモデル(Embedding Model)を用いてベクトル化し、専用のデータベースに格納するパイプラインをゼロから構築しました。
2. 精度の高いハイブリッド検索の実装
単純な意味類似度(ベクトル空間)での検索だけでなく、BM25などのキーワードベースの検索を組み合わせた「ハイブリッド検索アルゴリズム」を採用し、専門用語や製品名が検索から漏れないよう検索精度を高めました。
3. ハルシネーション(嘘)の抑制と引用元の提示
LLMが回答を生成する際、必ず「参照した社内ドキュメントのURLやページ番号」を回答に併記させるプロンプトエンジニアリングを徹底し、ハルシネーションのリスクを極限まで低減させる仕組みを取り入れました。
成果・インパクト (The Impact)
全社導入後、社員が目的のドキュメントを見つけ出すまでの平均時間が大幅に短縮され、管理部門(人事・総務・ITサポートなど)への「社内ルールの問い合わせ対応時間」を約30%削減することに成功しました。業務全体の生産性向上に直結するAIソリューションとして高い評価を獲得しています。