Retrieval-Augmented Generation / 検索拡張生成の実験
RAG(Retrieval-Augmented Generation)は、大規模言語モデル(LLM)の外部知識をリアルタイムで参照させる手法です。モデルの学習データに含まれない最新情報や、企業内・個人内のクローズドな知識に基づいた回答を可能にします。
当ラボでは、特に「ローカル環境における軽量モデル(Llama/Gemma等)」と「ベクトルデータベース」の組み合わせによる、プライバシーを重視したRAG構成の最適化を研究しています。
現在の実験環境で使用している主要なスタック:
multilingual-e5-largeChromaDB / FAISSLangChain / LlamaIndex