RAGの検索精度を3軸で測ったら最適解が条件で全く変わった

python dev.to

RAGの検索精度を3軸で測ったら最適解が条件で全く変わった RAG(Retrieval-Augmented Generation)を組むとき、embeddingモデル・検索アルゴリズム・チャンクサイズの3つを「なんとなく」で選んでいないだろうか。 「BGE-M3が安定」「ベクトル検索で十分」「チャンクは500-1000文字」。よく見るアドバイスだ。しかし、この3軸を日本語テクニカルコーパスで実測したら、デフォルト設定の落とし穴が見えてきた。 E5-small(384次元)がBGE-M3(1024次元)より高品質で9倍速い。BM25は形態素解析を入れるだけでJ-Mean@3が5.50→8.97に跳ね上がり、300文字チャンクが600文字・1200文字に圧勝した。 最大のインパクトは「アルゴリズムの選択」ではなく、「日本語トークナイザが壊れていた」という基盤の問題だった。この記事では実測データを全て公開した上で、あなたの条件に合った構成の選び方を整理する。 実験の設計 コーパス 日本語テクニカル記事(Zenn/

Read Full Tutorial open_in_new
arrow_back Back to Tutorials