현황 (FTS only 벤치마크)
| 데이터셋 |
Corpus |
MRR |
문제점 |
| FiQA |
57,638 |
0.132 |
대규모 corpus에서 FTS 한계 |
| MultiLongDocRetrieval |
6,176 |
0.070 |
장문서 + 추론형 질의에 FTS 무력 |
| XPQARetrieval |
889 |
0.167 |
짧은 상품 QA 어휘 미스매치 |
| Ko-StrategyQA |
9,251 |
0.317 |
대규모 한국어 corpus |
Ablation 결과 인사이트
- S7 Auto+Embed가 S0 Flat 대비 MRR +41~90% 개선 → embedding이 핵심
- S8 LLM Full의 PhraseExtractor가 노이즈 유입 (MRR -6.8% vs S7)
- Hebbian이 소규모에서 +18.4% 기여
TODO
타겟
| 데이터셋 |
현재 MRR |
목표 MRR |
| FiQA |
0.132 |
0.40+ (embedding) |
| MultiLongDoc |
0.070 |
0.30+ (chunking + embedding) |
| Ko-StrategyQA |
0.317 |
0.50+ (embedding) |
🤖 Generated with Claude Code
현황 (FTS only 벤치마크)
Ablation 결과 인사이트
TODO
_phrase노드 제외 로직 검토타겟
🤖 Generated with Claude Code