武樋力哉 (Rikiya Takehi)

早稲田大学 学部4年生

Rikiya Takehi

早稲田大学酒井研究室 のB4生です。現在は Mixedbread にも所属しています。2024年は NIST で客員研究員として Dr. Ian SoboroffDr. Ellen Voorhees と共同研究を行っていました。Product Search and Recommendations TrackTREC で共同オーガナイズしています。

研究テーマは IRNLPML(検索、評価、オフポリシー評価/学習、レコメンデーションを含む)が中心で、LLM・RecSys・retrievers などの信頼できる意思決定システムの構築に関心があります。

大学院では 豊田理研奨学金 に支援していただきます。

ニュース

↓ scroll
  • Oct.2025: 第一著者フルペーパー Diversity as Risk MinimizationWSDM 2026 に採択。
  • Oct.2025: オープンソース ColBERT モデル mxbai-edge-colbert-v0-17mmxbai-edge-colbert-v0-32m を公開。テックレポートは こちら
  • Aug.2025: 共著論文が CIKM 2025 に採択。
  • Aug.2025: Mixedbread でリサーチインターンを開始。
  • Jul.2025: Toyota PhD Fellow(2年間フルファンディング) に選出。
  • Jul.2025: SIGIR 2025 eCOM Workshop で 招待講演(Hosted by Dr.Tracy Holloway King)。
  • Jun.2025: NTCIR 2025 招待パネラー(Drs. Maarten De Rijke, Mark Sanderson, Charles Clarke, Ian Soboroffと登壇)。
  • Jun.2025: EVIA 2025 で 招待講演(Using LLMs as Assistants for Building Test Collections)。スライド
  • Apr.2025: 第一著者フルペーパー LLM-Assisted Relevance Assessments: When Should We Ask LLMs for Help?SIGIR 2025 に採択。
  • Jan.2025: 第一著者フルペーパー General Framework for Off-Policy Learning with Partially-Observed RewardICLR 2025 に採択。
  • Nov.2024: NII で 招待講演(Using LLMs as Assistants for Building Test Collections)。
  • Nov.2024: 第一著者論文 LLM-Assisted Relevance Assessments: When Should We Ask LLMs for Help? を arXiv に公開。
  • Oct.2024: CyberAgent AI Lab. Algorithm Team でインターン開始。
  • Aug.2024: UMD College Park で 招待講演(Nugget-Based Evaluation and the Use of LLMs)。
  • Oct.2023: 第一著者論文 Open-Domain Dialogue Quality Evaluation: Deriving Nugget-level Scores from Turn-level ScoresSIGIR AP 2023 に採択。

研究業績

論文は Google Scholar にも掲載しています。

  1. Diversification as Risk Minimization
    武樋力哉 (Rikiya Takehi), Fernando Diaz, Tetsuya Sakai. 2025.
    WSDM 2026.
    arXiv
  2. General Framework for Off-Policy Learning with Partially-Observed Reward
    武樋力哉 (Rikiya Takehi), Kosuke Kawakami, Masahiro Asami, Yuta Saito. 2025.
    ICLR 2025.
    arXiv | OpenReview | presentation | poster
  3. LLM‑Assisted Relevance Assessments: When Should We Ask LLMs for Help?
    武樋力哉 (Rikiya Takehi), Ellen M. Voorhees, Tetsuya Sakai, and Ian Soboroff. 2025.
    SIGIR 2025.
    arXiv | slides | code
  4. Open-Source LLM-based Relevance Assessment vs. Highly Reliable Manual Relevance Assessment: A Case Study
    Tetsuya Sakai, Khant Myoe Rain, 武樋力哉 (Rikiya Takehi), Sijie Tao, Youngin Song. 2025.
    CIKM 2025.
    proceedings
  5. Fantastic (small) Retrievers and How to Train Them: mxbai-edge-colbert-v0 Tech Report.
    武樋力哉 (Rikiya Takehi), Benjamin Clavié, Sean Lee, Aamir Shakir. 2025.
    Tech Report.
    Tech Report | Blog | 17M ColBERT model | 32M ColBERT model
  6. Beyond Match Maximization and Fairness: Retention-Objectified Two-Sided Matching
    武樋力哉 (Rikiya Takehi)*, Ren Kishimoto*, Koichi Tanaka, Masahiro Nomura, Riku Togashi, Yuta Saito. 2025.
    preprint
  7. Objective-driven Calibrated Recommendations
    武樋力哉 (Rikiya Takehi)*, Koichi Tanaka*, Ren Kishimoto, Masahiro Nomura, Riku Togashi, Yuta Saito. 2025.
    preprint
  8. Open-Domain Dialogue Quality Evaluation: Deriving Nugget-level Scores from Turn-level Scores
    武樋力哉 (Rikiya Takehi), Akihisa Watanabe, and Tetsuya Sakai. 2023.
    SIGIR-AP 2023.
    code | poster | slides | proceedings

経験

  • Mixedbread リサーチインターン
  • CyberAgent AI Lab. Algorithm Team リサーチインターン
  • NIST Retrieval Group 客員研究員
  • Hakuhodo Tech Inc. リサーチインターン

招待講演

  • SIGIR eCom Workshop 2025
    Product Search and Recommendations (with Prof. ChengXiang Zhai)
  • EVIA 2025
    Using LLMs as Assistants for Building Large Test Collections
  • National Institute of Informatics
    Using LLMs as Assistants for Building Test Collections (Trends and Problems of Test Collections)
  • University of Maryland, College Park
    Nugget-Based Evaluation and the Use of LLMs
  • NTCIR 2025 Panelist
    With Profs. Maarten de Rijke (UvA), Mark Sanderson (RMIT), Charles Clarke (UWaterloo), and Ian Soboroff (NIST).