FlowTune Media

論文を読み、データを集め、モデルを鍛える — Hugging Faceが公開した「AI研究者エージェント」

LLMをファインチューニングしたことがある人なら分かると思う。論文を読み漁り、データセットを探し、前処理を書き、学習を回し、評価して、改善点を見つけてやり直す。このループを何日も何週間も回し続ける。

もし、このループ全体をAIに任せられたらどうなるか。

Hugging Faceが4月21日に公開したml-internは、まさにそれを実現しようとするオープンソースのAIエージェントだ。公開から4日でGitHub星5,600を超え、トレンド2位に入った。

何ができるのか

ml-internはLLMの「ポストトレーニング」を丸ごと自動化する。具体的には以下のループを自律的に回す。

まずarXivの論文を読む。タイトルやアブストラクトだけでなく手法のセクションまで踏み込み、引用グラフをたどって関連研究を芋づる式に掘っていく。次にHugging Face Hub上のデータセットを検索し、品質を確認し、学習用にフォーマットを整える。そしてトレーニングスクリプトを実行し、結果を評価して、改善が見込める場合は再び論文調査に戻る。

人間のML研究者がやっていることを、そのままエージェントに移し替えた設計になっている。

数字で見る実力

公式デモで示された数字が面白い。

Qwen3-1.7Bという小型モデルをGPQAベンチマーク(大学院レベルの科学問題)で改善させたところ、精度が10%から32%に跳ね上がった。所要時間は10時間以内。同じタスクでClaude Codeが出した精度は22.99%で、ml-internはこれを上回っている。

HealthBenchでは60%の改善を記録した。

注意すべきは、ml-intern自体がモデルを作っているわけではない点だ。裏側ではAnthropicのAPIを推論エンジンとして使っている。ml-internの強みは「何を学ばせるか」を見つける能力——つまり、論文の発見、データセットの選定、学習パイプラインの設計を自動化するところにある。

セットアップに必要なもの

CLIとWebアプリの両方で使える。セットアップにはAnthropicのAPIキー、Hugging Faceトークン、GitHubトークンの3つが必要だ。

ローカルGPUが足りない場合は、Hugging Face Jobsを通じてクラウドのGPUジョブを自動で起動する仕組みも備わっている。早期ユーザー向けに1,000ドル分のGPUクレジットとAnthropicクレジットが提供されているので、試すなら今がチャンスだろう。

正直な評価

面白いツールだが、万能ではない。

まず対象が「ポストトレーニング」に限定されている。事前学習の自動化はスコープ外だ。また、推論にAnthropicのAPIを使う以上、大量に回せばAPIコストがそれなりにかかる。「無料でLLMを強化できる」という話ではない。

論文を読んでデータセットを選ぶという工程も、最先端の研究者が手動でやる場合と比べれば精度は落ちるだろう。ml-internが得意なのは「広く浅く多くのアプローチを試す」ことであって、「深い洞察に基づいた1つの勝負手を見つける」ことではない。

それでも、「まず試してみて、改善幅を確認してから人間が判断する」という使い方なら、研究のサイクルを大幅に速められる可能性がある。

「AIがAIを育てる」時代の入口

Karpathyが提唱したAutoResearchの思想が、Hugging Face公式のプロダクトとして具現化した——という見方もできる。

ml-internが実用化されると、小規模なチームや個人研究者でも「特定タスクに特化したLLM」を効率よく作れるようになる。大手が汎用モデルを出し、それをml-internのようなエージェントが特化用途にカスタマイズする。そういう分業が当たり前になるかもしれない。

Hugging Face公式という信頼性と、Hub・Jobs・Papersという自社エコシステムへの深い統合が、他の類似ツールにはない優位性だ。ML研究に関わる人は、一度触っておいて損はない。

ml-intern on GitHub

関連記事