Apfel — MacのAIをターミナルから無料で使えるOSSツール。APIキー不要、データ送信なし
MacにAIが載っている。でも、ターミナルからは使えない——そんなもどかしさを解消するツールが登場した。
2026年4月、Hacker Newsで一気に話題になったオープンソースツール「Apfel」。Apple SiliconのMacに搭載されたFoundation Models(Apple Intelligence)を、コマンドラインから直接利用できるSwift製ラッパーだ。APIキー不要。課金不要。データは一切外部に送信されない。
Macユーザーがすでにハードウェアとして持っているAI性能を、開発ワークフローに引き込める。それがApfelの本質的な価値だ。
Apfelとは
ApfelはSwift 6.3で書かれたオープンソースのCLIツールで、macOS 26(Tahoe)以降に搭載されたApple Intelligenceのon-deviceモデルにアクセスするためのラッパーとして設計されている。
通常、Apple Intelligenceの機能はSiriやシステムアプリを通じてしか使えない。Apfelはこの制限を迂回し、ターミナルから直接Foundation Modelsを呼び出せるインターフェースを提供する。
重要なのは、すべての推論処理がApple Silicon上でローカルに実行される点だ。トークンはデバイス上で生成され、外部サーバーへの通信は発生しない。クラウドLLMのようなトークン課金もサブスクリプションも存在しない。Macを持っていて、Apple Intelligenceが有効になっていれば、それだけで動く。
インストール方法
Homebrewに対応しているため、インストールは1行で完了する。
brew install apfel
前提条件は以下のとおりだ。
- macOS 26(Tahoe)以降がインストールされていること
- Apple Intelligenceがシステム設定で有効になっていること
- Apple Silicon搭載のMac(M1以降)
Intel Macは対象外になる。Apple Intelligenceのon-deviceモデルがApple Siliconに依存しているためだ。
3つの動作モード
Apfelには用途に合わせた3つのモードが用意されている。これがシンプルなCLIツールにとどまらない理由だ。
CLIモード(ワンショット)
ターミナルから1回限りの質問を投げるモード。パイプラインに組み込める。
apfel "このエラーメッセージの原因を説明して"
シェルスクリプトの中でAIを呼び出したい場面に最適だ。ログの要約、コードの説明、テキスト変換など、ワンショットで完結するタスクに使える。標準入力からのパイプも受け付けるため、他のコマンドと自然に組み合わせられる。
cat error.log | apfel "このログの問題点を要約して"
チャットモード(対話)
対話形式でやり取りを続けられるモード。文脈を保持したまま複数回のやり取りが可能だ。
apfel chat
コードの設計相談や、段階的にアイデアを詰めていくような作業に向いている。ChatGPTやClaudeのような対話体験を、完全ローカルで、無料で、プライバシーを保ったまま実現できる。
HTTPサーバーモード(OpenAI互換API)
Apfelの中で最もインパクトがあるのがこのモードだ。OpenAI互換のAPIサーバーをローカルに立ち上げる。
apfel serve
これにより、http://localhost 上にOpenAI API互換のエンドポイントが公開される。つまり、OpenAI APIを前提に作られた既存のツールやライブラリが、そのままApfelのローカルモデルに接続できる。
たとえば、CursorやContinue、あるいはLangChainのようなフレームワークのバックエンドとして、Apfelを指定するだけでローカルAI環境が構成できる。外部APIキーの管理もトークン消費の心配もない。
ユースケース
Apfelが特に活きる場面をいくつか挙げる。
プライバシー重視の開発。 業務コードや機密情報を含むプロンプトを外部に送信したくない場面。Apfelならすべてがデバイス上で完結する。VPNやファイアウォールの設定を気にする必要もない。
オフライン環境での作業。 飛行機の中、ネットワークが不安定な現場、あるいはセキュリティポリシーで外部通信が制限された環境。ローカル完結のApfelなら問題なく動作する。
開発ツールチェーンへの統合。 HTTPサーバーモードのOpenAI互換APIにより、既存のAI対応ツールのバックエンドをApfelに差し替えられる。API課金を気にせず、ローカルで何度でも試行錯誤できる。
学習・実験用途。 LLMの挙動を理解するために繰り返しプロンプトを試したいが、APIコストが気になる。Apfelなら無制限に試せる。
制限事項
万能ではない。現時点での制約を正直に挙げておく。
モデル性能の上限。 Apple Intelligenceのon-deviceモデルは、GPT-4oやClaude Opusのような最先端クラウドモデルとは比較にならない。軽量なタスク——要約、翻訳、コード説明、テキスト変換——には十分だが、複雑な推論や大規模なコード生成には力不足を感じる場面があるだろう。
macOS 26以降限定。 Tahoeがリリースされていない、またはアップグレードしていないMacでは動かない。Apple Intelligenceが利用可能な地域設定も必要だ。
Apple Silicon必須。 Intel Macは完全に対象外。M1以降のチップが必要になる。
モデルの選択肢がない。 Ollamaのように好きなモデルをダウンロードして切り替える、といった柔軟性はない。Apple Intelligenceが提供するモデルをそのまま使う形になる。
考察 — 「すでに持っているAI」を解放する思想
Apfelが面白いのは、新しいAI機能を追加するのではなく、すでにMacの中に存在するAIを「使える形にする」というアプローチだ。
Apple Intelligenceは、Apple自身がシステム全体に統合を進めているが、そのアクセス手段はSiriやシステムアプリに限られていた。開発者が日常的に使うターミナルからは、事実上触れなかった。Apfelはその壁を取り払う。
Hacker Newsで大きな反響を呼んだ理由もここにあるだろう。「自分のマシンにAIが入っているのに、自由に使えない」というフラストレーションは、多くのMac開発者が感じていたはずだ。
OpenAI互換APIを提供する設計も秀逸だ。独自プロトコルではなく、業界標準に合わせることで、既存のエコシステムとの接続コストをゼロにしている。この判断ひとつで、Apfelの実用性は何倍にも広がる。
もちろん、on-deviceモデルの性能はクラウドモデルに及ばない。しかし「無料・ローカル・プライバシー完全保護」という三拍子が揃うことで、クラウドAIとは異なるポジションを確立している。コストを気にせず何度でも試せる気軽さは、開発の初期段階やプロトタイピングで特に価値を発揮するはずだ。
まとめ
Apfelは、Apple SiliconのMacに眠っているAI性能を、ターミナルから引き出すためのオープンソースツールだ。
- 完全無料 — トークン課金もサブスクリプションもなし
- 完全ローカル — データが外部に送信されることは一切ない
- OpenAI互換API — 既存ツールとの連携がすぐにできる
- Homebrewで即インストール — セットアップは1行で完了
クラウドLLMの代替ではない。クラウドLLMと併用する、ローカルの補助エンジンとして考えるのが正しい。プライバシーが気になるプロンプト、オフライン環境での作業、コストを気にしない実験——そうした場面で、Apfelは確かな選択肢になる。
macOS 26 + Apple Silicon環境が手元にあるなら、brew install apfel を試してみてほしい。自分のMacに、まだ使っていないAIが眠っていることに気づくはずだ。
関連記事
Google AI Edge Gallery — スマホでGemma 4をオフライン実行する時代が来た
Google AI Edge GalleryでGemma 4をスマホ完全オフライン実行した実機レビュー。AIチャット・画像質問・音声書き起こし・Agent Skillsの4機能、動作環境、プライバシーの強みと課題を解説
LiteRT-LM — Googleがスマホやラズパイで「ローカルLLM」を動かすフレームワークを公開した
GoogleのLiteRT-LMを解説。スマホやRaspberry PiでLLMをローカル実行できるオープンソース推論フレームワークの機能と競合比較がわかる
OpenAI Codex CLI — ターミナルAIコーディングの勢力図を塗り替えにきた刺客
OpenAI Codex CLIの機能・サンドボックス設計・Agents SDKをClaude Codeと徹底比較。ターミナルAIコーディングの選び方がわかる