FlowTune Media

Apfel — MacのAIをターミナルから無料で使えるOSSツール。APIキー不要、データ送信なし

MacにAIが載っている。でも、ターミナルからは使えない——そんなもどかしさを解消するツールが登場した。

2026年4月、Hacker Newsで一気に話題になったオープンソースツール「Apfel」。Apple SiliconのMacに搭載されたFoundation Models(Apple Intelligence)を、コマンドラインから直接利用できるSwift製ラッパーだ。APIキー不要。課金不要。データは一切外部に送信されない。

Macユーザーがすでにハードウェアとして持っているAI性能を、開発ワークフローに引き込める。それがApfelの本質的な価値だ。

Apfelとは

ApfelはSwift 6.3で書かれたオープンソースのCLIツールで、macOS 26(Tahoe)以降に搭載されたApple Intelligenceのon-deviceモデルにアクセスするためのラッパーとして設計されている。

通常、Apple Intelligenceの機能はSiriやシステムアプリを通じてしか使えない。Apfelはこの制限を迂回し、ターミナルから直接Foundation Modelsを呼び出せるインターフェースを提供する。

重要なのは、すべての推論処理がApple Silicon上でローカルに実行される点だ。トークンはデバイス上で生成され、外部サーバーへの通信は発生しない。クラウドLLMのようなトークン課金もサブスクリプションも存在しない。Macを持っていて、Apple Intelligenceが有効になっていれば、それだけで動く。

インストール方法

Homebrewに対応しているため、インストールは1行で完了する。

brew install apfel

前提条件は以下のとおりだ。

  • macOS 26(Tahoe)以降がインストールされていること
  • Apple Intelligenceがシステム設定で有効になっていること
  • Apple Silicon搭載のMac(M1以降)

Intel Macは対象外になる。Apple Intelligenceのon-deviceモデルがApple Siliconに依存しているためだ。

3つの動作モード

Apfelには用途に合わせた3つのモードが用意されている。これがシンプルなCLIツールにとどまらない理由だ。

CLIモード(ワンショット)

ターミナルから1回限りの質問を投げるモード。パイプラインに組み込める。

apfel "このエラーメッセージの原因を説明して"

シェルスクリプトの中でAIを呼び出したい場面に最適だ。ログの要約、コードの説明、テキスト変換など、ワンショットで完結するタスクに使える。標準入力からのパイプも受け付けるため、他のコマンドと自然に組み合わせられる。

cat error.log | apfel "このログの問題点を要約して"

チャットモード(対話)

対話形式でやり取りを続けられるモード。文脈を保持したまま複数回のやり取りが可能だ。

apfel chat

コードの設計相談や、段階的にアイデアを詰めていくような作業に向いている。ChatGPTやClaudeのような対話体験を、完全ローカルで、無料で、プライバシーを保ったまま実現できる。

HTTPサーバーモード(OpenAI互換API)

Apfelの中で最もインパクトがあるのがこのモードだ。OpenAI互換のAPIサーバーをローカルに立ち上げる。

apfel serve

これにより、http://localhost 上にOpenAI API互換のエンドポイントが公開される。つまり、OpenAI APIを前提に作られた既存のツールやライブラリが、そのままApfelのローカルモデルに接続できる。

たとえば、CursorやContinue、あるいはLangChainのようなフレームワークのバックエンドとして、Apfelを指定するだけでローカルAI環境が構成できる。外部APIキーの管理もトークン消費の心配もない。

ユースケース

Apfelが特に活きる場面をいくつか挙げる。

プライバシー重視の開発。 業務コードや機密情報を含むプロンプトを外部に送信したくない場面。Apfelならすべてがデバイス上で完結する。VPNやファイアウォールの設定を気にする必要もない。

オフライン環境での作業。 飛行機の中、ネットワークが不安定な現場、あるいはセキュリティポリシーで外部通信が制限された環境。ローカル完結のApfelなら問題なく動作する。

開発ツールチェーンへの統合。 HTTPサーバーモードのOpenAI互換APIにより、既存のAI対応ツールのバックエンドをApfelに差し替えられる。API課金を気にせず、ローカルで何度でも試行錯誤できる。

学習・実験用途。 LLMの挙動を理解するために繰り返しプロンプトを試したいが、APIコストが気になる。Apfelなら無制限に試せる。

制限事項

万能ではない。現時点での制約を正直に挙げておく。

モデル性能の上限。 Apple Intelligenceのon-deviceモデルは、GPT-4oやClaude Opusのような最先端クラウドモデルとは比較にならない。軽量なタスク——要約、翻訳、コード説明、テキスト変換——には十分だが、複雑な推論や大規模なコード生成には力不足を感じる場面があるだろう。

macOS 26以降限定。 Tahoeがリリースされていない、またはアップグレードしていないMacでは動かない。Apple Intelligenceが利用可能な地域設定も必要だ。

Apple Silicon必須。 Intel Macは完全に対象外。M1以降のチップが必要になる。

モデルの選択肢がない。 Ollamaのように好きなモデルをダウンロードして切り替える、といった柔軟性はない。Apple Intelligenceが提供するモデルをそのまま使う形になる。

考察 — 「すでに持っているAI」を解放する思想

Apfelが面白いのは、新しいAI機能を追加するのではなく、すでにMacの中に存在するAIを「使える形にする」というアプローチだ。

Apple Intelligenceは、Apple自身がシステム全体に統合を進めているが、そのアクセス手段はSiriやシステムアプリに限られていた。開発者が日常的に使うターミナルからは、事実上触れなかった。Apfelはその壁を取り払う。

Hacker Newsで大きな反響を呼んだ理由もここにあるだろう。「自分のマシンにAIが入っているのに、自由に使えない」というフラストレーションは、多くのMac開発者が感じていたはずだ。

OpenAI互換APIを提供する設計も秀逸だ。独自プロトコルではなく、業界標準に合わせることで、既存のエコシステムとの接続コストをゼロにしている。この判断ひとつで、Apfelの実用性は何倍にも広がる。

もちろん、on-deviceモデルの性能はクラウドモデルに及ばない。しかし「無料・ローカル・プライバシー完全保護」という三拍子が揃うことで、クラウドAIとは異なるポジションを確立している。コストを気にせず何度でも試せる気軽さは、開発の初期段階やプロトタイピングで特に価値を発揮するはずだ。

まとめ

Apfelは、Apple SiliconのMacに眠っているAI性能を、ターミナルから引き出すためのオープンソースツールだ。

  • 完全無料 — トークン課金もサブスクリプションもなし
  • 完全ローカル — データが外部に送信されることは一切ない
  • OpenAI互換API — 既存ツールとの連携がすぐにできる
  • Homebrewで即インストール — セットアップは1行で完了

クラウドLLMの代替ではない。クラウドLLMと併用する、ローカルの補助エンジンとして考えるのが正しい。プライバシーが気になるプロンプト、オフライン環境での作業、コストを気にしない実験——そうした場面で、Apfelは確かな選択肢になる。

macOS 26 + Apple Silicon環境が手元にあるなら、brew install apfel を試してみてほしい。自分のMacに、まだ使っていないAIが眠っていることに気づくはずだ。

Apfel GitHub リポジトリ

関連記事