FlowTune Media

AIエージェントのセキュリティ専業スタートアップが$13Mで立ち上がった — Trent AIの狙いどころ

「AIエージェントを導入したい」と思っている企業は、Deloitteの最新レポートによると74%。同じ調査で「エージェントを安全に統制する仕組みが整っている」と答えた企業は**21%**にとどまる。

この53ポイントの開きが、いま世界中のセキュリティ投資家がAIエージェント専用のセキュリティ会社を探している理由だ。そこに4月7日、ロンドン発のスタートアップが答えを出してきた。

Trent AI が何をする会社か

4月7日、Trent AI がステルスモードを脱し、$13Mのシードラウンドを発表した。リード投資家はLocalGlobeとCambridge Innovation Capital。エンジェルにはOpenAI・Databricks・AWS・Spotifyのリーダー陣が個人で入っている——この顔ぶれだけで「ガチで来ている」と分かる。

創業者3人はいずれもAmazon Web Services(AWS)出身のエンジニア。

  • Eno Thereska(CEO) — 元AWSのエンジニア
  • Neil Lawrence(Chief Scientist) — ケンブリッジ大学教授、機械学習の重鎮
  • Zhenwen Dai(CTO) — 元AWS

ケンブリッジ大学の研究者と、クラウドインフラ側のエンジニアが組んだ構成。これは単なる「LLMアプリ会社」ではなく、エージェントのランタイム層に介入するミドルウェアを作ろうとしている匂いがする。

「multi-agent security」とは何か

Trent AIが自称している製品カテゴリは "multi-agent security"。たぶん馴染みのない言葉だと思うので、段階を追って整理する。

まず、従来のAppSec(アプリケーションセキュリティ)は「人間が書いたコードの脆弱性を見つける」のが仕事だった。SAST、DAST、SCA——これらはすべて、静的なコードベース or 静的なデプロイ済みアプリに対する解析だ。

次に2024〜2025年に出てきたのが「LLMアプリのセキュリティ」。Prompt Injection対策、Jailbreak検出、出力フィルタリング。代表例はLakera、Protect AI、Mindgardあたり。これはLLMの入出力を監視するのが主眼だった。

Trent AIが攻めに行こうとしているのは、その先の**「複数のAIエージェントが自律的に連携して動くランタイム」に対する監査・統制**だ。具体的には4つのレイヤーに分かれている。

レイヤー やること
Scanning 組織内で動いているAIエージェントとツールを発見・列挙する
Analysis 各エージェントの権限・データフロー・外部呼び出しを静的/動的に分析
Remediation 見つかった脆弱性に対する修正案を自動生成
Security Posture 全エージェントの統合ガバナンスダッシュボード

実際に使うと、どういう画面になるのか想像してみる。

たとえばあなたの会社がClaude Code、n8nのAIノード、社内独自のRAGボット、営業用のCopilotエージェントを同時に動かしているとする。これらがどのAPIを叩き、どのデータベースを読み、どの外部SaaSに情報を送っているのかを、全体として把握できている人は社内にいない可能性が高い。Trent AIはそれを一元化して可視化する、という立ち位置だ。

なぜ今、この会社に$13Mも集まったのか

正直に言うと、$13Mのシードは金額としては並の部類だ。2026年のAIセキュリティ界隈では、OpenAIが社内向けセキュリティエージェントのAardvarkを発表したり、Anthropicが国家安全保障向けにProject Glasswingを立ち上げたりしている。Trentより10倍多く調達している会社もある。

にもかかわらずTrent AIに注目が集まっているのは、「モデル会社ではなく、横から全エージェントを見る独立ベンダー」というポジションが空いていたからだと筆者は見ている。

OpenAIのAardvarkはOpenAIのモデルを使う前提だし、AnthropicのGlasswingは政府向け。Cursor・Claude Code・Copilotのような既存ツールに対して、中立的に監査を入れる存在はまだ業界に不在だった。Trentはそこを狙っている。投資家の顔ぶれ——OpenAI、Databricks、AWS、Spotify——が面白いのもそのためで、モデル層ではなく運用層で儲ける会社として評価されている。

余談だが、Armadin AIがAIサイバーセキュリティ領域で先行していたのに対し、Trentは明確に「エージェント同士の相互作用」に絞っている。Armadinは広義のAIセキュリティだが、Trentは「エージェントとツールの間の通信をどう守るか」という狭くて深い領域だ。

デザインパートナーが教えてくれること

早期導入企業(design partners)として公開されているのは5社。

  • Canopy
  • Commscentre
  • ML@Cam
  • Qbeast
  • Weblogic

どれも一般には名前が知られていない会社だが、ML@Cam(ケンブリッジ大学の機械学習ラボ)と、データベース系のQbeastが混ざっているのが示唆的だ。大学の研究室と、インフラ系のスタートアップを両方巻き込んで磨き込んでいる。

デザインパートナーからのフィードバックとして公式が挙げているのは以下のような項目だ。

  • セキュリティポスチャの即時可視化
  • 脆弱性の発見〜説明までのレスポンスが早い
  • 修正範囲が明確に提示される
  • 適応型フィードバック(エージェントの動きに応じて監視ルールが更新される)

筆者の評価として書いておくと、この手の製品は**「エンタープライズのコンプライアンスチームに売れるか」**で成否が決まる。技術的な深さよりも、EU AI ActやISO 42001のような規制・標準との接続をいかに早く作れるかが勝負どころだ。Trent AIはまだそこまで表に出していないが、ケンブリッジ大学のNeil Lawrence教授が入っていることを踏まえると、EUの規制ディスカッションに研究者ルートで食い込める布陣をすでに持っている。これは地味だが強い。

これが実現したら何が変わるか

最後に、Trent AIのビジョンが実現したら見えてくる景色を2つだけ書いておく。

ひとつ目。社内の"シャドウAI"問題が可視化される。いまの企業では、エンジニアが勝手にCursorを入れ、マーケがChatGPT Teamを契約し、営業がClaudeを使い、経営はCopilotを回している——という状態が普通だ。情シスはどのAIがどのデータに触れているのかを把握できていない。Trent AIの「Scanning」層が機能すれば、社内で動いているエージェントの棚卸しが初めてまともにできる。これだけでも導入する価値はある企業がかなりある。

ふたつ目。保険業界が動き出す余地が生まれる。エージェントの「動きの統制」が定量化されれば、AIエージェント向けのサイバー保険の料率計算ができるようになる。Allianzのようなグローバル保険会社がAI保険商品を出すためには、「どの会社のエージェントが、どれくらい安全に管理されているか」を第三者評価する仕組みが必要で、Trent AIのダッシュボードがそのスコアを提供できれば、保険会社の引受人が参照する標準になりうる。これは派手な話ではないが、エンタープライズSaaSとしては破格の粘着度を生む。

正直、$13MのシードでいきなりすべてのAIエージェントを守れる会社になるわけではない。現時点でTrent AIはまだ製品より約束のほうが大きい段階だ。ただ、「AIエージェント監査」という市場区分がまだ誰の名前でも決まっていない今、創業3人のCVと投資家の顔ぶれを見るかぎり、候補リストの上位3社には確実に入ってくる。

公式サイトはtrent.ai。まだログインページとランディングしかないが、エンタープライズのセキュリティ責任者は今のうちにブックマークしておいてもいい。

関連記事