Suno v5.5レビュー -- 自分の声でAI作曲できる時代、音楽制作の常識が変わった
2026年のAI生成音楽は、もうプロの制作物と区別がつかない。
これは誇張ではなくて、事実だ。Spotifyのプレイリストを流していて「この曲いいな」と思ったらAI生成だった、という経験をした人は少なくないはず。そしてその流れを最前線で牽引しているのがSunoであり、3月26日にリリースされたv5.5は、AI音楽制作の到達点をまた一段引き上げた。
筆者はSunoをv3の頃から使い続けているが、今回のアップデートは「バージョンアップ」というより「別ジャンルのツールになった」という感覚のほうが近い。
何が変わったのか
v5.5の目玉は3つある。Voices(ボイスキャプチャー)、Custom Models(カスタムモデル)、そしてMy Taste(マイテイスト)。加えてStudioがv1.2にアップデートされ、DAW的な編集機能が大幅に強化された。
順番に見ていく。
Voices -- 自分の声で歌うAI楽曲
これが今回の最大の変化だ。
従来のSunoは、AIが生成した「誰でもない声」で歌う仕組みだった。v5.5では、自分自身の声をキャプチャーして楽曲に反映できる。15秒から4分の歌声サンプルをアップロードし、その中からベストな2分間を選択。AIがあなたの声質、癖、表現のニュアンスを学習する。
ここで重要なのが本人確認プロセス。アップロードした歌声とランダムに表示される文章の読み上げ音声を照合し、本人であることを確認する。他人の声を無断でクローンする悪用を防ぐための仕組みだ。
実際に使ってみた。自分の声が入った楽曲を聴く体験は、正直に言って不思議な感覚だ。自分の声なのに、自分では出せない音域やフレージングで歌っている。「自分の歌声の理想形」を聴いているような感覚と言えばいいだろうか。
ただし、ボイスキャプチャーはデフォルトでプライベート設定になっている。自分だけが使える。将来的には声の共有機能も計画されているようだが、現時点では安全側に振ったデザインだ。この判断は正しいと思う。
Custom Models -- 自分のスタイルを学習させる
ボイスキャプチャーが「声」の個性化なら、Custom Modelsは「音楽性」の個性化だ。
自分のオリジナル楽曲を最低6曲アップロードすると、Sunoがあなたの音楽的な傾向を学習する。コード進行の好み、アレンジの癖、ドラムの処理、シンセの重ね方。そうした「あなたらしさ」をモデルに反映してくれる。ビルド時間は2〜5分。ProとPremierプランのユーザーは最大3つのカスタムモデルを作成できる。
面白い機能だが、筆者には一つ引っかかる点がある。あなたの音楽的アイデンティティが「機械可読な形式」に変換されて、Sunoのサーバーに保存されるということだ。この点については後述する。
My Taste -- 好みを学習するレコメンド
My Tasteは比較的シンプルな機能で、あなたの作成・視聴履歴からスタイルの傾向を学習し、楽曲生成時のスタイルフィールドに反映する。スタイル入力欄の横にある魔法の杖アイコンをクリックすると、あなた好みのスタイルテキストが自動生成される。
全ユーザーが無料で使える。地味だが、実用性は高い。毎回「dreamy indie rock with ethereal vocals and layered synths」と手打ちする手間が省ける。
Studio v1.2 -- ブラウザの中のDAW
Studioの進化も見逃せない。
v1.2で追加されたのは、Warp Markersとクオンタイズ機能、エフェクト除去(Remove FX)、バリエーションの即時試聴(Alternates)、そして4/4拍子以外のタイムシグネチャー対応(6/8、7/8、11/4など)。
これまでのSunoは「生成して、気に入らなければリロール」の繰り返しだった。Studio v1.2では、生成された楽曲を細かく調整できる。特にWarp Markersはタイミングの微調整に使えるので、「サビの入りが0.2秒早い」みたいな細かい不満を解消できる。
とはいえ、Ableton LiveやLogic Proの代替になるかと聞かれれば、まだ遠い。あくまで「Sunoの中での後処理」であり、本格的なミキシングやマスタリングには外部DAWが必要だ。ステム抽出ができるので、Sunoで生成した素材をDAWに持ち込むワークフローは現実的。
料金
| プラン | 月額 | 主な特典 | |--------|------|----------| | Free | $0 | My Tasteのみ | | Pro | $10(約1,500円) | Voices、Custom Models | | Premier | $30(約4,500円) | 全機能 + Studio + 無制限ダウンロード |
ProプランでVoicesとCustom Modelsが使える。Studioのフル機能と無制限ダウンロードにはPremierが必要。
月$30は安くはない。だが、サンプルパック購入やボーカル録音のスタジオ代を考えれば、特にデモ制作やプリプロダクションの用途では十分にペイする価格帯だ。
競合の状況 -- Udioの後退
AI音楽生成の二大巨頭と言われてきたSunoとUdioだが、2026年に入って状況は大きく変わった。
Udioはユニバーサルミュージックグループ(UMG)やワーナーとの著作権訴訟で和解し、その代償としてダウンロード機能を停止した。ユーザーが生成した楽曲をアプリの外に持ち出せなくなったのだ。一時的に48時間のダウンロード猶予期間が設けられたものの、2026年1月以降、ダウンロードは無効化されたままだ。
Udioは「ウォールドガーデン」型のプラットフォームに移行する方針で、楽曲のストリーミングはできるが外部への書き出しはできない。
これは実質的に、Udioを制作ツールとして使うことが不可能になったことを意味する。音質やインストゥルメンタルの分離感ではUdioに一日の長があっただけに、残念な展開だ。
結果として、AI音楽生成の実用ツールとしてはSunoの独壇場になりつつある。Google DeepMindのLyria 3 Proも存在するが、Sunoほどのエコシステムは持っていない。
気になる点 -- データ利用への同意
ここからはSuno v5.5の懸念点を書く。
ボイスキャプチャーを利用するには、Sunoがあなたの音声データをAIモデルの訓練・開発・改善に使用することへの同意が必要だ。個人利用だけでなく、広範なモデル改善のためにデータが使われる。この同意なしにはVoices機能はアクティベートされない。
Custom Modelsについても同様の構造がある。あなたの楽曲をアップロードすることで、音楽的な個性が機械的に抽出され、Sunoのサーバーに保存される。
率直に言って、この条件は重い。自分の声と音楽性という、極めてパーソナルなデータを第三者のサーバーに預け、しかもモデル訓練に使われることに同意する。便利さとプライバシーのトレードオフだが、ユーザーはこの点を理解した上で利用すべきだ。
さらに根本的な問題として、Sunoのベースモデル自体が既存アーティストの楽曲で訓練されたのではないか、という訴訟が続いている。アメリカレコード協会(RIAA)は2024年にSunoとUdioの両方を提訴しており、この件はまだ決着していない。Sunoのv5.5は個人の同意フレームワークとしては前進だが、業界全体の著作権問題を解決するものではない。
向いている人
趣味で音楽を作りたい人、デモ制作やプリプロダクションに使いたいミュージシャン、動画やポッドキャストのBGMが必要なクリエイター。こうした層にとって、Suno v5.5は現時点で最良の選択肢だ。
特にボイスキャプチャーの登場で、「自分の声で歌うオリジナル曲を、楽器が弾けなくても作れる」という状況が実現した。これは音楽制作の民主化として、大げさでなく歴史的な一歩だと感じる。
一方で、プロフェッショナルな音楽制作のメインツールとしては、まだ力不足だ。ミキシングの精度、アレンジの制御性、マスタリングの品質。プロが求める水準にはまだ届かない。Sunoで生成した素材をDAWに持ち込んで仕上げるというハイブリッドワークフローが、現時点では最も現実的な使い方だろう。
まとめ
Suno v5.5は、AI音楽生成を「ガチャ」から「制作ツール」に進化させた。自分の声、自分のスタイル、自分の好み。すべてを反映した楽曲を作れるようになったことで、「AIが作った音楽」から「AIを使って自分が作った音楽」へとパラダイムが移行している。
競合のUdioが著作権問題で機能制限を余儀なくされる中、Sunoは機能面で独走態勢に入った。ただし、データ利用の透明性と著作権問題という二つの地雷は、まだ処理されていない。
それでも、月$10で自分の声のAI楽曲が作れるという事実は、2026年の音楽シーンにおいて無視できないインパクトがある。音楽を聴く側にいた人が、作る側に回れる。その敷居がまた一つ下がった。
参考リンク
関連記事
ElevenMusic vs Suno — ElevenLabsの音楽アプリは「商用利用OK」で勝負に出た
!ElevenMusic(/images/posts/elevenlabs-music-app.png) Sunoで作った曲をYouTubeに使ったら著作権問題が起きた——そんな事例がSNSで散見されるようになった2026年。AI音楽生成の「商用利用」は、もっとも曖昧で危険なグレーゾーンのひとつだ。 4月1日、E
Bolt.new V2 — エラーループ98%減、500万ユーザーのAIアプリビルダーは何が変わったか
!Bolt.new V2(/images/posts/bolt-new-v2-ai-app-builder.png) Bolt.newを使ったことがある人なら、あの「ループ」を知っているはずだ。AIがコードを生成する。エラーが出る。修正する。また別のエラーが出る。修正する。3回目で最初と同じエラーに戻る。この無限ル
Browser UseでAIにブラウザを丸投げしたら、RPAの常識が壊れた
AIにブラウザ操作を丸投げしてみた。結論から言うと、RPAの概念が変わる。 セレクタを書かなくていい。XPathを調べなくていい。「このページの3番目のボタンをクリックして、出てきたフォームに名前を入力して、送信して」——自然言語でそう伝えるだけで、AIエージェントが勝手にブラウザを操作してくれる。Browser