3行でわかるこの記事
- 何が起きた? 人気声優・梶裕貴さんがプロデュースするAIキャラクター「梵そよぎ」の1st EXPOが、2026年3月8日に東京ガーデンシアターで開催されました
- 重要なポイント AI技術企業SpiralAIの音声合成技術「Kotodama」とAI基盤「Geppetto2」により、ステージ上でAIキャラクターがリアルタイムに会話する体験が実現しました
- なぜ注目? 「推しの声でAIが自然に喋る」という技術が実用レベルに達しつつあり、エンタメの楽しみ方そのものが変わる可能性があるからです
はじめに
「AIの声って、なんか機械っぽくて違和感あるよね?」
そう思う方が多いかもしれません。
でも実は今、AIの音声技術は驚くほど進化していて、人間の声優さんの声質や感情表現をかなりの精度で再現できるようになっています。
この記事では、こんなことを解説していきます。
- 声優・梶裕貴さんが手がける「そよぎフラクタル」プロジェクトって何?
- AIがキャラクターの声で喋る技術はどこまで来ているの?
- 私たちのエンタメ体験はどう変わるのか?
難しそうに見えるかもしれませんが、できるだけわかりやすくお伝えしますね。
ひとことで言うと
声優・梶裕貴さんの声と感情表現をAIで再現し、キャラクターがリアルタイムで観客と会話するライブイベントが実現しました。ここからは、その背景と仕組みを順番に見ていきましょう。
そもそも「そよぎフラクタル」って何?
「そよぎフラクタル」は、声優・梶裕貴さんが声優デビュー20周年を記念して立ち上げたAI音声合成プロジェクトです。
梶裕貴さんと言えば、「進撃の巨人」のエレン・イェーガー役や「僕のヒーローアカデミア」の轟焦凍役など、数々の人気作品でおなじみの声優さんですよね。
そんな梶さんが企画・プロデュースしたのが、AIキャラクター「梵そよぎ(ぼん そよぎ)」です。梵そよぎは、単なるバーチャルキャラクターではなく、AI技術によって「自分で考えて、自分の声で話す」ことができるキャラクターです。
たとえるなら、台本なしで即興トークができるバーチャルタレントのようなイメージでしょうか。普通のキャラクターは台本(スクリプト)がないと喋れませんが、梵そよぎはAIが「頭脳」と「声」の両方を担当しているので、ファンの質問にもその場で答えられるのです。
東京ガーデンシアターで何が起きたの?
2026年3月8日(日)、東京ガーデンシアターで「梵そよぎ 1st EXPO『0rigin』」が開催されました。昼公演と夜公演の2回行われたこのイベントは、「人間とAIが紡ぐ、唯一無二のステージ」をテーマにした音楽の祭典です。
ステージで起きたこと
このEXPOでは、SpiralAI株式会社(本社:東京都千代田区、代表取締役CEO:佐々木雄一)が技術パートナーとして参加。ステージ上でAIキャラクター「梵そよぎ」がリアルタイムで発話する体験が提供されました。
つまり、「あらかじめ録音された音声」を流すのではなく、AIがその場で考え、梶裕貴さんの声質でその瞬間に音声を生成して喋ったということです。
さらに、このEXPOに先駆けて3月6日(金)20時からは、梶裕貴さんの公式YouTubeチャンネルで24時間の”完全自立型”AIライブ配信も実施されました。AIキャラクターが24時間にわたって、視聴者からのコメントや質問にリアルタイムで応答し続けるという、前代未聞の配信企画です。
この体験を支える2つの技術とは?
今回のイベントを技術面で支えたのが、SpiralAIが開発した2つの技術です。
頭脳:IP特化型AI「Geppetto2(ジェペット2)」
Geppetto2は、キャラクターの「人格」を再現するために特化したAI(大規模言語モデル)です。一般的なAI(ChatGPTなど)は「何でも答えられる便利な辞書」のようなものですが、Geppetto2は「あるキャラクターになりきる」ことに全力を注いだAIです。
Geppetto2の特徴的な強みは以下の通りです。
- キャラクター設定に忠実: そのキャラクターが知らないはずの情報は話さない
- 事実の捏造を防止: 存在しない名前や設定をでっち上げない
- 関係性の変化を反映: 初対面から親密になるまでの距離感の変化を表現できる
- IP(知的財産)を保護: 他作品の著作権や商標を侵害しない設計
- 自然な会話フロー: 一問一答ではなく、人間のような自然な対話ができる
たとえるなら、Geppetto2は「完璧な役作りができるAI俳優」のような存在です。
声:AI音声合成プラットフォーム「Kotodama(コトダマ)」
Kotodamaは、テキストを入力するだけで最大14種類の感情表現を持った声を即座に生成できるAI音声合成プラットフォームです。
「言葉に魂を」をコンセプトに開発されたKotodamaは、喜怒哀楽をはじめとする多彩な感情を声にのせることができます。日本語だけでなく英語の音声生成にも対応しており、グローバルなコンテンツ制作にも活用できるのが特徴です。
従来のAI音声が「テキストを読み上げるだけ」だったとすれば、Kotodamaは「テキストに込められた感情まで表現できる声」を生み出す技術と言えるかもしれません。
私たちのエンタメ体験はどう変わる?
今回の取り組みは「声優×AI」という新しいジャンルの幕開けとも言えます。この技術が進化していくと、私たちのエンタメ体験はどう変わるのでしょうか。
「推し」と24時間いつでも話せる
今回の24時間YouTube生配信のように、AIキャラクターは疲れを知りません。将来的には、好きなキャラクターといつでも好きなタイミングで会話できるようになるかもしれません。しかも、話せば話すほど関係性が深まっていく仕組みがあれば、まるで「本当の友達」のような存在になり得ます。
スマホでも動くコンパクト設計
Geppetto2は「軽量・高効率」を強みの一つとしており、将来的にはゲーミングPCやスマートフォンでも動作する展開が見込まれています。大きなサーバーがなくても動くということは、いずれスマホアプリで推しキャラと会話する日が来るかもしれないということです。
声優さんの新しい活躍の場
梶裕貴さんの声は「1/fゆらぎ」と言われる癒しの効果を持つとされています。AI音声合成技術によって、声優さんの「声」という資産が新しい形で活用される道が開かれました。声優さんにとっても、ファンにとっても、新しい価値を生み出す可能性を秘めた技術です。
用語ミニ解説
- AI音声合成: テキスト(文字データ)から人間の声に近い音声を人工的に生成する技術。最新のものは感情表現まで再現できます。(「文字を読んで声にしてくれるAI」のイメージ)
- LLM(大規模言語モデル): 膨大な量のテキストデータを学習し、人間のように自然な文章を生成できるAI。ChatGPTなどがこれにあたります。(「めちゃくちゃ本を読んだAI」のイメージ)
- IP特化型: IP(Intellectual Property=知的財産)、つまりキャラクターや作品の世界観に特化した設計のこと。汎用AIと違い、特定のキャラクターの「らしさ」を忠実に再現することに特化しています。(「一つの役を極めた専門俳優」のイメージ)
- 1/fゆらぎ: 自然界に存在するリズムのゆらぎのこと。小川のせせらぎや木漏れ日のように、規則的すぎず不規則すぎない心地よいリズムで、人間の脳にリラックス効果をもたらすと言われています。(「自然の中にいるような安らぎを感じるリズム」のイメージ)
AIエージェントとは?仕組み・事例・始め方まで完全ガイド【2026年版】
Me-Moon編集後記 🌙
「推しの声でAIが喋る」——この言葉だけで、もうワクワクが止まらないですよね。
正直、ほんの数年前まで「AIの声」と言えば、カーナビの案内音声のような無機質なイメージがありました。でも今回のSpiralAIの技術を知って、その認識は完全に覆されました。14種類もの感情を声にのせられるなんて、もはや「合成音声」という言葉がしっくりこないレベルです。
特に興味深いのは、Geppetto2の「関係性の変化を反映できる」という機能。初めて話したときと、何度も会話を重ねたときとで、キャラクターの態度や距離感が変わっていく——そんな体験が実現したら、「推しキャラとの思い出」が本当に一人ひとり違うものになるかもしれません。テクノロジーが「エンタメの個人体験」をどこまで深められるのか、これからも目が離せません。
Me-Moonでは、こうした「私たちの生活に関わるテクノロジーの動き」を
これからもわかりやすくお届けしていきます。
一緒に、新しい時代を楽しんでいきましょう🌙
参考リンク
- SpiralAI、AIキャラクター開発と音声合成の技術パートナーとして「梵そよぎ 1st EXPO『0rigin』」に技術協力。Geppetto2がエンタメ体験を革新 — PR TIMES, 2026年3月8日
- 【24時間の”完全自立型”AIライブ配信】声優・梶裕貴が声を担当するAIキャラクターが、24時間のYouTube生配信に挑戦 — PR TIMES, 2026年3月6日
