CLOSE

5G時代のβサービスプロトタイピング(全1記事)

2019.12.20

Brand Topics

PR

今までにないアート鑑賞やスポーツ観戦を実現 “未体験”を創造する、KDDIの「可能性主義のプランニング」

提供:KDDI株式会社

2019年11月27日、「KDDI INNOVATION MAKERS 2019 DAY2」が開催されました。通信キャリア事業者であるKDDIは、テクノロジーを駆使して、さまざまな事業を展開しています。DAY2では「KDDIが展開する5G時代の共創」をテーマに、KDDIが取り組んできたベンチャー支援やオープンイノベーション、事業共創の仕組みや取り組みについて紹介します。本パートでは、「5G時代のβサービスプロトタイピング」と題し、KDDI株式会社 ビジネスインキュベーション推進部 次世代ビジネス推進グループの川本大功氏が登壇し、多岐にわたる共創の事例について語りました。

KDDIに入社して605日を経て

川本大功氏:KDDIの川本大功と申します。さっきまでずっとテレカンしてたら、いつの間にかみなさんがめっちゃ集まってて、非常に焦っていますが。よろしくお願いいたします(笑)。今日は『5G時代のβサービスプロトタイピング』というタイトルで、これまでやってきたことなどをいくつかご紹介したいなと思っております。

最初に自己紹介なんですけれども、川本大功と言います。“大きい”に成功の“功”と書いて、「はるく」です。緑の巨人はまったく関係ないんですけど、とりあえず今日ははるくだけ覚えていただければ大丈夫です。

今、ビジネスインキュベーション推進部の次世代ビジネス推進グループという、わりとtechie(技術者)寄りなグループにおりまして。あとKDDIもコアパートナーになっている「DG Lab」というデジタルガレージのオープンイノベーションの研究開発組織があるんですけど、そちらにも兼務出向しております。

今日は605という数字から始めようかなと思います。実は今日で入社して605日が経ちました。僕が入ったのが去年なんですよね。なので、今日は605日を経て、今考えていることや最新の事例をいくつかご紹介していこうと思っています。

1ヶ月で4つのリリースをする“鬼スケジュール”で新サービスを立ち上げ

最初に「なんでKDDI入ったの?」というところだけ軽くご説明します。新卒で博報堂にマーケティング職で入りました。そのあと大学院で研究をしたくなったので(会社を)辞めて、デジタルハリウッド株式会社で新規事業を作りながら、SFCの大学院の修士課程に行って、ロボット法の研究などをしていました。

その後、慶應義塾大学の講師や特任助教とかもやっていたんですけど、もうちょっと先の未来を想像しながら自分の手で物やサービスを作れるようになりたいなぁと。特にデジタルハリウッドの仕事の中で、ロボティクスアカデミーなど、いくつかスクール事業を立ち上げに関わらせていただいた中で、受講生のみなさんが最新領域に挑戦している姿を見て、非常にかっこいいなぁと思ってですね。

僕も少し先の未来を見据えた上で、技術が生み出す新しい領域で、プロダクトやサービス開発をやってみたいということでKDDIに転職し、XR領域を中心にチャレンジすることにしました。

KDDIで今やっていること、やってきたことです。2018年の4月に入ったんですが、こんな感じで今年の9月までいろいろやりました。このあと個々に説明するものもありますが、去年はけっこうスポーツ系を……特にXRの技術を使ったARサッカー観戦やバレーボール観戦体験の拡張を中心に挑戦していました。

今年に入ってからは、渋谷区観光協会様と渋谷未来デザイン様と「渋谷エンタメテック推進プロジェクト」というものを立ち上げて、メンバーの1人としていろいろ開発などをやっております。

2019年9月から毎月1個以上なにかやるというすごいスケジュールにはまっていてですね(笑)。10月はAudio Scape(オーディオスケープ:音のARサービス)というものを……あとでURL開いてもらえればアクセスできるんですけど、そういったものを作ったり。今月は全部で4つの施策をリリースをするという鬼スケジュールだったんですけど、いろいろやっています。

5G時代を見据えて「お客様の体験価値をどう拡張していくか」に焦点

まずは渋谷の話をさせていただいて、最近5Gで特に大事だなぁと思っているところをご説明します。たぶん、取り留めもなくいろいろやっているような印象を受ける方が多いかなぁと思うんですけど、僕としてはやっていることは全部シンプルだと思っています。

活用している技術はわりとなんでもありです。XRealityを中心にSpecial Computing系の技術や、あと実は超低遅延映像配信技術とかも使っています。超低遅延映像配信は、オープンなインターネットを通じて、カメラから映像をお客様の端末まで0.5秒で届けるというものです。EndtoEndで0.5秒という、かなり速いスピードで送ったりもしています。

あとやっぱりWebがいいなぁと思っていて。さっきAudio Scapeと言ったんですけど、最近はWeb XR技術も見てたりしています。主に最近活用している技術はこんな感じなんですけど、UI/UXはわりと5G時代を見据えて、お客様の体験価値をどうやって拡張していくかに焦点を当てて考えています。

何をやってきたかを一言で言うと、βサービスプロトタイピングだと思っています。正式なサービスが行われる前に、試験的にサービスをやることをβサービスと言いますよね。

プロトタイピングの前に、ラピッドというものが入っています。とにかく早くコンセプトをなんらかの試作品に落とし込んで検証して、さらにそのあとにつなげること。この2つを組み合わせるような仕事をしています。すごく単純に言うと、机上の空論にならないように試験的なサービスの試作品をとにかく早く作って、開発プロセスを高速で回しています。

わりとPoC(Proof of Concept/「概念実証」の意)みたいな話もあると思うんですけど、僕の中の位置付けはPoCのあとにβサービスプロトタイプがあって、そのあとサービスプロトタイピングがあって、最後に商業化。「技術ができました。どう使われるかよくわからないから、一旦何か作ってよ」と言って、作るということをよくやっています。

さっき、キャリアが関わったサービスはあんまりヒットしないよね、という話が残念ながらあったんですけど(笑)。外にいた身からすると、それはやっぱり小さく始めないで、いきなり大きな開発をしちゃったからなんじゃないかと思っていて。まずは、あえてやってみる、挑戦してみるということをけっこう大事にして作っています。

今日は共創というテーマなので、このβサービスプロトタイピングとKDDIの共創がどう関係しているのかをいろいろな事例を通じて考えていきたいなぁと思っています。

テクノロジーで渋谷を毎月アップデートする「渋谷エンタメテック推進プロジェクト」

5Gの話ですね。一応ここからしなきゃいけないかなぁと思って、社長のスライドを持ってきたんですけど。令和元年は5G元年と呼ばれています。

そのなかでauは何をやっていくかと言うと、「AUGMENT」をキーワードにしています。拡張ですね。ちょうどAUGMENTの頭文字がAUとついているので、余計に親近感が湧いていたりもするんですが、体験を創造していくことを非常に重要視しています。

じゃあどういう体験をやるかというと、まず1個の切り口が街ですね。今まさにみなさんがいる渋谷の街を舞台にして、どう展開していくのかを考えていきました。

そこで、渋谷区の観光協会様と渋谷未来デザイン様という2つの団体と一緒にコラボレーションして、渋谷エンタメテック推進プロジェクトというものを立ち上げました。

僕らは、5Gのテクノロジーを使ってどうやってみなさんの生活を楽しくしていくか、アップデートしていくかが非常に重要だと考えているので、あえてエンタメに振ったプロジェクトとしてやっています。

渋谷をテクノロジーで毎月アップデート。8月の末ごろに、なにかしらやっていくぞという宣言をしました。渋谷エンタメテック推進プロジェクトですね。ちなみにURLは、https://shibuya5g.org になりますので、検索していただければ一瞬で出てきます。もしくは渋谷エンタメテックでも出てきますね。

AR技術を使って渋谷の街にデジタルオブジェクトを出現させる

まず最初、9月にこんなことをやってみました。

見てもらえばわかるんですけど、ARの技術を使って、渋谷の街やスクランブル交差点にいろんなデジタルオブジェクトを出してみました。これはVPS(Visual Positioning System / Service)という技術を使っています。

僕らは周囲の3Dマップを持っていて、このスマホが今どこを見ているかを認識して、周りをスキャンすると、3Dマップとオブジェクトを掛け合わせてピタッとここに出すということをしています。

それができると、駅のほうに行くと遅延情報がわかったり。さっき天気予報もありましたけど、空を見ると天気がわかる。こういう壁に沿ってきちんとオブジェクトを出して映像を流したり、コンテンツを再生することができる。

あと魚が浮いてるんですけど、あれは自分のフレンドリストにいる人が、今こっちの方向にいるよ、とか、今こっちでイベントをやっているよということをアンビエント(あまり意識せずとも自然に、という意)に伝えるためのメディアとして作っています。

このときは実証実験でやったんですけれども、実はこれをやったあとに札幌でも同じようなことをやっています。今はこのコンテンツを絶賛開発中です。

場所・天気・時間帯・気分に合わせて、その場で音楽を生成

そのあと10月。さっきのは本当に一部の方しか体験できなかったので、もっといろんな方に体験してもらえる施策を作ろうということで、10月19日から20日にかけてあった、渋谷の音楽祭に合わせてAudio Scapeというものを作りました。

これは裏話があってですね(笑)。9月12日にさっきのデジタルオブジェクトの実証実験と一緒に「渋谷5Gエンタメテック会議」というものをやったんですよ。これはうちの中馬部長が登壇して、5Gになったら街がどう変わるだろうというのをテーマに、いろんな方とディスカッションをしたんですけれども。

その中で、渋谷の街の音も変わるんじゃないかと。例えば渋谷は特にわかりやすいと思うんですけど、エリアによってぜんぜん雰囲気が違うんですよね。109の前の空気、センター街の雰囲気、逆に宮益坂のほうはぜんぜん違うじゃないですか。

パネラーの小橋賢児氏が「行った先々に合わせて自分だけの『音の空間」が楽しめるようになれば』というアイデアがあって。そのアイデアを受けて超突貫で、1ヶ月弱くらいで作ったものになります。

UIとしてはシンプルで、一番左がAudio Scapeを開いたところの画面。みなさんのお手元のスマホでも開けますからね。ぜひ渋谷5Gのページに行ってほしいんですが。開くと街の中にサウンドスポットというものが設定されています。あのアイコンの部分ですね。

実際にその部分の近くに行っていただいてスマホを開くと、「スポットに入りました。スポットAのサウンドが再生可能です」というポップアップが出てきます。それを生成するというものをやると、その右にジェネレートサウンドというものがあります。

実はAIでスポットと、1時間後の天気と、あとは時間帯、朝昼夕晩かな。あとは今後みなさんがなりたい気分を掛け合わせて、その場で音楽を生成します。だいたい5分くらいの曲なんですけど。

それを再生するというかたちになっています。まだちょっと学習不足なところもあるんですが、新しい取り組みでおもしろいんじゃないかなぁと思っている次第です。

街中にいる人々を音楽でナビゲーションする試み

ちょうど先週かな。Coldplayとコラボしました。Coldplayの4年振りの新曲のアルバムのプロモーションに使っていただいてですね。街の中にColdplayの曲を設置して、近くに行くとそれが聞けるというものを作っています。

これをけっこう僕らは重要視しています。何かと言うと、実はこれで音を使って自然に人をナビゲーションすることができるんじゃないかなと思っていて。例えば普通に流れている曲、(スライドを指して)これもそうですし、もう1個のAIの生成した曲はもうちょっとアンビエント調な作業を邪魔しないBGMの曲なんですけど。

ザーッと音が入ってきたら1時間後に雨が降るな、とか。こっちに行くとガヤガヤしてるからもしかして混んでいるかもしれない、別のところに行こう、とか。そういうことができるようになるんじゃないかなぁという期待もあったりします。その第一歩目として、まず作ってみたという事例ですね。

知っている人にしか見えない「ARのアート展」

ちなみにARってみなさん体験されたことあります? 体験したことある方教えていただいてもいいですか?

(会場挙手)

ほぼ体験したことありますかね。ポケモンGOとかまさにそうだと思うんですけど、スマホをかざさないとデジタルワールドは見えないんですよ。でも、ほかの人には見えないんだけど知っている人には見えるというのは、実は価値にもなるんじゃないかと思っていて。

それをアート展というかたちでやってみたのが「INVISIBLE ART IN PUBLIC」というものです。これもちょっとビデオがあるので見ていただければと思いますが。

渋谷のCAST前に森みたいな広場があるんですけど、そこにこんな感じでARの作品を配置しました。そこに行っていただいて設置してあるQRコードを読み込むと、このようなアート作品を見ることができます。

これはある意味、知っている人じゃないと見えないアートギャラリーですよね。ARの楽しみ方ってこういうこともあるんじゃないかなと思っています。単純に場所に関係なく、目の前にデジタルコンテンツを表示だけじゃなくて、パブリックアートのように、街そのものにアート作品やクリエイティブな要素を入れていくことにも使えるんじゃないか。そういうことで、これはPsychic VR Lab様やPARCO様がやられているNEWVIEWプロジェクトと一緒に作ることができました。

今渋谷の話をバーッとしてきたんですけど。僕らは何を考えているかと言うと、渋谷という街に情報や、音楽、アートなどのいろいろなコンテンツや機能をXRでどんどんレイヤードしていくというか。

重ね合わせていくことで、渋谷の街そのもの、ある意味、渋谷のミラーワールドみたいなところをもっと楽しい、ワクワクできる場所にできるんじゃないかなぁと思って作っている次第です。12月もなにかやるので、楽しみに待っていていただければと思っております。

バレーボールの甲子園「春高バレー」をARで観戦

今のが街の話だったんですけれども、スポーツもいろいろやっております。これがわかりやすいかなと思って、1個持ってきたんですけど。

みなさん、「春高バレー」ってご存じですかね? 年始にバレーボールの甲子園みたいなものがやっているんですけれども、そのときにやったAR観戦というものです。まずバレーボールの視点ジャンプというものを作って配信しました。

現地へ行くとわかるんですけど、センターコートとかって遠くて見えにくいんですよ(笑)。せっかくいいプレーをしているのに座席によってはよく見えなかったりするので、あえて視点をジャンプさせて、会場の雰囲気を楽しみながらより良い角度からリアルタイムで見られる機能を作ってみたり。

あと、AR上で応援を可視化してみようというので、応援スタンプを空間に配置してみました。自分でも投稿できますし、周りの人が投稿したスタンプも見えるようになっています。

あとはスコアと実況。これは玄人の方に一番見ていただいたんですけど、試合の得点経過を示す「ジグザグ」をARで表示してみました。バレーボールって、やっぱり流れがすごい部分で。それって、テレビだと「ジグザグ」が表示されているんですけど、現地だと見えないんですよ。なので、それを現地で見れるようにARで出してみたり。

あとはこれもそうですね。これはパンフレットを見ていて、今試合をやっているのが誰かがすぐにわからなかったりするので、選手リストを出してみたり。

観客とリアルな試合をより深くつなげられる機能

あとは「4DREPLAY」という自由視点の技術ですね。40台のカメラをバーッと並べて、画像をこういうふうにつなぎ合わせて。ある意味、映画のマトリックスみたいな映像を作ることもやっています。アプリ版では自分で角度をいじれるので、「さっきのプレー、何だったんだっけ?」と見ている人も多かったですね。春高バレーではこんなことをやっていました。

僕らが開発のときにすごく重要視したのが、ただでさえその場に行っているので盛り上がってると思うんですけど、XRを使ってコンテンツをレイヤードすれば、お客様とリアルな試合をもっと深くつなげることができるんじゃなかろうかと。

そのときに重要なのは、視覚を全部奪うんじゃなくてサブディスプレイ的な、ちょっと見たときによりエンゲージメントが深まるような機能なんじゃないかなと思っていて。それに合わせて、必要な情報をリアルタイムで届けることを重視して開発しています。

あと春高バレーですごくこだわったのが、全部Webでやることです。アプリを作るという話もあったんですけれども、行ってすぐに楽しんでいただけないというか、その場でアプリをインストールするのってすごく大変なんですよね。

スポーツ観戦をされている方だったらわかると思うんですけれども、スポーツの会場ってみんなが一斉にネットにアクセスするから、現地に行くととにかくネットにつながりにくいときがあるんですよ。なのでアクセスしやすいように、インストールの必要なく、Webでさっと使えるように作っております。

繰り返しにはなりますが、視点ジャンプでは、EndtoEndで0.5秒で配信するということをやっております。おそらく日本でこれだけの超低遅延での大規模配信はほぼ初なんじゃなかろうかと思っています。あとはARジグザグとか。会場内で観戦を邪魔せず、スタッツ(選手のプレー内容に関する数値)を見られるような機能も作っていました。

サッカー観戦のプレミアムシートに、専用アプリを入れたタブレットを設置

これで図に乗ったので(笑)。今度はサッカーでもやってみようというので、実は3月にサッカー日本代表でもAR観戦をやってみました。

KDDIはサッカー日本代表のサポーティングカンパニーだったりもするので、JFA様とキリン様と連携してこんなこともできたんですけど。3月に行われたA代表のキリンチャレンジカップでAR観戦をやろうということで視点ジャンプやスタッツ表示をアプリとして組み込みました。

特別なプレミアムシートにタブレットを100台設置して、中に専用アプリを入れて観戦していただくという作りです。これはゲームですね。ちょっと映像が長いので飛ばすんですけど。

これも考え方は春高バレーとほぼ一緒で、サブディスプレイを作ろうというものです。今度はアプリ版で作ってみたという感じです。このときにすごく重要視したのが、実はスタジアムの3Dモデルを事前に作ったんですね。事前に観客席がそれぞれどの場所にあり、どういう角度でピッチが見えるかを全部モデル化しました。

モデルを使ったうえでコンテンツの表現をしたので、ARの表示位置はかなり最適化できたんじゃないかなと思っています。今回はかなりアナログ的に自分たちで測って作っているんですけれど、最初にお伝えしたVPSって覚えてます? 

VPSという技術があれば、別にこれはいらないんですよ。入ってかざせば今どこにいて、どの方向を見ているかが全部わかるので、最適化した状態でパッと出せるんじゃないかなぁと思っています。このときは、その実験ですね。

サッカーのピッチ上の空間に情報を投影してメディア化

さっきも言ったとおり、3Dモデルを活用しているので、空間自体をメディア化することができました。ピッチの上ってすごくもったいない空間なんですよね。絶対見るのになにもなくて、ただ下のほうを見ているのは、空間の使い方としてちょっともったいないかなぁと思うんですけど。

そこをメディア化することができるので、もちろん広告を差し込むこともできます。ARであれば選手にも、競技運営上も邪魔になりませんし。あとはここにスタッツなどを出してあげることで、「今の選手誰だったんだ?」とか「今のプレーのリプレイ見たいんだけど!」というお客様の要望満たす機能やコンテンツを空間に全部表示してあげられるんですね。

あとはゲームとか。今回はスタッツゲームみたいなものと、この下にカジュアルゲーム。キックターゲットのようなものを作ったんですけど。試合の前ってけっこう時間があるんですよ。

ちなみにサッカー日本代表の試合は19時半くらいからキックオフなんですけど、開場って何時くらいだと思います? スタジアムの中に入れるのは16時半なんですよ。3時間前。もっと言うと、スタジアム周辺のショップなどが開くのは13時です。早い人は12時くらいからいます。なんなら泊まり込みの人もいます。

みなさん、けっこう現地に12時くらいからいるんですよね。そこから6時間以上待つんですよ。せっかく行って楽しんでいるのに、ブースで買い物して、ちょっと食べて終わりだともったいないので、もっとサッカーに触れるような機能を出せないかということで、いくつかゲームを作ってみました。

ワールドカップバレーでの日本初の大規模映像配信

あとはスポーツ系でわりと最新のものだと、これは映像がないんですけど。この間夏にやっていたワールドカップバレーでも、地上波と連動するサブディスプレイというものを作ってみました。これはまさにテレビを見ていると、カメラがけっこうポンポンと切り替わっていくんですよね。

ある選手を応援したいのに、(映像が)どんどん変わっちゃったりすることもよくあるんですけど。あと全体像を見たいのになかなか映してくれないこともあると思うんですけど。それができるようにさっきの視点ジャンプを応用して作ったりもしました。これもWebでやっています。

映像業界の方だったらわかるかなぁと思うんですけど、このときは実は、Ultra Low Latency-CMAFという形式で映像を配信しています。ちなみにこの形式を活用した大規模配信事例では日本初でした。もう少しで世界初だったんですけれど、直前にインドのクリケットの世界大会にやられてしまって、2番目くらいになっています。

自分で言うのもなんだか恥ずかしいんですけど、実はすごいのが、ULL-CMAFというのはAndroidしか対応していないんですね。「iOSをどうするんだ」という話があったので、実は既存の配信方式を活用しながらも、チューニングでめっちゃ速くして、ほぼ同等のスピードで配信したりしています。なので、地上波からだいたい2秒くらいの遅延で見られるようなものを作りました。

今事例をバーッとしゃべってきて、残り30秒なのでサクッといこうと思うんですが(笑)。

KDDIの共創とこのサービスプロトタイピング、今作ってきたものは、全部ほぼ高速でバーッとやってみているようなものなんですけれど。どう関係するのかと言うと、やっぱりスタートアップをはじめとするほかのパートナー企業の方々と一緒に作らないとできないんですよね。

自前主義の技術だけだとスピード感に合わなくて無理なんですよ。なので、ある意味オープンイノベーションみたいなかたちで、僕らのこういうニーズがあって、実現できる技術があるスタートアップの方と一緒になって、その目的に向かって作ってみましょう、ということをひたすらやってきた605日でございます。

オープンイノベーションには、技術やデザインのキュレーション機能が重要

その中でKDDI、特にビジネスインキュベーション推進部や僕はプロジェクトの中でどういう役割を担っているのかと言うと、技術やデザインのキュレーターなんじゃないかなぁと思っています。

やっぱり大事なのがオープンイノベーション。さっきもお伝えしたとおり、自前主義の技術開発をしていくのはもちろんすごく重要なので、絶対にやっていくべきなんですけれども、自分たちのコアでなくてもお客様の体験価値にとって一番大事な部分は、それを持っている外の企業と一緒になって、モノを作ったりしています。

KDDIもスタートアップと一緒にどんどんやっていっているので、オープンイノベーション志向でガンガン進めています。

あとはやっぱり、技術やデザインのキュレーションがすごく大事だなぁと思っています。さっきご紹介したプロジェクトってすべて、全社横断、本部横断のプロジェクトなんです。単純に「こんな技術ができるから一緒にやろう」と働きかけるよりも、社内で「こういうふうに思ってるんだけどなんかできない?」と相談されたときに、「ここのスタートアップのこういう技術を組み合わせれば、こういうふうに実装できるよ」と伝えられることがすごく大事だったり。

「たぶんできるよ」からはじめる、可能性主義のプランニング

最後、可能性主義のプランニングと呼んでるんですけど。相談されたときに「(今は)できない」と言うんじゃなくて、「(こうすれば)たぶんできるよ」と言ってみる。具体的な実現方法・実装方法はあとで必死に探したりするんですけど、一旦「できるよ」と言ってみることを、僕も僕のいるチームもすごく重要だと思っています。

あとは領域の越境。これは当たり前の話ですね。別に専門性に特に捉われずにやっています。最初にお伝えしたとおり、技術よりも、お客様の体験拡張を核に進めています。ちょっとだいぶ駆け足になっちゃったんですけど、今日お伝えしたかったKDDIの共創とβサービスプロトタイピングは何が重要なのかと言うと、やっぱりパートナーと共創できないと(越境が)できないので。

今日もパートナー企業の方がどこかにいらっしゃるかなと思うんですけど、ぜひこういうパートナリングや共創は引き続きやっていきたいなと思っております。ありがとうございました。

(会場拍手)

続きを読むには会員登録
(無料)が必要です。

会員登録していただくと、すべての記事が制限なく閲覧でき、
著者フォローや記事の保存機能など、便利な機能がご利用いただけます。

無料会員登録

会員の方はこちら

KDDI株式会社

関連タグ:

この記事のスピーカー

同じログの記事

コミュニティ情報

Brand Topics

Brand Topics

  • プロジェクト管理も議事録も会議設定もすべて生成AIにお任せ 「Zoom AI Companion」はこうして使える

人気の記事

新着イベント

ログミーBusinessに
記事掲載しませんか?

イベント・インタビュー・対談 etc.

“編集しない編集”で、
スピーカーの「意図をそのまま」お届け!