プログラムを書き換えないとクリアできないゲーム

寺本大輝氏(以下、寺本):よろしくお願いします。

僕たちは、すべての子どもたちがプログラミングを好きになれる、そんな世界を作ろうと思っています。そして、それを実現するのがこのゲームです。

実はこのゲーム、バグってるんですよ。最初のスライムが何度攻撃しても倒せないんですね。なにか後ろから迫ってきてますね。これは、おっと、本でしょうか。

おもむろに、今、数字の部分を書き換えてしまいました。すると、スライムのHPが一瞬にして1になってしまいました。いったいなにが起こったんでしょうか。

今度はあのスライムがうじゃうじゃいますね。今度はまたおもむろに、数字をどんどん、ありえないぐらいでかい数字に変えちゃいました。すると、あっ、一撃でスライムを倒してしまいました。

そう、もうおわかりだと思いますが、実は攻撃力のプログラムを書き換えたんです。つまり、これはプログラムを書き換えないとクリアできないゲームなんです。

今まで2万人以上の子どもたちがこのゲームをプレイして、次はどんどん自分でゲームを作っていくという状況です。おもしろさがわかれば子どもたちは自ら進んで学んでいくということを、僕たちはすでに確信しています。

そして、これをさらにスケールさせていくには、もっとおもしろいものが必要だと僕たちは考えています。もっとおもしろいもの、それはなにか。『Minecraft』です。

じゃあ、デモを見せます。このデモの成功確率が、プロジェクターをつなぐと30パーセントぐらいなんです。

(会場笑)

なので、うまくいくかどうか自分でも今まったく自信がないんですけど、ちょっと……うまくいきそうです。

まず、このアプリケーションを横に置いておきまして、こっちにMinecraft Education Editionという特別なMinecraftをここに置きます。ここからスタートです。

こっちの画面でFeelesという僕らが作っている統合開発環境の名前を指定してあげると、ブラウザのベースのあるアプリケーションが出てきます。このキットを開くと、開発をするためにコードを書く画面が出てきます。この中に「プレイヤーが動いた」と書いてありますが、例えばこの中に「モンスターを出す」みたいなことを入れられるんです。

「なにかをしたときに、なにかをする」みたいなことをプログラムできるんですが、今日は時間がないので、おもしろいものを1個だけお見せします。

もう準備ができています。今、足元がカラフルに光っていますが、実はこれ、足元にカラフルな羊の毛をどんどん置いているんです。ジャンプすると自分の足元にカラフルな羊の毛が現れるので、こんなふうに空中を歩くことができるんです。

これって普通のMinecraftではまったくできないことなんですけど、たった4行ぐらいのプログラムを書くことでこれが作られているということです。普通のMinecraftではできないことができるということがおわかりいただけたと思います。

僕たちは、このように、その子が一番集中できる、一番熱中できるものから始められるよう、たくさんの独自コンテンツを作っています。

まとめるとこういうことです。すでにおもしろいものをハックすることから、本当に楽しい学びが始まっていく。僕たちはこれを「HackforPlay」と呼んでいます。これが新しい学びです。

以上です。ありがとうございました。

(500 Startups賞を受賞)

澤山陽平氏(以下、澤山):たぶんこのあとの審査員もみんな同じことを言うと思うんですけど、今回めちゃめちゃいろいろあって、本当に選ぶのがすごい大変だったんですけれど、やっぱり今回の審査基準はいつも応援したいところ。っていうと、やっぱり僕は根っこはエンジニアなんですよ。

あと、今回のプレゼンがすごく楽しそうというか、これはやっぱり「おもしろいものを作っているんだ。それを伝えたい」という気持ちがすごく伝わってきたところが僕は大好きでした。

これ、たぶん裏の実装とかけっこうめんどくさかったんじゃないのかなと思っていて。デモも成功したし、本当にこれがもっと広がってくれることを応援したいなと思って、賞を贈らせていただきました。本当におめでとうございます。

触感を手軽に体験できるプラットフォーム

竹内祐太氏(以下、竹内):「TouchCast 触感を手軽に扱えるプラットフォームの提案」と題しまして、竹内が発表させていただきます。

言わずもがななんですが、VRブームが加熱しております。「3Dの物体が見えてくると、だいたい人間は触りたくなる」みたいな話があって、触感もわりとブームになってきていると僕は思っています。

ただ、僕は5年ぐらい触感の研究者をずっとやっているんですが、触感ってどうしても高いとか煩雑になってしまうという話があって、触感体験みたいなものをもっとシンプルに手軽にできないかということを問題意識として持っていて、このプロジェクトをやっています。

我々のプロジェクト「TouchCast」というのは、振動だけにフォーカスして簡単に手軽に、これぐらいのサイズ感で触感を体験できるといった仕組みを提案しております。

これの簡単なポイントとしては、本当に実際に携帯からイヤホンジャックを1本出すだけなので、さまざまなデバイスに対応が可能ということ。

あとはもうUnity向けのプラグインができていて。どういう仕組みかというと、ゲームを作るときにSEってあるじゃないですか。それをアタッチするだけでいい感じの触感を勝手に生成してくれるといったものです。この画面は普通のUnityのサンプルのやつなんですけれども、本当に入れるだけで済みます。

触感なのでなにを言ってるかちょっとわからないと思うので、デモをしたいと思います。じゃあリアクションに定評のある麻生さん、ちょっと前に出て来ていただいてもよろしいでしょうか。

麻生要一氏(以下、麻生):僕ね、やったことありますよ。だから、たぶん……。

竹内:そうですね。

麻生:澤さんは?

澤円氏(以下、澤):僕なの?

(澤氏、壇上に上がる)

:(竹内氏に)がんばれ、がんばれ。なんかつないでおいたほうがいいの?

竹内:いや、大丈夫です。……やっぱり、お願いしていいですか。

(会場笑)

:本当に振られた(笑)。だいたいITとかこういうプロダクトというのは、デモ中にコケるのは、これ宿命ですからね。だから、デモはコケるものだと思って「今日もいい日だな」と思うのが鉄則ですね。

(会場笑)

西村賢(以下、西村):それ振動ですよね。なにで振動しているのか、ちょっと聞いて……。

:ああ、そう……(竹内氏に)聞こえましたよね。

竹内:はい。

:これは携帯の振動を使っているの?

竹内:そうです。バイブレータ。

:だそうです。

竹内:いや、この中に……。

:あ、違うの。こっち!?

竹内:スピーカーを使ってるんです。

西村:スピーカーで揺らしてるんだ。

:スピーカーなのか。へえ。それは指向性があって、方向をちゃんと。ほうほう。

竹内:そうですね。フィルタリングにけっこうギミックがあってやってるんですけど。

西村:じゃあ音なんだ。

竹内:これをやっていただいて。

:お、きたきた。アイドリングしてる。

竹内:画面がこちらになるんですが。

:アイドリングしてるな。

竹内:ここがアクセルボタンになってるんですけど、押すと、SEのものがそのまま。

:おおー。ちなみにね……触感が完全に今、止まりました笑。

(会場笑)

竹内:壊れましたね。失礼しました。わざわざ出てきていただいて(笑)。

:でも、それまでのアイドリングはそれっぽさがありましたね。

竹内:そうですね。もうこれそのまんま……本来はできたという話で。

:できたということにしましょう(笑)。

竹内:失礼しました。指すだけで触感が自動に生成されて、再生されるといったものになります。

今年の進捗としましては、量産に対する実装と低コスト化はもう終わったので、Unityのアセットの実装も終わったというところがあって、ただちょっと今、故障があったというちょっと心配な実例があるんですけど(笑)。なので、8月の末をターゲットにクラウドファンディングを実施しようと思っていて、プロモーションビデオを今作っているところです。

触感のデバイスってコンテンツがやっぱり重要だと思っていて。視覚障がい者さんとのつながりがありまして、「娯楽がない」という話があったときに、視覚障がい者さん向けに、年末めどで触感にフォーカスしたボードゲームというのを作っています。これもたぶんクラウドファンディングになるのかなと思っております。

以上になります。失礼しました。

(TechCrunch Japan賞を受賞)

西村:TouchCastさん、やっていることは正直、本当のコアなところをまた別に取材とかで聞きたいなと思ったぐらいなんですけれども。なんていうんですかね、実装がシンプルというか、practical。ちょっとhackishな感じもして僕はすごい好みですね。

もう1つ大事なのが、すごいアテンションを得られるかなという感じがしました。メディアの立場ではある意味、記事にしやすいというと大変失礼なんですけれども、別に記事にしてもらうためにやってもらってるとは思わないですけれども。ただ、プロダクトを押し出すときに、やっぱりなにか「これ、おもしろい」と思ってもらえるものってすごく大事だなと思っていて。そういう意味でもメディアが選ぶ理由になったかなと思っています。

あと、グローバルでもいけるんじゃないかなと思っています。ぜひアメリカのTechCrunchにつなぎますので、売り込んでいただければと。グローバルデビューをぜひしていただければと思っています。おめでとうございます。

食品業界の帳票類の管理をスマートに

諸岡裕人氏(以下、諸岡):みなさん、こんにちは。Smart QCの諸岡と言います。今日は食品業界の話をみなさんにお伝えしに来ました。品質管理のSaaSを作っています。

食品業界、みなさん馴染みがないと思うんですけれども、一番大変なことはなにか それは帳票類の管理です。これ右側が1日に1工場で出る帳票の数。だいたい400枚ぐらい。左側が一部署の風景ですね。

ここに実物も一応持ってきたんですが、このぐらいのボリュームのものが出ています。

そのなかで、いろいろあるんですけど、一番クリティカルで量が多いものでいうと、温度記録の管理というものがあります。これがすごく大変なんです。非効率、しかも不正確。1日あたりだいたい100万枚ぐらいの紙が日本中で出ています。

これは、あるルールに従って記録がされているので、そのあと管理やチェックが必要になってきます。それにかかる膨大な時間がこれぐらいかかっています。

救えないところが、手書きで紙に書いているので、改ざんがめちゃめちゃ可能。いたるところで改ざんが行われている。これが実態です。

これをどう解決するか。非常にシンプルです。スマートフォンから直接温度記録を計測してデータ化します。Webのほうから帳票を作成し、対象をスマートフォンで計測して、記録を自動でチェックする。たったこれだけになります。

トラクションというか、実際お金を払ってもらっているわけではないんですが、MVPのテスターとして、こういった会社さんにテストしていただいています。

なぜ今やるかというところ、これがけっこう大事なんですが、2020年に向けて政府がHACCPの義務化を決めています。これは一次生産者を除くすべての食品関係業者が対象となってくるので、かなり大きな話になってくると思います。そのなかでも、食品製造業だけで言っても、まだ65パーセントがこのHACCPという基準が未導入になっているということなので、ほかの業界からすると、まだまだこれから動きがどんどん出てくるのかなと。

ただ、みなさん慣れていないので……ゆくゆくなにをしたいかというと、はじめは温度管理、帳票管理から始めるんですけれども、そのあとは品質管理、衛生管理に必要なさまざまな要素を管理できるSaaSを提供したいと思っています。

イメージ的には、業界を選んで衛生レベルを選べば、1クリックでその業界に必要な管理環境構築ができるような、Cloud9みたいなイメージですね。1クリックでできちゃうものを想定しています。

マーケットなんですけれども、食品業界全体でいえば80兆ぐらいあるんですが、いきなりそこはちょっと無謀なので、品目数が多い業界は帳票の数も多いということで、惣菜市場を狙っていきます。

その惣菜市場のなかでも、給食市場というのが一番、先ほどあげたような……僕は機内食会社と関連が深くて、今、機内食会社でテストをしているんですが、一番機内食に近い給食市場からやっていきたいなと思っています。

品質管理にかけているお金というのはオープンになっていないんですけれども、だいたい設備等々もいろいろ含めても0.5パーセントぐらいなので、これぐらいを想定しています。

チームなんですが、僕以外のエンジニア4人と僕の5人のチームでやっています。日本の温度機器メーカーである、ここにT&DとCUSTOMって書いてあるんですが、こういったところとも今、協業して開発を進めている最中になります。以上です。

(54賞を受賞)

山口豪志氏(以下、山口):SaaSのモデルのビジネスは、けっこう僕、個人的にいろいろ関わってる会社が多くて。古い産業とか、まさにこれからIT化が求められるところの領域に対して技術で貢献するというテーマが個人的にすごく好きなので、今回選ばさせていただきました。

ぜひがんばって、洗剤メーカーなのかなんなのかを、BtoBtoBでこじ開けにいくところをぜひ見たいなと思っていますので、よろしくお願いします。ありがとうございました。

IT関連のプロダクトの多言語化

近澤良氏(以下、近澤):よろしくお願いします。Locki, Inc.の近澤と申します。今日は「GitLocalize gitリポジトリのための継続的翻訳ツール」をご紹介させてください。

まず、IT関連のプロダクトの多言語化って非常に難しいです。なにが難しいかというと、頻繁な更新が発生することですね。

例えばこちら、Googleの「Web Fundamentals」というWebサイトのプロジェクトなんですけれども、平均1日に6.9回も変更が行われているんですね。なので、多言語化をしていくと、この変更があるたびにどんどん翻訳もアップデートしていかなきゃいけないっていうところにまず難しさがあります。

そして、さらにプロセス自体がすごく複雑です。例えばこれ、僕が前職でVikiというシンガポールの会社で働いていた時に、チーム内でやっていたローカライゼーションのフローなんですけれども。

エンジニア、プロダクトマネージャー、翻訳者、レビュアーがファイルを送りあったり、機械翻訳とかクラウドソーシングを使っても、コピー&ペーストでもすごいマニュアルで複雑なプロセスがあったということがあります。ここがまた難しいと。

そこで我々が作ったのが「GitLocalize」というサービスです。これはGitHubのリポジトリと連携することによって、この変更を自動的に検出、差分を抽出することによって、どこを翻訳すればいいかというのを教えることができます。そうすると、翻訳者やレビュアーがこのGitLocalizeに来て、効率的に継続的に翻訳していける。

さらに、こういった機械翻訳やクラウドソーシングの翻訳サービスとも連携することによって、コピペのマニュアルワークなしにこれらを活用することができる。

翻訳が終了したら、またGitHubのリポジトリと連携することによって、GitHubを中心とした開発のワークフローを崩さずに、そこに自然にローカライゼーションのプロセスを入れていけるというツールになっています。

現在は、ベータ版をローンチしておりまして、まずはエンジニア対して開発ツールの一環としての認知を上げるために、オープンソースのプロジェクトのドキュメンテーションの翻訳に利用していただいています。

有名どころでいうと、この超有名なVue.jsというJavaScriptのライブラリのドキュメンテーションの翻訳に使ってもらったりとか、Node.jsのドキュメンテーションにも今、統合が進んでいるところです。

こういったエンジニア、例えばRubyの松本さんであるとか、Node.jsユーザーコミュニティ代表の古川さんだったりとか、エンジニアを中心にTwitterやGitHubでの非常によいフィードバックをいただいております。

チームは、僕が近澤、Co-Founder & CEOで、山下がCo-Founder & Engineerとしてやっております。

次にどうしていいくか、今後の話なんですけれども、このGitLocalizeの今やっているプロセスをすべて自動化します。どういったことかというと、こういったことです。

まずコンテンツをソースコードに足します。それをGitに対してcommitする、そしてpushする。そうすると、このLocalizationのプロセスが自動的に走って、翻訳が完了したよって通知がSlackに来る。

そうするとPull Requestがもうすでに送られていると。ファイルをgenerateして、GitHubのリポジトリに対して送って、もう翻訳されるんですね。

それで問題なければ、じゃあマージしちゃおうと。マージすると、もう多言語展開がほぼ遅延なく、チームが負担なく展開できる。

なので、チームが多言語化ということをまったく気にしなくても、どんどん気軽に多言語化していけるという、そういう世界を目指していきたいと思っております。

以上になります。どうもありがとうございました。

(Microsoft賞を受賞)

澤円氏(以下、澤):なぜこれを選んだかというと、さっきもちょっと言いましたけれども、今、日本というのはすごく言語のバリアが高くて、コンピュータですごくいいことをやってる人たちがアピールすることができないというのは、すごい問題なんですよね。

ランゲージバリアに関しては、僕も上司がスウェーデン人だったりして、すごく感じているので、それを打破することができて、なおかつ、テクノロジーのところから言語の壁を超えてテクノロジーに対してアピールができるという。このサービスに関しては非常にニーズが高いと思っていますので、期待をしています。ありがとうございました。

手の創造性をひきだす視覚言語ツール

和田夏実氏(以下、和田):それでは始めさせていただきます。「手の創造性をひきだす視覚言語ツール」ということで始めさせていただきます。和田夏実と申します。

私は、(スクリーンを指して)こちらが私で、こちらが今向こうにいる南雲さんという女性なんですけれども、彼女は耳が聞こえず、私は生まれた時から両親がろうだったので、手話を第一言語として育ちました。

現在、私と、この麻衣さんと、エンジニアの瞳さんという方で進めています。私は手話通訳士をしながらインタラクションデザインを研究しています。

音声言語と視覚言語には情景の2通りの表現がありまして、表現の方法がまったく違うというところがあります。それをもとに、あるアプリケーションというか、システムを開発しております。

手で表す手話というのは、位置、形、動き、量、質感、変化を表すことのできる、4次元的な視覚言語です。手話は見たものをそのままに表現することができ、そして、これがいったいなにかということを言葉を知らなくても表すことができるという意味で、すごく視覚的に豊かに伝えることのできる表現方法です。

実は、今、開発中なんですけれども、3月までのシステムの段階で作っていたのがこちらになります。

Visual Creoleは自分に重ねるようにイラストを描き、それと合わせて手と顔で表現することで表現力を引き出す表現ツールで、自分の体の上に絵が出てくることによって、現実空間にそれがあるかのように感じることができるというものを作っていました。これが3月までの段階です。

このようなものを作っていまして、さまざまな視覚言語というものを集めていました。3月の段階で256個ぐらいのユーザーテストを繰り返し、このような言語を集めていたんですけれども。

現在、開発を重ねまして、一番最初はLeap Motionというカメラから始めた開発が、RealSenseにいき、4月からOpenPoseという最近の画像認識システムを導入しています。

これによって、機械学習を用いた画像解析システムができることで、今まではカメラで毎回毎回手話を撮ってそれをデータ化しなければならなかったものが、昔の本当に1970年代の手話から今までの手話まで、かなりの量を解析できるようになってきました。

また、今、この状態だと、手は認識できていないんですけれども、今、OpenPoseというライブラリがこの6月にリリースされたばかりで、今週か来週に手の情報が取れるようになっています。なので、こちらとしては環境を用意しておいて、もう一刻も早く、手が出た瞬間にかなり映像をどんどん入れていきたいなと思っています。

今、考えているのが、OpenPoseで取ったシステム。あと、顔を肩と腕が取れるというのは、今までのKinectだったりの深度カメラは絶対にできなかったことなので、かなり機械学習によって、すごく未来が開けているという状況です。

今、ソフトを使ってそれぞれのジェスチャーにラベル付けを行っていっています。そのラベル付けに対してグラフィック……これも今、全部自分で作ることは難しいので、QuickDrawなどのデータを借りてきて、このグラフィックを表示するというシステムを作っています。

これが実現したときには、このように手話を携帯でスキャンするとか、動きをスキャンをすることによって、(スクリーンを指して)このように雨が降ってきて、すごくざあざあ降りになって、曇になって、雷になって、ビショビショになってしまった、というようなものが作れると思っています。

これを例えばGoogle ハングアウトだったりさまざまなものに入れて導入していくことによって、外国の方と自然にコミュニケーションができるようになったり。

あとはなにより、従来のジェスチャー認識では縦横だったり手の動きだけを認識していたところを、もう手話という200年も昔からMixed Realityの世界で生きてきた人たちのジェスチャーを参考にすることによって、私たちの手の表現の可能性というものをどんどん拡張していけるのではないかと思っています。

以上です。ありがとうございました。

(TECH LAB PAAK賞、オーディエンス賞を受賞)

麻生要一氏(以下、麻生):最初は聴覚障がい者向けの、障がい者の方のための解決ソリューションとして評価していたんですが、半年経ってみて今日のデモとかを見ると、もはや聴覚障がい者のためというよりは、すべてのビジュアルコミュニケーションを豊かにするような可能性をすごく感じていて。

その生まれから広がりの出方みたいなものも含めて、すごく進捗したなと思っていて、すごい可能性を感じました。これからがんばってください。

貼るだけであらゆるところがタッチパネルに

伊藤輝氏(以下、伊藤):最後になりました。MagicKnockというIoTプロダクトについて紹介します。実世界をハックするということでやっております。

我々が作っているのは、手のひらサイズのこういう白いデバイスになります。

これをどう使うのかというと、家のあらゆる机や壁、安定した平面に置いていただきます。そうすると、その机に対するタッチやタップをすべてセンシングして、テレビを操作することができます。

そうすることで、Alexaとか音声で指示しますけれども、こういう連続入力を可能にすることで、選択していろんなものを見ることができるということで、部屋のどこにいてもあらゆる家電やテレビを操作して、いろんなコンテンツを見ることができる、というものです。

いろいろ機能はあるんですけど、ほかは調べてください。ググると出てきます。

この6ヶ月間いろいろありました。BluetoothのImagine Blueアワード。これ、国内初でファイナリストになりました。あとSlush Tokyoではブースの出展やピッチをやりまして、最近は「トレたま」にも出ました。

どんなふうになったのかというと、すごいことになりまして、半導体メーカーと提携しました。これすごいんですけど、ノックしたときに実は超微弱な発電をしてるんですよね。その発電だけで論理回路のスイッチングを行うことに成功しました。

つまり、ほぼ無電力で、遠くにある回路の電源を入れる、スイッチングをできると。つまりほとんどの今IoTで問題になっているようなことを全部これで解決できるということで、今、特許まわりをやってるんですけれども。

なにがすごいかというと、電池がほとんどいらないのでカードサイズにできちゃうんですね。クレジットカードの厚さぐらいにできちゃうわけです。

実際に振動をセンシングにするピエゾ素子も0.01ミリとかなので、あらゆるところに貼っちゃうだけで、あらゆるところが全部タッチパネルになってしまうというデバイスになっております。

以上です。MagicKnockでした。ありがとうございます。

(オーディエンス賞を受賞)