金融機関向けのオペレーショナルリスク対策

及川恵一朗氏(以下、及川):よろしくお願いいたします。

(会場拍手)

ありがとうございます。私はアルテアエンジニアリングでデータアナリティクス事業のビジネス開発をしております、及川と申します。

我々の製品を使ったオペレーショナルリスク対策のソリューションについて、40分間のお話をさせていただきますので、よろしくお願いいたします。

みなさまは金融機関にお勤めだと思いますが、ほとんどのお客様がアルテアエンジニアリングをご存知ないかと思います。弊社は米国ミシガン州に本社がございまして、1985年に設立されました。

東京は京橋エドグランにオフィスを構えているんですが、2018年11月にDatawatchという会社を買収いたしました。

もともとアルテアという会社は、衝突解析だったり熱流体であったり、このようなマニュファクチャリングに対してシミュレーションのソリューションを提供している会社でございます。

その会社が、Datawatchで提供していた金融機関向けのソリューションを継承して、日本の金融企業様に向けて昨年の10月からサービスを開始しております。海外では長きにわたって金融機関様にご利用いただいているソリューションでございます。

データのデジタル化を推進する3つのソリューション

データのデジタライゼーションのお話をさせていただきます。コスト削減、クラウド化、オルタナティブデータやビッグデータの活用に、RPAの導入などをされているかと思います。その中でも、次に何を行うかというところで私どもにお声がけをいただくのが、下に書いてある3つです。

データクレンジングとそのデータ整備(プレパレーション)。次に、お持ちのデータをビジュアライズさせること。そして、新たなαを生み出すための分析・解析です。「それらができるソリューションなにかない?」というお声を各方面からいただいたので、この会社が存在しているのかなと思います。

みなさまからのお問い合わせで多いのがビッグデータの前処理ですね。データをいろんなかたちで整理する。みなさまは統一されていないフォーマットの異なるデータや非構造化のデータをお持ちかと思います。それを同じようなフォーマットを集めて1つのデータにします。

もう1つはデータサイエンス。みなさまはR言語やPythonなどで分析をされていると思いますが、そういった知識がなくても(分析)できるようにしたのが、機械学習と予測分析のツールです。

そして、最後にデータの可視化、ビジュアライゼーション。膨大で複雑なデータを簡単にビジュアライズし迅速な意思決定へと導くソリューション。この3つをご提供しております。

金融機関が持つデータをビジュアライゼーションしていく

ソリューションばかりの話をしていてもあれなんですが、弊社にはデータを前処理するMonarchという製品がございます。みなさまはお仕事上で、PDFファイルで送られてくるWord、Excelの情報であったり、未だに手入力をしないといけないような請求書などを非構造データでお持ちだと思います。

それをこのように1つのデータにして管理されたり、これをクラウドに放り込みたいというようなお話があると思うんです。この作業を人間が行うことを弊社はリスクと考えています。ここをいかにスムーズに、(もともとのシステムと)敵対させず、自動化して構造化のデータに持っていくか。

これは我々のソリューションのスナップショットであるんですけど、自動的に読み込ませて定義を学習させた上で、このようにデータ化をしていくことができます。

実は私の持ち時間は5分しかございませんが、このあと弊社のBIツールであったり、いわゆる機械学習的なところのご紹介もさせていただきます。私からは以上でございます。

ビジネスユーザ向けの予測分析と機械学習のプラットフォーム

小口暁壮氏(以下、小口):では続いて私から、先ほど紹介のあった製品のうち、とくに機械学習を使った予測分析や、データマイニングのソフトウェアの部分についてご説明差し上げます。

(スライドを指して)こちらにあるように、富の源泉が石油からデータに移ってきていると言われています。世界で最もデータを活用している企業。例えば代表的なところとしては、GAFAMなどのIT企業やUberなどがあります。そういったところがプラットフォームを運用して、データから効果的なサービスを作ってユーザ層を拡大し、さらにそこから大きなデータを獲得する循環を回して大きな利益を得て、さらに市場のシェアを独占するような構造が生まれつつあります。

この「Data is new oil」というバズワードも2017年と、2年以上も前の話で、データを活用して価値に結び付けるというのも、もはや一過性のトレンドではないと言えます。

そこで我々の提供する「Knowledge Studio」という製品は、まさに機械学習や多変量分析等の手法を使って、過去のデータから予測・分析を行います。それからデータマイニングを行って、データからあらゆる知見を生み出す。そういったことのために使っていただけるツールです。

さまざまなスキルセットの方に使っていただけるように設定されていますが、どちらかと言いますと専門のデータサイエンティストの方よりも、これからデータ分析を始めようと考えられているビジネスアナリスト、ビジネスユーザの方に何よりもおすすめしたいと考えております。

というのは、この分野の主流であるPythonやR言語を使っている方も多くいると思いますが、いずれにしろ作業を主体としてプログラミングをしなければならない状況です。データ分析を始めたいのに、まずプログラミングを始めなければならないという状況を打破するために、プログラミングなどを一切せずに基本的にGUI(Graphical User Interface)の操作だけで機械学習などの高度な手法を扱えるようになる。そういった製品です。

金融サービスにおけるデータ分析ツールの活用事例

そのベースとなるアプリケーションが2つあります。1つはデータマイニングに特化したKnowledge Seeker。こちらは決定木を主体とした手法をご用意しております。もう1つが上位互換にあたるKnowledge Studioです。こちらが回帰ニューラルネットワークを使うとか、あとはパケット分析など、さまざまな手法を用意しております。

あとはその構築した予測モデルをリアルタイムで運用していくための仕組みや、テキスト解析のためのアドオンなどがございます。

膨大なデータ、いわゆるビッグデータを取り扱いたい場合には、分散処理が基盤上で動くKnowledge Studio for Apache Sparkというものがございますので、クラウドのリソースや高性能のワークステーションを使って、膨大なデータから人間には到底生み出すことのできない知見などを取り出すのに使っていただいています。

実際にこういった製品が金融サービスの世界でどのように役に立っているかというと、例えばオリジネーション(M&Aや資金調達などの案件を打診・発掘・取得する活動)のところでは、融資先を評価するのにスコアカードというものを作る。それから、貸し倒れの確率を予測してリスクを最小化する。ないしは一定のリスクの中でも収益を最大化するような戦略を立てる。

あとは行動ファイナンスのところでは行動のバイアスを明らかにして、特定の行動を取りやすいセグメントはどこなのかを明らかにして、そこに金融商品へのアップセリング(顧客が検討しているものよりランクの高い製品・サービスの販売)やクロスセリング(顧客が購買する、あるいはすでに利用している製品・サービスに関連するものを販売する)機会を生み出す。そういったことにも使っていただけます。

その他の機械学習の得意な分野に異常検知というものがありまして、その枠組みの中で詐欺・不正行為・不正操作などを異常とみなして検知する。あとは左下の債権回収のところでは、その債権は不良債権なのかそうでないのかを識別するモデルを作って、さらに回収するコストや回収できそうな額といったものを全部考慮した上で、戦略を構築する。取り引き・取り立てのための戦略を構築する。そういったものに使っていただけます。

機械学習に決定木分析を用いるメリット

より具体的な事例を2つ用意しているんですが、1つはこちらです。機械学習の手法はいろいろあります。その中でディープラーニング、いわゆる深層学習が注目されることが多いんですが、私が最初におすすめしたいのはディシジョンツリー、決定木分析と呼ばれる手法です。こちらは若干古典的な手法ではあるんですが、いわゆる回帰問題と分類問題のどちらにも使えます。

それから、パラメータの正規化などをあまり気にせずモデルが作れます。あとは一般に機械学習のモデルはブラックボックス化されて、中のロジックがわからないことが多いんですが、このように機能の構造を通して最終的な判別に至るまでの過程を人が見ても解釈できるようになりますので、あとから説明可能な予測モデルを作れたり、こういった構造を通してデータマイニングなどができ、いろいろと便利で、非常に使い勝手のいい手法です。

Knowledge Studioの決定木は特許も取得しておりまして、インタラクティブに木を展開、構築できるというのが1つの強みです。ですので、別のパラメータで木を展開したらこうなるとか、モデルのルーティーンを変えたらどうなるかが非常に簡単に試せるようになっています。あとは、使い方として問題領域に対してある程度知見をお持ちであれば、それをモデルの中に組み込んで木を構築するといったこともできます。

あとは精度が心配であれば、アンサンブル手法ですね。最近のトレンドであると思いますが、ランダムフォレストといった手法に展開して内容の精度を高めることも可能です。

ビジネス観点で設定された独自の機械学習モデル「Strategy Tree」

この決定木分析に、さらにビジネス上の指標であるKPIを紐付けたものが、Knowledge Studio独自の手法であるStrategy Treeというものです。

こちらは単なる確率ではなくて、より意思決定に必要な指標の期待値を決定木に紐付けます。ですので、ふだんKPIに基づいて行動するルールが決まっているような場合は、こちらのStrategy Treeを見れば、どのグループにどういった優先度でどういったアクションを取るべきなのかが一目瞭然になります。

あとはInsight Optimizerという最適化のエンジンがございまして、そちらを使うとビジネスの目的との学習のシナリオを選び出すというところまでできるようになっています。

ここまでビジネス観点で設定されている製品は、なかなか他にはないのではないかと思っているところです。こちらは債権の分類モデルです。ここでは不正リスク、信用リスクの軽減や、金融商品の顧客をセグメント化して、例えば新規のキャンペーンを打ち出すといったときにどういった属性の顧客をターゲットにしたらいいのか、そういった分析にも使っていただけます。

先ほどのいわゆる分類する問題の例でしたけど、こちらも回帰という例で未知の値を求めるという例になります。見ての通り、為替の予測をしているんですが、過去30日分のデータから次の日の値を予測するというモデルをニューラルネットワークを使って作ったものです。2002年から2015年ぐらいの期間のデータでモデルに学習をさせて、残りの期間で実際の値と比較しています。

もちろん精度としては完璧ではありません。ただ、定量的にも静的にもなんとなく合っているというのがわかっていただけるかなと思います。こういったことが非常に簡単に試せるようになっています。

プログラミングの知識なしで始められるデータ分析

一応念のために申し上げますと、ここでお伝えしたいのは為替や株価を高精度で予測できる魔法のツールを提供できますと言っているわけではなくて、先進的な手法や新しい技術、そういったものを使って試行錯誤であったり仮説検証する。そういった手段をご提供できるということです。

先進的な手法となりますとリスクもありまして、リテラシーが伴っていないと、使い方によっては間違った結果もすぐに出てきますので、それを鵜吞みにして間違った方向に舵を切ってしまうことも起こりえますし、実際にそういったことを危惧されて導入に踏み切れてないという方もいらっしゃると聞きます。

ただ、いずれにしろリテラシーも兼ねて、より前進的な手法等を推し進めていかなければならないというのも当たり前なことで、振り返ってみるとコミュニケーションツールや表計算ツールなどが普及するときも起こったことですので、今後のデータを分析する、活用するところに対してもまったく同じことが起こります。

ですので、我々が提供するツールは、繰り返しになりますが、そのときにまずプログラミングを覚えなければならないハンデを負わせるのではなくて、最初からプログラミングではなくデータに取り組むことを可能にしますので、そういったことをご理解いただければと思います。

アルテアのストリーミング分析プラットフォーム「Panopticon」

Bruce Zulu 氏(以下、Zulu):みなさま、こんにちは。Panopticonというプロダクトについてご紹介します。2002年にローンチされて以来、世界中の数多くの企業で運用されており、我々はそのエキスパートと自負しております。このプラットフォームは、ビジュアルアナリティクスとStream Processingエンジンの2つから構成されています。

まず、ビジュアルアナリティクスについて。データを取り込み、いろいろなかたちで時系列で処理するものです。ナノ秒でストリーミングもできますし、日をまたいでのデータ処理もできます。もちろん、その履歴を処理していくこともできます。

我々は現在、PanopticonをWindowsベースで設計していますが、3月末には新しくシングルスタックでLinuxサーバベースのPanopticon2020をリリース予定で、これによりブラウザでダッシュボードを使えるようになります。

ティアツー(Tier2:国際決済銀行が定めた銀行の自己資本比率に対する規制の中で使われる概念の1つで、劣後ローンや劣後債などが算入される)の銀行だけではなくて、そのソフトウェアベンダーさんも我々と協業してくださっています。多くの場合は、ここにいろいろありますけど、マージンですとかフレックスレートもありますね。我々の製品は既存のアプリケーションの中に埋め込まれておりますので、そういったアプリに対して、効果的にビジュアライゼーションを行うことができます。

データのビジュアライゼーションに留まらない強み

お客様が我々を選んでくださっている理由なんですが、我々の製品が使えるものであること。インテグレーションがとても簡単であること。それから1つのアプリケーション上で、そのコンテクストを解析できること。そういった理由で、たくさんのお客様がご利用くださっています。

これ以外にもいろんなユースケースがありますのでご紹介します。まずメインのユースケースですけれども、一般的によく使われているものがフローモニタリングです。銀行などでは、その値がリアルタイムで変わったり、ある時間軸において変わっていくわけですけれども、そうしたデータをいろんなかたちで記録していきます。

例えばヨーロッパのデータを見たあと、そのアルゴリズムのまま特定のものを選んだり、トレーダーを選んだりと簡単に見ていくことができます。

大きなメリットはビジュアライゼーションだけではないんですね。ビジュアライゼーションが可能な製品は他にもたくさんありますが、我々の強みはこのビジュアライゼーションに隠された技術です。

データをつなげて多くのデータセットを扱うことができ、迅速に計算、演算をすることができます。そして、それを瞬時に画面上に提示できるところがセールスポイントなんです。

こういった作業はリアルタイムで行われます。それから動的なストリーミングデータだけでなく、静的なデータのためのユースケースもあります。Panopticonは履歴データを扱うこともできますから、市場が閉まったあとでも分析が可能です。それからリスクですとか、規制に対するコンプライアンスといったところでもPanopticonの活用が進んでおります。

コンサルティブなアプローチも提供可能

たくさんのお客様が世界中にいらっしゃいます。そのほとんどは、長期に渡って我々の製品をお使いいただいております。なかには、1回我々の製品を使って他社に移ってまた(我々の製品に)戻ってこられるケースもあります。

お客様によっては、履歴とリアルタイムの両方の領域で使われている場合もあります。我々はコンサルティブなアプローチも提供しておりますので、見込み客に対しても、その根底にあるインフラはなんなのかきちんと理解したうえでリアルタイムのサービスを提供しておりますし、ガバナンスやオーディット(システムの性能の度合いや信頼性などを検査すること)にも対応できます。

簡単にアプリケーションをダッシュボード上で展開していくこともできますし、タイム・トゥ・マーケット(設計を開始してから製品として販売を開始するまでの期間)の短縮にも非常に優れていると思います。

リアルタイムストリーミングデータに対応した、数少ない分析システム

ということで、またユースケースについてお話をしていきますが、Panopticonを使っている理由で最も多いものは、ストリーミングデータに対応しているからです。ビジュアライゼーションツールでこれができるものはあまりありません。

2つ目は、ネイティブアプリケーションの中でつながるからです。JDBC(Java Database Connectivity :Java と関係データベースの接続のためのAPI)、ODBC(Open Database Connectivity:RDBMSにアクセスするためのAPI)のドライバではなく、ネイティブに下にあるリポジトリとをきちんとつなぐことができます。

kdb+(大量のデータを高速に蓄積、分析、処理および検索するために用いられる)も非常に多くのお客様が扱っていらっしゃいます。もちろん他にもつなげられるものはたくさんありますが、我々はこれらを可視化する独自のツールを市場に対して提供しております。

最後になりますが、タイム・トゥ・マーケットの短縮を考えたとき、ダッシュボードを作りデータを移し、膨大なデータセットをいろいろな時系列の例ですぐに可視化し分析できることは大変大きなメリットになります。ストリーミングデータも、静的なデータであるExcelのファイルと組み合わせることもできます。

さらに、過去の履歴をkdb+、Postgresなどとも組み合わせることができる。これまでは縦割りであったものを統合できるというメリットがあります。

アメリカでもユースケースが数多くありますが、このフローモニタリングはセールス部門でよく使われています。日本においてもこういったソリューションをご提供したいと考えております。

フランスと日本の銀行におけるユースケース

フランスの銀行ではレイテンシーのモニタリングということで、遅延のモニタリングをしています。CoDelというテクノロジーを使っており、パケットデータを見ていくものです。いろいろなトレードの中で、約定データに色をつけながら効果的にモニタリングできます。

どれだけ速くトレードの約定がなされているのか。それから、いろいろな他のメトリクス、ラウンドトリップという往復での遅延も見ます。Elasticsearchも使用できます。これはkdb+、Panopticonをフロントエンドで使っています。

もう1つのユースケースは、日本の銀行でトレーダーが使っているケースです。これは各国のデータベースの中にある独自のデータで、コモディティのトレーディングで使っているPLをリアルタイムで見るものです。

トレーディングがPLにどんな影響があるのかを見ることに関してです。これまでは日々リアルタイムでは見ることができませんでした。規制による制約・制限といったものもあったわけです。あとは経済的なものですとか、いろいろな制約がありました。

ただ、今はリアルタイムでPLの可視化を行えるようになっています。エグゼキューションも非常に効果的にできるようになっています。

大量のストリーミングデータを、意味のある情報として可視化する

日本の銀行ではフローモニタリングを使っている例もあります。このお客様はヨーロッパの部門ですが、ユーロ、それからポンドの債権をリアルタイムで見ています。「DPO ONE」、この銀行のトレードの状況、それとどういったお客様がいるのかを、1日あたり15分ごとにモニタリングする。今はおそらく秒単位でモニタリングしているかと思います。

横断のプロットも見る。例えばポンドを選んで、その価格を見ます。これまでの履歴を見て実際の約定の金額がいくらか、市場のデータ、例えばBloombergやTradewebといった情報を画面中央に一元化して見ることができます。

さらに、公のEPA(経済協定連携)のデータもその中に組み込むことができます。このユースケースの中ではアプリケーションの中にロジックがありますので、それについて関連した特徴は何かということも見られます。全体像が見えることになるわけです。

これまでは、3つの別々のアプリケーションに戻って情報を集めることが必要でした。ただ、今はPanopticonだけでそういったものを一元化して見ることができるというメリットがあります。そして 、「なぜStream Processeingにこれが重要なのか?」「それはどういった意味を持っているのか?」と、よく聞かれます。

ストリーミングデータは非常に大量なデータになります。そして、非常に細分化され、頻繁に変わります。ストリーミングデータをつなげると非常に多くのぐちゃぐちゃなデータが入ってくるわけでありますが、Panopticonはこの情報をグルーピングし、校正と整理をしていきます。

ですから、ストリーミングの数字だけではなく、効果的に意味のある情報というかたちで可視化され、見ることができるわけです。そして、計算や集約、結合もできます。

Panopticonなら、このようにストリーミングデータを管理をすることができます。

Kafkaを使ったアプリケーションの最適化

そして、まもなくリリースされる最新の商品説明になります。新しい製品は、ビジュアライゼーション機能はそのままにKafkaでデータパイプラインで構築することができるようになります。Kafkaでスキーマのロジック、Zookeeper等を使います。

Kafkaを使うことで、これを最適化しリアルタイムのアップデートができるようになっています。かなり時間がかかっていたバッチ処理をなくし、マイクロバッチなどを入れております。

KafkaでScala、Javaなどのプログラミング言語は必要ありません。直接ドラッグ&ドロップで操作できるためです。何千ものコードを使うことなく、データパイプラインを作ることができ、非常にシンプルです。

ブラックボックスとして使うこともできますし、可視化ツールに入れることもできます。時間があればまたあとでお見せしたいと思います。

重要なデータを色やかたちでビジュアル化

では、実際に今からシンプルなユースケースをお見せしたいと思います。これはトレーディングのケースになります。

アプリケーションを実際にお見せしましょう。非常によくあるスタンダードなユースケースですが、これがトレーディングになります。KEX(仮想通貨取引所)とバックグラウンドでつながっています。ここからリアルタイムでオーダーが入ってきます。親(ペアレント)のオーダーが入ってきて、そして子のオーダーというかたちで、この注文がすべて細かく分かれているわけです。

そして、詳細な情報を履歴の分析として使うことができます。こちらの画面ですが、ここには数字があります。例えば、ある部分を分類化するのであれば、このナビゲーションを使っていきます。そしてこの約定を成立させるのか、またはこの注文をどうするのか、実際にこのデータを処理して数秒ごと、または300ミリ秒でこの処理をし、テンプレート自体はどんどん大きくなっていきます。

ということで、このビューを見やすくします。数字を見るだけでなく、データに色を入れたり、そのかたちを変え、関心のあるところを表示できるようになっています。

今出ているツリーマップが先ほどの1ページ目と同じ画面です。この画面上にすべての情報が含まれており、先ほどあったテーブルの集合といったものも1つずつ、この中に含まれています。それから大きさと色も変えています。約定がついていないものは、その大きさで表されています。

色で取引成立までどれぐらい時間が掛かっているのかが表されています。ですから、重要なところにフォーカスすることもできます。まだ約定が付いてないものがあり、それが赤色になっていたり、サイズが大きかったりすると、そこにフォーカスすることができ、一目で選び監視できます。

ここの大きなオーダーで、親だけでなく子のオーダーも見ていきましょう。この親オーダーの中がどれだけの子のオーダーで構成されているのかを見ることができます。使っているアルゴリズムに何らかの問題があるのか、といったところを細かく見ていけます。

それからシンボルがあると、ある特定のアルゴリズムのタイプを指定でき、見極めることもできます。

過去の履歴をまとめてチェックできるダッシュボード

それから取引成立のほうを見ていきましょう。パフォーマンスを見てみると、過去の履歴と同じように均質なかたちで取引が実施されているかどうかを見ていくことができます。ある特定の約定で、時間軸とともに取引成立が表され、その損益はどうなのかを見ていけます。

履歴のデータベースからチェックを付けたものは、このようにその履歴を見ることができます。この日1日の取引で起こったことを、まとめて見ると、予想外に良いパフォーマンス、もしくは悪かったパフォーマンスも見ることができます。「4時半ぐらいに問題があった」とか、健康状態をチェックしていけるわけです。そして、問題を特定してその問題に即座に対応する。例えばアルゴリズムを変えるといった対処ができます。

私が用意したデモの内容は以上になります。こうやってダッシュボードを非常に簡単に使えるということをご理解いただけたのではないかと思います。

金融業界のデータ活用に関する課題解決を支援

及川:ご清聴いただきありがとうございました。実際にみなさまが持っていらっしゃるデータをどのように活用していくか、クレンジングしていくか。どのように非構造化のデータを構造化のデータに変えていくか。または持っていらっしゃる約定データをどのように活かしていくか、どのようにストリーミングデータを可視化していくかというところをお話させていただきました。

最後に、今はコロナウイルスでどうなるかわかりませんが、4月21日に弊社の京橋エドグランオフィスにて実際に製品を体験いただけるセミナーを開催させていただこうと思います。オフィスはそれほど大きい場所ではございませんので、人数に限りがございますが、ぜひご参加いただければと思います。本日はどうもありがとうございました。

(会場拍手)