【イベントレポート】DXを加速する『Insight Data Integration フォーラム』
皆さん、アロハ~!!
社長のアレン・マイナーからこんな挨拶で始まりましたが、決して『優雅にハワイ帰り!』というわけではなくて、アロハ=あなたと今、息を共にしている=真摯に向き合って、問題解決に向けて一緒に取り組みましょうそんな意味が込められているとのことでした。
今回のセミナーは Qlik社が Attunity社を買収し、初めてのイベントです。弊社はAttunity社時代から日本の総販売代理店を任されていましたが、Qlik社になってからも、引き続き日本の総代理店としてお客様にデータ活用の価値を提案していきます。
社長のアレン・マイナーの見解によれば、Qlik(旧Attunity製品)は
- 多様化する大規模なデータの扱いに困っている。
- せっかくデータがあるのならば活かしたい。
- データを管理するだけではなくて、ビジネスをトライするインサイトを得たい。
そんなニーズにものすごくフィットするというだけでなく、実際に、市場に急速に広がっており、業界の中で大きな役割を果たすことになる。という言葉と共にセミナーが開幕しました。
CEOであるアレンよりアロハなご挨拶。普段の社内メールでもアロハを使われることが。
最初のスピーカーはAttunity社時代にはCMOを務めており、現在はグローバルテクノロジーパートナー担当シニアバイスプレジデント兼データ統合部門最高責任者 のItamar Ankorion 氏が登壇されました。
近年はデータをリアルタイムに活用することが求められており、世界的にデータ活用関連の投資額の比率が増えていること。Qlik社と一緒になることによって、データ統合プラットフォームとしての価値だけでなく、データの分析や、サービスとしてのデータリテラシーも同時に提供できるようになり、データを通じてビジネスにおける価値を最大限に加速していくことができるようになったとのことです。
Itamar 氏の同時通訳を真剣に聞く参加者の方々。注目度の高さが伺えます!
また、続くQlik社のデータインテグレーション事業日本代表の古谷氏からはQlikの一員となることで、社員の人数もAttunity社時代から10倍近くなり、これまで以上の盤石なサポートができるようになったという説明がありました。
特に覚えていただきたい単語としてが挙げられたのが、変更データの取り込み技術を示す、Change Data Capture(CDC)があります。これは業界No.1であると自信もっていらっしゃいました。
CDCを使ったデジタルトランスフォーメーション(DX)への貢献として次のようになります。
- バッチ処理からの開放
- ミニマム・ダウンタイムでのシステム・マイグレーション
- レガシーシステムデータの有効利用(メインフレームからクラウドへ)
そして、これらの実現の事例として弊社のCOOである森田の発表に続きます。
主力の1つとなったQlik製品の解説に、つい手に力が入ってしまう、COO森田
まずは、Qlik Replicationの主な特徴の紹介です。
- エージェントレス
- ブラウザベースで非常に簡単に使える
- フルロードからCDCへの移行はシームレス
- データのフィルタリング加工
- ほとんどのデータベースをサポートしている(クラウドも)
そして、これらの特徴を持った製品の用途ですが、現在はマイグレーション(移行)のみの案件からレプリケーション(リアルタイム同期)として利用されるケースがとても増えてきています。
これはIoTのデータを活用することが必要となってきており、それらのほとんどがリアルタイムに分析する必要があるからとのことでした。
【データ移行】
事例企業 | 用途 |
---|---|
国内大手EC事業者 | エージェントを使うと負荷がかかってしまう問題がある |
大手通信会社 | コストが安いデータベースに移行するため ⇒100万以上のテーブルを持つデータ移行も実現 |
大手自動車会社 | 異種のデータベースへどのように移行すればよいのか困っていた |
【レプリケーション】
事例企業 | 用途 |
---|---|
某通信業 | データ分析をしたいが、現環境では負荷が高くなってしまうので外出ししたい リアルタイム同期 |
大手機械メーカー | 複数のグローバル拠点のデータをリアルタイム同期 ⇒回線が弱いところを電送データ圧縮することでクリア |
大手金融業 | メインフレームのデータをHadoopへ |
大手金融業 | メインフレームからクラウドへ |
電子書籍 | 60億件のデータも短い時間とは言えないが問題なく作業完了することができた |
この他にも、Ford社の事例解説がありましたが、こちらは弊社のWEBサイトからダウンロードできますので、是非ダウンロードしてください!
今までにあった性能実績では、アクティブなデータベースから1秒あたり46万レコードを処理したり、夜間のピーク時には1時間に100GBの処理できたことも紹介されました。
この数値を見て、とんでもない量のデータの同期を実現しているということはわかっていただけると思いますので、プロジェクトで悩んでいる方ほど、1度はご相談いただきたいですね!
ここで休憩をはさみますが、今回の会場は格式高い雅叙園。ホテルスタッフからお客様一人一人にコーヒーのサーブが始まります。私もコーヒーをいただきたかったのですが、お仕事中ですので当然いただくことができません。次は参加者として来たいものです。
後半に入ると、事例の紹介とパートナーセッションが始まります。
パートナーセッションでは snowflake社が登壇されました。急成長中で注目されている snowflake社ですが、3000を超えるお客様に利用されている実績があり、先日東京リージョンも開設されたそうです。
WEBサイト・製品画面・マニュアル共に日本語化されており、日本市場の拡大にとても力を入れています。
そして、Qlick Replicate と連携する想定としては以下のケースが紹介されました。
Qlik Replicate だけでなく、Qlik Composeも併せて使うことによってさらなる利便性を提供できるとの説明があり、他にも、実環境を使ったデモも紹介され、使いやすさや性能の高さを存分にアピールされていました。
今後、弊社とは密に連携していくことになると思いますので、お客様にとって魅力的なご提案ができるようになると確信できる内容でした。
事例の1つ目は、販促のためにリアルタイムに分析をしたいというお客様でした。
『大量のデータを扱う』ことと、『既存システムに負荷をかけない』、『異種データベース間の同期』というのが要件としてあげられましたが、これを解決できる選択肢として Qlik Replicateが残ったとのことでした。Qlik Replicate を導入した感想は、想定していたよりも簡単で、柔軟なデータ連携ができるとのお言葉をいただけました。
2つ目の事例は、支店のデータ分析だけでなく、支店同士、またはすべてにまたがったデータの分析をしたいというお客様の事例です。
ここでも、『既存システムに負荷をかけない』という課題があがりました。そしてもう1つ重要な課題としてセキュリティも挙げられました。支店間をまたがるということは、顧客情報へのアクセス権限も細かく設定しなければならなくなり、非常に複雑な設定が必要になってしまいます。これを解決するために、必要なデータのみを外に出すことを手法とし、Qlik Replicate が選ばれることになりました。
そして、お客様で起こった問題のケースもいくつか紹介がありました。
内容としては、運用の想定漏れにより発生した問題から、ありがちですが発生しやすい問題の代表格でもある『文字コード』の問題まで、他のお客様でも発生する可能性があるラインナップでした。
解決方法も様々で、お客様の運用想定を見直したり、弊社でツールを開発、また、メーカーによる修正・改善パッチを作成したりされたそうです。
このレポートを読んでいただいている皆様が、一番気になっているのが事例の詳細だと思いますが、残念ながら本イベント外では事例は非公開となっておりましたので、心苦しくはありますが、ここまでとなってしまいます。
これまでの紹介の中で、自社のケースに該当、または近い問題を抱えていらっしゃる場合は、問い合わせも大歓迎ですので、お気軽にご利用いただければと思います。
次回開催はまだ未定ですが、その際は是非ともご参加下さい。
またメールマガジンでは最新のイベントや製品情報のお知らせが届きますので、ご興味ありましたらご登録をお願いします!
関連製品
マルチプラットフォーム対応 高性能レプリケーション
『Qlik Replicate』は、データベースDWH、Hadoopなどの異なるソース/ターゲットにおいて、高速で簡単なリアルタイム・データレプリケーションを可能にするソリューションです。Time-to-Value(価値が生み出される時間)を短縮し、ビジネス・ニーズに最適化したデータ分析処理・分析基盤の構築を支援します。