「SQL Server 2014 発売記念フォーラム」に行ってきました。

2018年8月5日

MapReduceアルゴリズム/Hadoopなどの"NoSQL"の開発が相次ぎ、大量データの処理基盤が実用的なレベルになったころから、「ビッグデータ」ブームが起こりましたが、最後の最後の処理パフォーマンスのネックは、ハードディスクの遅さでした。ハードディスクもデータ容量に関しては飛躍的に伸びてきましたが、スピードに関しては大幅な改善が見られず、SSDやFusionIOのような製品や、IBM Neteezaなどが物理層での改善策として普及してきました。一方データベース側も分析用途としてSAP HANAのようなIn-Memory型のエンジンによって高速化が図られてきました。

そんな中で今回は"SQL Server"がIn-Memory機能をサポートしたということでのイベントでした。

http://www.atmarkit.co.jp/ait/articles/1404/18/news141.html

講演を聴いた感想としては、In-Memory型DBの市場に関しては、これで勝負あった感が出てくるかなという所。昨年秋のOracleオープンワールドで12cでカラム型&インメモリのサポートを発表しましたが、今回のSQL Serverの発表で、普及率1,2位のDBが共にインメモリ&カラム型をサポートするようになったわけです。高速な集計結果が得られるとなれば、運用負荷を考えるとDWH用の別のエンジンを導入するメリットが失われます。

今回、驚いたのはExcelのPowerBI/Power Viewの機能。Power PivotについてはExcel 2010からオプションとして提供されていて、大量データ処理のフロントエンドとしてのポテンシャルを感じさせましたが、今回のデモでは表示に地図上に分布をヒートマップで描くなど、一昔前の高価なGISソフトでしかなしえなかったようなビジュアライゼーションを、数万円の表計算ソフトが実現してしまうということ。今回のSQL Serverの組み合わせで、専用のBIツールを導入しなくとも、簡単な経営ダッシュボードくらいは実現してしまうというわけで、分析基盤の市場破壊もありうるのかなあと感じました。

逆に利用者側としては、分析のためのインフラが非常に安価に整うようになってきたため、むしろデータ収集基盤であったり、分析スキルの方がボトルネックになる可能性の方が高くなるのではと思います。データ分析に関しては自社で詳しい人がいない限り、アウトソースする or 最初から諦めるといったケースが多いように散見されましたが、今回のフォーラムのテーマが「ビッグデータの民主化」であり、ここまで敷居が下がったのであれば、ぜひトライして頂きたいですし、そのためのお手伝いが出来ればいいなと思います。