メディア
特集:IoTがもたらす製造業の革新〜進化する製品、サービス、工場のかたち〜
連載
» 2017年05月31日 11時30分 UPDATE

Over the AI ―― AIの向こう側に(11):おうちにやってくる人工知能 〜 国家や大企業によるAI技術独占時代の終焉 (8/9)

[江端智一,EE Times Japan]

自作シミュレーション結果を解析する手法

 ではここからは、週末自宅研究員として、自分のメールログやネット上のTwitterの情報、そして、自作シミュレーションの結果を解析するために、どんな手段や方法を用いればよいのかの検討に入りたいと思います。

 まず、Google検索でざっくり有名どころのBI(ビジネスインテリジェンス)ツールを調べてみました。

 BIとは、企業に蓄積された大量のデータを収集して分析するためのツールです。さまざまな機能がありますが、一言で言えば、ビッグデータを見える化(グラフ化)するものと言い切ってもよいかと思います。

 今回、これらのBIツールのデモビデオをYoutubeでレビューしました。感想は以下の通りです。

 個人で使うには、「ちょっと、いろいろ無理かなぁー」という感じでした。

 最も無理に感じたのは「値段」の問題です。「週末自宅研究員」には、解析ツールに投資するお金はないのです。

 実際、今でも、さまざまな会社に参上して、頼み込んで、各種のプラットフォームやツールやデバイスをお借りして、解析を続けているくらいです(『連載コラムで使いたい』と申し上げると、多くの場合、快く貸していただけるようです)。

 ですから、フリーのツールを構築し、使いこなすように、日々努力を続けることは、「週末自宅研究員」にとっては、必須(というか必死)のミッションであるのです。

 私は今、データ解析やシミュレーションを手軽に行えるツールの1つとして「MATLAB /Simulink」を使っているのですが、今後は「R」の使用も視野に入れて、勉強していかなければと思っています。しかし、さすがに自宅で「Hadoop」を構築することはなさそうです。自宅で分散データベース構築するのは、「いくらなんでも、ないわー」と思いますので。

やはり王道は「Excel」だ

 というわけで、今さらながらの結論ですが、やっぱり王道はExcelですね。最近のExcelはすごくなって、100万行くらいのデータを軽く扱えます(以前は6万行程度が上限で、実際のところ1万行以上のデータでは、よく固まって(フリーズして)いました)。

 しかし、100万と1億の間の2ケタの壁は、どうにも高くて、全てをExcelで済ませるというのは無理です。そこで以前、1億人2700万人のシミュレーションに取り組んだ時に、「Aktblitz III」という解析ツールを使わせてもらっていました。

 Aktblitz IIIを使った時に、「ついに、パソコンで1億行を超えるデータ解析を数秒で得られる時代になったのか」と、隔世の感がありました。

 実際に、Aktblitz IIIを開発された方にインタビューさせていただき、「アルゴリズムの工夫で、ここまでの高速化を実現した」というお話を聞いた時には、泣きそうになるほど感動したのを覚えています*6)

*6)もし、あなたが、私を泣かせたいなら、「ビジネスモデル」や「社会トレンドの未来予測」なんぞの話でなく、「技術」の話を持ってきてください。

 今回、「パソコンで億行」という観点で、ざっくり調べてみたのですが、例えばPower BIファミリーの中の「Power Pivot」なども、十分に速いらしいです(参考記事)。

 いずれにしても、「ビッグデータ解析 = 大型計算機センター」というパラダイムが、「ビッグデータ = おうちのパソコン」に移行しつつあると言えそうです。

 もっとも、今後、データ量が、「億」から「兆」、そして「京」になっていく可能性もありますから、断定的に言うのは差し控えたいと思います。

 そういえば、『パソコンに、32メガ(単位に注意)もの巨大なメモリを搭載する必要が、一体どこにある!』と私を叱責した、かつての上司 ―― 今、すっかりエラい人になっていますが ―― 今度、公の場(懇親会など)でこの話を振ってみようと思っています(私、けっこう執念深いんです)。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.