メディア
特集
» 2018年05月09日 10時30分 公開

CNN/RNNやフレームワーク概要まで:NVIDIAが解説するディープラーニングの基礎(後編) (2/5)

[松本貴志,EE Times Japan]

CNNの利点と応用領域

 CNNの利点について、山崎氏は「重み共有による局所構造の獲得」を挙げ、さらに「もっと端的に言うと、入力データの中にどのような構造を持っているのか学習によって獲得することができる」と語る。

 この点について、山崎氏はCNNを用いた人の顔画像を分類することを例として説明し、「入力層に近い(隠れ層の)重み係数を可視化すると、画像中の(幾何学的な)ある成分に反応するユニットができていることがある。(隠れ層が)出力層側に近くなるにつれて、顔のパーツに反応するユニットや顔のバリエーションに反応するユニットができていることもある」(山崎氏)とし、データ中にある特徴の抽出をさまざまなレベルで可能なことがCNNのメリットだとした。

CNNによる画像の特徴抽出のイメージ(クリックで拡大)

 CNNの応用として特に注目を集めている領域に、画像分類や物体検出、さらには画像内の物体を判定し、その位置や形状を推測するセマンティックセグメンテーション(領域分割)などがあるという。

CNNの応用領域(クリックで拡大)

リカレントニューラルネットワーク(RNN)

 時系列データなど、前の情報がその次の情報に影響する連続的なデータの場合、ニューラルネットワークによる機械学習には「リカレントニューラルネットワーク(RNN:Recurrent neural network)」を用いることが一般的だ。RNNは、これまで扱った順伝播型ニューラルネットワークとは異なり、隠れ層の出力を再び隠れ層の入力として戻す「再帰型」のネットワーク構造をとる。

左:RNNのネットワーク構造イメージ 右:RNNの隠れ層再帰を展開したイメージ(クリックで拡大)

 RNNでは「ある時刻(t = 1)のデータを入力し、隠れ層による処理を行った後、出力する。その次の時刻(t = 2)のデータ処理では、ある時刻(t = 1)の隠れ層にある情報を考慮してデータ処理を行う」(山崎氏)として、連続データの前後依存関係をうまく取り扱うことができるニューラルネットワークだと説明する。

 また、連続データの系列が長くなるほどRNNは深いネットワーク構造となるため、山崎氏は「いわゆるディープラーニング的な文脈として(RNNの)学習をうまくやっていく必要がある」とする。一方で、長期の依存性を持つデータの場合では学習が困難なため「ピュアなRNNによる処理はあまり行われない」(山崎氏)と指摘する。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from UBM Electronics, a division of United Business Media LLC.