メディア
特集
» 2018年05月09日 10時30分 公開

CNN/RNNやフレームワーク概要まで:NVIDIAが解説するディープラーニングの基礎(後編) (1/5)

エヌビディアは2018年4月24日、ディープラーニングに関するセミナー「NVIDIA Deep Learning Seminar 2018」を東京都内で開催した。本稿では、セッション「これから始める人のためのディープラーニング基礎講座」から、各種ニューラルネットワークやその応用例、ディープラーニングフレームワークの概要について紹介する。

[松本貴志,EE Times Japan]

⇒前編はこちら

 エヌビディアは2018年4月24日、同年3月26日から29日まで米国カリフォルニア州シリコンバレーで開催された年次イベント「GTC 2018」の発表から、特にディープラーニングに関する内容を日本語で紹介するセミナー「NVIDIA Deep Learning Seminar 2018」を東京都内で開催した。

NVIDIA Deep Learning Seminar 2018(クリックで拡大)

 本稿では前編記事に続き、同セミナー最初のセッション「これから始める人のためのディープラーニング基礎講座」で同社ディープラーニングソリューションアーキテクトの山崎和博氏が語った内容から、各種ニューラルネットワークやその応用例、ディープラーニングフレームワークの概要について紹介する(前編記事:NVIDIAが解説するディープラーニングの基礎(前編))。

畳み込みニューラルネットワーク(CNN)

 前編で扱ったニューラルネットワークは、前層にある全ノード(パーセプトロン)が次層のノードに全て接続されており、信号は入力から出力まで一方向に流れる。これを「全結合」な順伝播型多層ニューラルネットワークと定義される。

基本的な多層ニューラルネットワーク(クリックで拡大)

 一方で、画像や2次元的な構造を持つデータについて機械学習を行う場合、「畳み込みニューラルネットワーク(CNN:Convolutional neural network)」が用いられることが多い。このCNNは隠れ層の一部または全部で、局所ノードのみ結合する「畳み込み層(コンボリューションカーネル)」や「プーリング層」を含む構造を持つ。

CNNのネットワーク構造イメージ(クリックで拡大)

 畳み込み層は畳み込み演算と呼ばれる処理を行っており、入力データの任意の範囲に対して畳み込み層の重み係数を乗算し、これらを全て足したものを出力する(積和演算)。また、プーリング層は畳み込み層の後方に通常では設定され、データを圧縮する効果を持つ。これにより、学習コストの低減や過学習の防止、データのズレやノイズへの耐性を上げることができるという。

畳み込み層の概要(クリックで拡大)
       1|2|3|4|5 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.