メディア

AIチップの過去・現在・未来必要な技術を探る(2/2 ページ)

» 2018年08月30日 09時30分 公開
前のページへ 1|2       

AIチップの実用化に向けて

 近頃これほどAIが話題に上っているのはなぜなのでしょう? このテクノロジーが著しく発展する環境が整ってきたことで、現実世界の問題解決に幅広く役立てられると考える人々が増えているからです。今日ではインターネットによって提供されているインフラのおかげで、世界中の研究者たちが新しいアルゴリズムやソリューションの創造に必要な計算能力、大規模データ、高速通信にアクセスできます。例えば、自動車業界がAI技術に莫大な研究開発費を投じているのは、マシンラーニングによって自動運転などの非常に複雑なタスクを処理できる可能性があるからです。

 AIチップ設計における最重要課題の一つは全てを集約させることです。ここで言っているのは多種多様なハードウェアアクセラレータを用いてディープラーニングが実装される大規模カスタムSoC(システムオンチップ)のことです。自動車業界の厳格な安全・信頼性要求を考えればなおさらのこと、AIチップの設計は極めて難しいことに違いありません。しかし、AIチップがプロセッシング、メモリ、I/O、インターコネクト技術といった面でいくつか新しいソリューションを取り入れた単なるチップにすぎないのもまた事実です。

 新たにIC設計に乗り出したGoogleやTesla、さらにはAIMotiveやHorizon RoboticsといったAIチップベンチャー企業は、ディープラーニングの計算の複雑さについては豊富な知識を持っているものの、こうした最先端SoCを開発するにあたってはいくつもの厳しい試練に直面する可能性があります。これら新規参入プレイヤーができるだけ短期間で実用的なチップを開発できるようにする上では、コンフィギュラブルなインターコネクトIPが重要な役割を果たすと考えられます。

GoogleのTSU(Tensor Processing Unit)に見るAIチップの構成 図3:GoogleのTSU(Tensor Processing Unit)に見るAIチップの構成

 例えば、画像解析による路側物体検出、分類を行う、車のフロントカメラ向けのディープラーニングアクセラレーターを搭載したAIチップについて考えてみましょう。最大帯域幅を確保するために各AIチップに固有のメモリアクセスプロファイルが割り当てられています。パフォーマンス目標を満たす必要があるときはオンチップインターコネクトへのデータフローを最適化して広帯域パスを確保しなければなりませんが、可能な場合は狭いパスを割り当てることによって面積、コスト、消費電力を最適化することができます。より高度なAIアルゴリズムを念頭に置けば各接続も最適化する必要があります。さらに付け加えれば、新しいAIアルゴリズムは毎日生みだされています。ある意味、今日のディープラーニングチップはバナナのようなもので、自分のAIチップに腐ったバナナを、つまり古いアルゴリズムを入れたい人などいないわけです。他の多くの半導体製品と比べてみても、こうした最先端チップでは製品化期間がいっそう重要な意味を持ってくるのです。

AIの未来

 ディープラーニングとニューラルネットワークによってAI技術は急速な進歩を遂げていますが、AIの究極の形を実現しようと思ったら根本的に異なるアプローチが必要になってくると考えている研究者たちは大勢います。大半のAIチップは、ルカンやヒントンらによって10年以上も前に発表された概念を絶えず改良してきたものに基づいて設計されており、たとえこのルートに沿って指数関数的な進歩が見られたとしても人間のように考えられるAIを実現できることは到底期待できないからです。

 今日私たちが知っているAIは、1つのタスクについてやっとのことで習得したディープラーニングを別の新しいタスクに適用することができません。また、ニューラルネットワークには、予備知識あるいは「アップvsダウン」や「子供には親がいる」というようなルールをうまく組み込むための方法がありません。さらに、人間は記憶に残るたった一度の経験で「熱いストーブには触ってはいけない」ことを学習できるのに対し、ニューラルネットワークに基づくAIに学習させるためには膨大な例が必要となります。大量のデータセットを使うことなく現在のAI技術をさまざまな問題にどう適用していけるのかは依然としてはっきりしていません。

 今のところAIチップは標準的な人間に比べてそう賢いわけではありませんが、それ自体が賢いことは確かであり、この先ますます賢くなっていくことはまず間違いないでしょう。AIチップが半導体プロセス技術、コンピュータアーキテクチャ、SoC設計の進歩を促すことによって処理能力が格段に上がれば、次世代AIアルゴリズムが登場するのもそう遠いことではないでしょう。また同時に、それら新しいAIチップの独自ハードウェアアクセラレーターにディープラーニングに必要なデータストリームを絶えず供給するためには、高度なメモリシステムとオンチップインターコネクトアーキテクチャが必要不可欠だと言えます。

筆者プロフィール

Ty Garibay / Arteris IP、最高技術責任者(CTO)

 Motorola、Cyrix、 SGI、 Alchemy Semiconductorの各社でアーキテクチャと設計を主導し、マイクロプロセッサ/SoCアーキテクチャおよび技術の開発において中心的役割を果たしてきました。Armのオースティン設計センターでTexas InstrumentsのOMAPアプリケーションプロセッサグループ向けArmコア開発およびICエンジニアリグを指揮した経験もあります。

 Arteris IP入社前はAlteraのICエンジニアリング部門バイスプレジデントを務め、その後はインテルのプログラマブルソリューショングループでFPGA設計を主導してきました。単独/共同合わせて34の特許を取得しており、その功績は多数の技術誌や会議で取り上げられています。


前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.