Research

研究分野

我々の研究の中核は、小脳の神経科学 [1] です。ただし現在は小脳に限定せず、幅広く研究を行っています。

我々は、基礎指向の基礎神経科学と応用指向のニューロモルフィック計算という2つの分野の研究を、理論神経科学高性能神経計算の2つの手法を駆使して進めます。分野と手法の交点が具体的な研究テーマになります。

基礎神経科学 x 理論神経科学 = 全脳学習アーキテクチャ

記憶と学習とは脳の最も重要な機能の一つであり、その仕組みを解明することは脳の働きを理解する上で避けては通れません。膨大な数の様々な実験結果が報告されており、中には一見互いに矛盾する報告もありますが、数理的な手法を用いることで、それらを統一的に記述・解析することができます。これまでに小脳学習において記憶がどのように定着するかの理論 [2] や、小脳回路による強化学習の理論 [3] を提唱しました。大脳基底核の回路によるActor-Critic法の実装 [4] も行っています。大脳皮質-基底核ループと大脳小脳ループが連携することで、全脳レベルでは階層型並列深層強化学習が実現されており、これが全脳の学習アーキテクチャになるのではないか、と考えています。

基礎神経科学 x 高性能神経計算 = 大規模シミュレーション

ヒトの脳は約860億個のニューロンからなると考えられていますが、その1つ1つを数式で記述し数値シミュレーションを行うことで、ヒト脳の挙動をスパコンを用いて再現することが可能になります。これまでに「京」コンピュータ全系を用いて、640億ニューロンからなるヒト規模小脳のシミュレーションに成功しています [5]。現在は、大脳皮質・大脳基底核・小脳を全て実装したネズミ規模の全脳シミュレーションも行っています [6]。また、アクセラレータであるPEZY-SC1,2を搭載したスパコン「菖蒲」を用いて、ネコ規模に相当する10億ニューロンからなる小脳のリアルタイムシミュレーション [7] に成功しています。一方、これらの研究ではニューロンは一つの点として表されますが、実際のニューロンは非常に複雑な空間形状を有しており、それが脳の情報処理に寄与していると考えられています。そこで、実際のニューロンの形状までを忠実に再現した、非常に精緻な小脳回路を構築しています [8, 9]。その際、数値計算がより大規模になるため、GPUやPEZY-SC2等のアクセラレータを用いた並列シミュレーションを行っています。

ニューロモルフィック計算 x 理論神経科学 = 脳型機械学習

脳の機能を理解するのではなく、既にわかっている脳の機能を工学的に応用しようとする、ニューロモルフィック計算という分野があります。我々は階層型並列深層強化学習を全脳の学習アーキテクチャであると考えており、その学習アルゴリズムを実装して、工学の様々な問題に適用可能な、強力な汎用の機械学習アルゴリズムとして提供することを目指しています。これまでに、大脳基底核モデルによる強化学習アルゴリズムをGPU上に実装し、オンライン学習を可能にしています [4]。また現在、小脳による超並列強化学習アルゴリズムを、PEZY-SC2に実装中です。この2つを結合し、階層型超並列強化学習を実現する計画です。

ニューロモルフィック計算 x 高性能神経計算 = 専用プロセッサ

ニューロモルフィック計算は、主にエッジデバイスでの利用が想定されているため、省電力性とリアルタイム性が鍵になります。そのため、神経回路シミュレーションに適したアクセラレータや、専用プロセッサの利用が必要不可欠です。我々はこれまでにPEZY-SC1,2を用いたリアルタイムシミュレーション [7] を行ってきましたが、最近、専用プロセッサであるIntelのLoihi [10] も使い始めました。Loihi を用いた実際のヒューマノイドロボットの制御も検討しています。

参考文献
  1. Preface. 35th Fujihara Seminar “The cerebellum as a CNS hub”, 2018.
  2. Yamazaki T, Lennon W, Nagao S, Tanaka S. Modeling memory consolidation during post-training periods in cerebellovestibular learning. Proceedings of the National Academy of Sciences of the United States of America, 112(11): 3541-3546, 2015.
  3. Yamazaki T, Lennon W. Revisiting a theory of cerebellar cortex. Neuroscience Research, In Press.
  4. Yoshimura H, Yamazaki T. Online reinforcement learning by a spiking network model of the basal ganglia. NICE (Neuro-Inspired Computational Elements) 2019 Workshop. March 26–28, 2019, Albany, NY.
  5. Yamaura H, Igarashi J, Yamazaki T. Building a spiking network model of the cerebellum on K computer using NEST and MONET simulators. Computational Neuroscience (CNS) 2019. July 13-17, 2019, Barcelona, Spain.
  6. Carlos G, et al. A whole-brai spiking network model linking basal ganglia, cerebellum, cortex and thalamus. Computational Neuroscience (CNS) 2019. July 13-17, 2019, Barcelona, Spain.
  7. Yamazaki T, Igarashi J, Makino J, Ebisuzaki T. Real-time simulation of a cat-scale artificial cerebellum on PEZY-SC processors. International Journal of High Performance Computing Applications, 33(1), 155-168, 2019.
  8. Yamamoto Y, Yamazaki T. Dendritic discrimination of temporal input sequences in cerebellar Purkinje cells. Computational Neuroscience (CNS) 2019. July 13-17, 2019, Barcelona, Spain.
  9. Tsuyuki , Yamamoto Y, Yamazaki T. Efficient numerical simulation of neuron models with spatial structure on a graphics processing unit. Neuroinformatics 2016, September 3-4, 2016, Reading, UK.
  10. Davies M, et al. Loihi: A neuromorphic manycore processor with on-chip learning. IEEE Micro 38(1):82-99, 2018.