Yamaura, Igarashi, Yamazaki (2020)へのコメント

ついに出版されました。関係者の皆様、ありがとうございました。この論文は、先に出版された五十嵐さんの論文のcompanion paperです。

Hiroshi Yamaura, Jun Igarashi, Tadashi Yamazaki. Simulation of a Human-Scale Cerebellar Network Model on the K Computer. Frontiers in Neuroinformatics 14, 16 (2020)

ヒト全脳シミュレーション (願わくばリアルタイム) は、神経科学にとどまらず広く自然科学一般におけるグランドチャレンジの1つだと思います。脳は大脳皮質、大脳基底核、視床、小脳、海馬、等々の部位に分かれているので、ヒト全脳シミュレーションをやるためにはまず各脳部位のヒトスケールシミュレーションを達成する必要があります。特に、脳のニューロンの約8割が存在する小脳のシミュレーションは最初の関門です。ヒトスケールでは約680億にもなる、この莫大な数のニューロンのシミュレーションを効率よく実施することが、ヒト全脳シミュレーションの達成するための1つの試金石となります。

これまで我々は、小脳のシミュレーションにおいて、10万ニューロン (Yamazaki and Tanaka 2007; Yamazaki and Igarashi 2013)、100万ニューロン (Gosui and Yamazaki 2016)、10億ニューロン (Yamazaki et al., 2019)と順調に規模を大きくしてきましたが、ヒトスケールに到達するためにはあとまだ100倍近く大きくする必要があります。そこで重要になるのは弱スケーリング性です。弱スケーリングとは、計算機の性能を上げるとシミュレーションの規模をどこまで大きく出来るか、を見る尺度です。もしある脳のモデルのシミュレーションが完璧な弱スケール性を有していれば、計算機の性能を上げることでいくらでも大きなネットワークのシミュレーションができる (ヒトを超えることすら可能)、ということを意味します。

今回「京」コンピュータ全体 (約83,000ノード) を用いて、ヒトスケール小脳シミュレーションを達成しましたが、これは小脳の回路がモジュール化された繰り返しの構造になっていることと、五十嵐さんの神経回路シミュレータMONETが採用しているタイル分割による並列化、という特徴により、良好な弱スケーリングが得られたからです。特にMONETは通信の隠蔽なども積極的に取り入れており、高い並列性能をたたき出します。

今回の論文は、「京」コンピュータでヒトスケール小脳シミュレーションができた、という報告で、ここから神経科学的な新たな知見が得られるわけではありません。どちらかというとスパコンのベンチマークに近い内容です。例えば、ヒト全脳シミュレーションに必要なメモリ量や、リアルタイムを達成するために必要な演算量の見積もりが可能になり、「富岳」を用いることでどこまで達成できるのかが見えてきました。具体的には、ヒト全脳シミュレーションは行けそうですが、リアルタイムにはまだ届かなさそうです。ヒト全脳シミュレーションを富士山の頂上だとすると、今回はMONETというバスに乗って5合目まで来ました、という報告です。まだ5合目というべきか既に5合目というべきかわかりませんが、報告する価値があると我々は信じています。

最後に、この論文は、ポスドクの山浦さんが筆頭著者の論文です。3年という短い期間で、かつ実験からの転身という困難を克服して、世に送り出された論文です。山浦さん、おめでとうございます!