AI_ML_DL’s diary

人工知能、機械学習、ディープラーニングの日記

Quantum-chemical insights from DTNN -2

Quantum-chemical insights from DTNN -2

*KaggleのテーマPredicting Molecular Propertiesと類似した内容であるが、Kaggleとは離れて、DTNNの本質に迫る。

・対象論文:K. T. Schütt et al., Quantum-chemical insights from deep tensor neural networks, nature communications 2017

 

*入力データ

・DTNNに入力する分子の情報は、原子番号3次元空間座標であると、テキトーに書いてきたが、そうではない。

・まず、論文の図1(下図)を見ると、原子番号のベクトルZと、原子間距離マトリックスDが入力情報である。

・データベース側で、この情報は提供されているのだろうか。

・K. T. Schüttらが用いたGDB-9に関する詳細は、R. Ramakrishnan et al., Quantum chemistry structures and properties 0f 134 kilo moleculesに書かれている。

・それによると、Å単位の座標、x,y,xと書かれている。分子の構成元素9個について、原子間距離を9x9のマトリックスに変換するのは問題なさそう。

・どれが隣接しているかは関係なく、全ての原子間について機械的に計算するだけ。

・主題から少し外れるが、下図の左側に図示されている分子構造は、データベースGDB-9には、このような図として記述されているのではなく、SMILESという書式で記述されている。ベンゼン分子であれば、c1ccccc1と記述される。

・さらに、CASとかInChIなどの表記方法がある。

IUPAC Name:Benzene
CAS:27271-55-2
SMILES :c1ccccc1
InChIKey:UHOVQNZJYSORNB-UHFFFAOYSA-N

InChI = International Chemical Identifier :IUPACが国際標準として推奨している。

 

f:id:AI_ML_DL:20200206083318p:plain

*この核の電荷Zと原子間距離Dを入力して、量子力学計算値をラベルにして、DNNに学習させる、という単純な図式かと思っていたが、全く違っている。

・原子間距離に関しては次の記述がある。

f:id:AI_ML_DL:20200206140750p:plain

・クーロンマトリクスを使った例:G. Montavon et al., Machine learning of molecular electronic properties in chemical compounds space, New Journal of Physics 15 (2013) 095003を参考にして考案したとのこと。

・そのネットワークの模式図

f:id:AI_ML_DL:20200206143912p:plain

・クーロンマトリクスの説明

f:id:AI_ML_DL:20200206144235p:plain

・DTNNで使われているガウシアンの重ね合わせ

f:id:AI_ML_DL:20200206132121p:plain

・どういうふうに理解していけばよいのだろうか。

 

 <雑談>
・物事を学ぶことによって得られるものを、直接効果と間接効果に分けてみる。

・原理的ことを学ぶと、原理を知るという直接効果の他に、原理を応用して他のところでも有効に使えるという間接効果がある。

・汎用性は、広い範囲に適用できるものということだから、汎用性を得るには、広く学ぶ必要がある。あるいは、広く適用できる原理を学ぶことが有効である。

ビッグデータは、広い範囲を含むということを直ちに意味するものではない。

・CNNによる画像認識は、直接効果は大きいが、汎用性に乏しい。それは、学んだものの中のどれに近いかを出力しているだけで、それ自体のことを把握しているわけではないからであろう。

・CNNは物体をパーツに細分化し、物体認識の過程ではパーツを再構成しているようにみえるが、再構成したものと入力画像を直接比較して判定しているわけではなく、結果として、方々に散らばっているパーツの組合せが、最も近いものを選んでいるということであろうか。

・理想的な学習について考えると、各物体について、画像から抽出した特徴量の最適な組み合わせを再構成したものを生成することができればよいのではないだろうか。入力画像を、その象徴的な画像と比較することによって、判断・判別できることが望ましいように思うし、それが、本来の学習および学習の効果というものではないだろうか。

・そういう学習機を作りたいものだ。

 

*DTNNを理解するために、K. T. SchüttらのDTNNの論文に記述されている内容を丁寧に読み進めているつもりであるが、基礎学力の不足からか、引用文献を見ても理解できない部分が多い。

*明日は、K. T. Schüttらの、ShuNetに関する2件の論文も含めて、DTNNを理解できるようにしていきたいと思う。

SchNet: A continuous-filter convolutional neurel network for modeling quantum interactions

SchNet - a deep learning architecture for molecules and materials

 

つづく 

 

f:id:AI_ML_DL:20200206082006p:plain

style=097 iteration=1

f:id:AI_ML_DL:20200206082059p:plain

style=097 iteration=20

f:id:AI_ML_DL:20200206082146p:plain

style=097 iteration=500