【W7】活性予測のための機械学習モデル_13_Step3_07_ANN_RPrep
【W7の目的】
前回で人工ニューラルネットワーク(ANN)の基礎概念まで学習してきました。
【RProp MLP Learnerの説明だけでも1章かかる】
KNIMEのworkflowは一見簡単に見えますよね。
もうランダムフォレスト(RF)で、k分割交差検証する例を見ました。
アルゴリズムがRFからANNに変わったのに合わせて、KNIMEノードが置き換わっただけです。ただしこのノードに盛り込まれている技術は先週だけでは紹介しきれなくて今週もその続きをしています。
先週ANNのためのノードの1種であるRProp MLP LearnerのMLPとは多層パーセプトロンのことですという話をしました。まだRPropを取り上げていませんでした。
日本語化されたディスクリプションによると、
この文章を読んだだけで、理解には数学必須とわかるので、深追いはやめたのですが前回同様にインフォマジシャン研究所で藤さんから定性的な特徴は教えていただきましたので紹介しておきます。
RPropは
のようです
そしてより理解を深めるにはとまずはバックプロパゲーション(逆誤差伝播法)の勉強をお勧めいただきました。
よびのりの動画の11分50秒くらいででてくる学習係数 η(イータ)をRProp独自のルール
としているようで、これがディスクリプションにあった「誤差関数の振る舞いに応じて、重み更新の局所的な適応」にあたるようです。
さらに補足して情報もいただきました。藤さん、改めましていろいろと教えていただきましたこと感謝します。
<参考>MultilayerPerceptronノード
【RProp MLP Learnerの強みを知って】
KNIMEでのANN実装例のWFではRProp MLP Learnerがしばしば使われてきました。
下記の記事、ドイツ語で書かれてますが、Chromeで日本語訳して読めます。
彼らの報告では標準設定でAccuracy = 73.7%との精度が観測されたのですが、
学習効率というハイパーパラメータの調節は、本来上述のように注意深く行う必要があるので初心者にはなかなか難しいのですが、RPropをノードで実装してくれているからこそ、手軽にANNを体験できるということなのかもしれないと思いました。TeachOpenCADDは初心者にケモインフォマティクスを体験してもらうことが主目的ですから、この選択がベストではないでしょうか。
藤さんから教わったことの紹介で1章を終わりました。次回こそはWFを実行してみましょう。
おまけ:
【有償コミュニティの価値を考える】
有償コミュニティであるインフォマジシャン研究所の参加メンバーはケモインフォマティクスに関しての情報交換や質問ができるのですが、2021年の夏にはKNIME研究室も立ち上げてくださいました。
玄人さん達はPythonでの最新技術の実装例などを議論されていますが、私のような初心者にとってはKNIMEを利用して基礎的な技術概要を教わることができることもありがたいです。
過去に幾つかの無償コミュニティに参加してきたのですが、COVID-19禍などの影響もあって休眠状態になってしまい寂しく思っています。
ずいぶん前の話になりますが、ケモインフォマティクスの大御所の方が、いろいろな無償のコミュニティで運営者が素人の質問対応で疲弊していくのを見て、質問する側の事前の勉強不足を憂いておられたことを忘れられずにいます。
Py4cheminformaticsなどはまさに初心者がまずここまでは独力で学んでから玄人への相談をするようにと工夫されているのかもと想像しています。
一方で、有償のコミュニティだから何でも1から聞いていいわけではないですが、今回のような質問に真摯に対応いただける機会が得られることに本当に感謝しています。上記のMuitiPerceptronノードと比較してRProp MLP Learnerノードの特長を説明いただいた時は感激しました。主宰者の藤さんは講演や動画教材作成などの経験が豊富なだけあって人にわかりやすく教えることが上手です。
皆さんがもし一緒に勉強してみたくなったら、DMなどでお声がけください。紹介キャンペーンもあるし、どんな会なのかより詳しくお話しできます。
実のところこのnoteを始めた重要なきっかけも藤さんから頂きました。末永くよろしくお願いしたいと思っています。
記事を読んでいただきありがとうございます。 先人の智慧をお借りしつつ、みなさんに役立つ情報が届けられたらと願っています。 もしサポートいただけるなら、そのお金はKNIMEの無料勉強会の開催資金に充てようと思います。