データ解析

真の意味で解釈でき、予測精度も高い線形モデルを開発しました![金子研論文]

タイトルを見て、線形モデルは回帰係数 (各特徴量の目的変数に対する重み) が与えられるのだから、線形モデルを解釈できるのは当たり前では??、と考えた方、非常に危険です。以下、必見です。 金子研の論文が ACS Omega に掲載されましたの...

Python の環境の準備とspyderやjupyter notebookの起動まで(Windows編とmacOS編)

Python プログラミングを行うための環境を準備する方法はいろいろとあります。有名なのは Anacondaを利用する方法です。一方で、一部の方にとっては Anaconda は有料であり、少し壁があるかもしれません。もちろん Anacond...

重要度は高いと計算された特徴量が、ドメイン知識的には重要そうでないとき何が起きているのか?

分子設計・材料設計・プロセス設計において、分子記述子や合成条件・製造条件やプロセス条件などの説明変数 x と活性・物性・特性などの目的変数 y の間で数理モデル y = f(x) を構築し、x から y を予測したり、y が目標値になるよう...

特徴量の重要度はモデルの予測精度が低い場合でも信用してよいのか?

分子設計・材料設計・プロセス設計において、分子記述子や合成条件・製造条件やプロセス条件などの説明変数 x と材料の物性・活性・特性などの目的変数 y との間で数理モデル y = f(x) を構築して、そのモデルを用いて x の値から y の...

機械学習の教師なし学習だけでは、知識は得られません!

分子設計・材料設計・プロセス設計において、説明変数 (分子の特徴量・合成条件・製造条件・プロセス条件など) x と目的変数 (物性・活性・特性など) y の間で、データセットを用いて数理モデル y = f(x) を構築したり、構築されたモデ...

クラスタリングは何のためにやるのか?

教師なし学習の一つであるクラスタリングについてです。クラスタリングの手法自体は知っていても、クラスタリングって何のためにするの??って方もいらっしゃるかと思い、ここではクラスタリングをするメリットについて整理します。クラスタリングのメリット...

乱数を上手く使うとモデルがオーバーフィッティングしているかどうか確認できます

説明変数 x と目的変数 y との間で数理モデル y = f(x) を構築するとき、構築されたモデルがオーバーフィッティングしているかどうか気になるときがあります。 もちろんトレーニングデータとテストデータに分割してテストデータで検証したり...

原理的に0以下にならない目的変数の値を、小さくしたいときのベイズ最適化

分子設計・材料設計・プロセス設計において、分子記述子・合成条件・製造条件・プロセス条件などの説明変数 x と物性・活性・特性などの y との間で数理モデル y = f(x) を構築して、x の値から y の値を予測したり、y が目標の値とな...

金子研で研究員を募集するとしたら?

今すぐというわけではありませんか、予算を確保できたときには、ポスドクを含む研究員を雇う予定でいます。今回は、その状況になったときのための整理をする記事になります。 基本的に研究員の方には、化学や化学工学のデータを扱った機械学習・データ解析を...

決定木やランダムフォレストを回帰分析でどのように活用するか?

今回は決定木やランダムフォレストの活用方法についてです。 というのも、決定木やランダムフォレストをクラス分類に用いるときは特に関係ないのですが、回帰分析に用いるときは、決定木やランダムフォレストによって構築されたモデルの特徴の一つに、目的変...
タイトルとURLをコピーしました