ケモインフォマティクス

共同研究に対する金子研のスタンス~学生の関わりなど~

基本的に、金子研は共同研究に対して、来る者は拒まず、といったスタンスです。もちろん、事前にお話を伺って、それはちょっと金子研の出番はないのでは??、となれば、お断りすることもあるかもしれません。ただ、これまで相手の方々が入念に検討してから金...

どんなクラス分類のデータも回帰分析に変換する方法 (説明変数にも使えます)

教師あり学習には、大きく分けてクラス分類と回帰分析があります。目的変数が連続値であれば回帰分析、サンプルごとのクラスの情報であればクラス分類です。変数のレベル的には、回帰分析の目的変数が間隔尺度もしくは比例尺度、クラス分類の目的変数が名義尺...

ディープラーニング(深層学習)が流行る理由~なんでもディープラーニングでOKというわけではない~

いろいろなところで、ディープラーニング (deep learning) とか深層学習とかディープニューラルネットワークとかを耳にすると思います。実際にニューラルネットワークのモデルを構築したことがある人もいるかもしれません。ディープラーニン...

誤差逆伝播法によるニューラルネットワーク(BackPropagation Neural Network, BPNN)~深層学習(ディープラーニング)の基礎~

誤差逆伝播法によるニューラルネットワーク (BackPropagation Neural Network, BPNN) についてです。基本的には深層学習 (ディープラーニング) も同じ学習方法で実現できます。BPNN について説明するスライ...

GAPLS, GASVR でモデルの推定性能がよくなるように説明変数の選択をしよう![Pythonコードあり]

遺伝的アルゴリズム (Genetic Algorithm, GA) を使って説明変数を選択する話です。2つの手法である Genetic Algorithm-based Partial Least Squares (GAPLS) Geneti...

非線形モデルの解釈をしよう!~非線形モデルを各変数で偏微分~

線形のクラス分類モデル・回帰分析モデルでは、説明変数 (記述子・特徴量) ごとに重みが求まります。実際には説明変数の間には相関関係があるためモデルの解釈は簡単ではありませんが、重みを見ることでそのモデルを解釈した気になれます。 ただ、非線形...

Locally-Weighted Partial Least Squares (LWPLS, 局所PLS) ~あのPLSが非線形性に対応!~ [Python・MATLABコードあり]

Partial Least Squares (PLS) を変数間の非線形性に対応させた Locally-Weighted Partial Least Squares (LWPLS, 局所PLS) について、pdfとパワーポイントの資料を作成...

実験計画法で実験パラメータの候補を選択する (直交表を作成する) プログラムを公開します

今回は、実験計画法についてです。実験計画法の概要についてはこちらをご覧ください。 実験パラメータがあり、それぞれの候補の値が与えられているときに、決められた数の組み合わせを選択するプログラムを作成しましたので公開します。Python や M...

t-distributed Stochastic Neighbor Embedding (t-SNE) ~データの可視化に特化した手法~

今回は、t-distributed Stochastic Neighbor Embedding (t-SNE)についてです。変数 (特徴量・記述子など) がたくさんある (多変量・多次元の) データセットが与えられたときに、適切に2次元平面...

T2統計量・Q統計量~異常値を検出したり、モデルの適用範囲・適用領域(AD)を設定したり~

今回は、T2統計量・Q統計量についてです。主成分分析 (Principal Component Analysis, PCA) を行ったあとに、異常値を検出したり、モデルの適用範囲・適用領域 (Applicability Domain, AD...
タイトルとURLをコピーしました