研究室

特徴量選択の結果をこのように整理してはいかがでしょうか?[Pythonコードあり]

説明変数 x と目的変数 y の間で回帰モデルやクラス分類モデルを構築するとき、モデルの予測精度やモデルの解釈性を向上させるため、特徴量選択 (変数選択) をすることがあります。例えば 1000 個の x があるとき、特徴量選択をして 50...

IoTインフォマティクス、一緒にやりませんか? [さきがけのヒヤリングで落選した内容。申請書のpdfファイルあり]

2020 年度に 「時空間制御による運転最適化のためのモデルの高速逆解析」 という研究課題名で、研究領域 「IoTが拓く未来」 のさきがけに応募しました。首尾よくヒヤリングまで進んだのですが、ヒヤリングで落選してしまいました。残念ですが、研...

特徴量選択手法について、モデルの予測精度・選択された特徴量の割合・選択された乱数の特徴量の割合で議論しました![金子研論文]

金子研の論文が Heliyon に掲載されましたので、ご紹介します。タイトルは Examining variable selection methods for the predictive performance of regressio...

転移学習における標準化(オートスケーリング)

転移学習は、対象としているデータセット (ターゲットドメイン) だけでなく、そのデータセットに少し関連はありますが、一緒には扱えなさそうな別のデータセット (ソースドメイン、こちらはサンプル数がある程度大きいことが前提です) を活用して、回...

「Pythonで学ぶ実験計画法入門 ベイズ最適化によるデータ解析」 正誤表

「Pythonで学ぶ実験計画法入門 ベイズ最適化によるデータ解析」 をご購入いただき感謝申し上げます。売れ行きも好調のようで嬉しい限りでございます。多くの方々に実験計画法、適応的実験計画法、ベイズ最適化をご活用いただきたいという思いで執筆し...

[無料公開] 「Pythonで学ぶ実験計画法入門 ベイズ最適化によるデータ解析」 の “まえがき”、目次の詳細、第1・2章

2021 年 6 月 3 日に、金子弘昌著の「Pythonで学ぶ実験計画法入門 ベイズ最適化によるデータ解析」が出版されました。 講談社: Amazon: Amazon(Kindle): === 出版して約2年経過した 2023 年 4 月...

Locally-Weighted Partial Least Squares (LWPLS, 局所PLS) における目的変数の予測誤差を推定する手法を開発しました![金子研論文]

金子研の論文が Journal of Chemometrics に掲載されましたので、ご紹介します。タイトルは Estimating the Reliability of Predictions in Locally Weighted Pa...

サンプル・特徴量・データ・データセットなどの用語を整理します!

データ解析・機械学習において、「データ」 の話をするとき、いろいろな用語が飛びかいます。サンプル、特徴量、記述子、変数、説明変数、目的変数、データ、データセットなどです。データ解析や機械学習の議論をするとき、人によって用語の使い方が違うと、...

現在進めている研究内容や最近の興味

金子研で現在進めている研究内容や最近の興味は以下のとおりです。 直接的逆解析法による分子設計・材料成形・プロセス設計 分子設計・材料成形・プロセス設計において、説明変数 x と目的変数 y の間でモデル y=f(x) を構築した後、目標の ...

AD を設定すれば万事OK?

回帰モデルやクラス分類モデルを構築したあとは、それを効果的に使用するため、モデルの適用範囲 (Applicability Domain, AD) を設定する必要があります。 モデルは、説明変数 x の値が入力されれば、それがどんな値でも、目...
タイトルとURLをコピーしました