自分でコントロールできる割合を考えて目標を設定したり注力したりするほうがストレスレス!

目標を設定したり、それに向けて頑張ったりすることはあると思います。そのとき、特に他人が関わってきたり自然に関することだったりする場合に、自分でコントロールできる割合を考えたほうが、ストレスが少なくなったり、反省の仕方がうまくなったりするとい...

お酒の話、関係者の前でもできる飲み方を

お酒が好きです。ビール・日本酒・焼酎・ワインなど、それぞれ美味しいだけでなく、飲むことで血中アルコール濃度が上がり、なんだか楽しい気分になったり、その場にいる人たちと盛り上がったりすることも含めて好きです。 ただ一方で、(少なくとも日本では...

学生と話すときの心がまえ~2つの先入観(バイアス)を意識する~

学生と話すとき、2つの先入観もしくはバイアスを意識しています。 1. 大学でやることは難しいという先入観 学生の中には、数式を見ただけで、ギブアップ!の人もいます。微分・積分はよくわからない、統計はとっつきにくい、パソコンは難しい、研究は優...

研究は、他の研究者が築いた信用の上に成り立っている、気付きにくいけれど

だいたいの日本人は、(もちろんお金をもっていれば) コンビニで気楽におにぎりを買い、食べることができます。これは、日本のコンビニであれば 危ないおにぎりはないし 平均的にどれも美味しいはず、といったコンビニに対する “信用” があるからです...

y-randomizationで過学習(オーバーフィッティング), Chance Correlation(偶然の相関)の危険度を評価!

回帰モデル・クラス分類モデルの評価 のなかで、yランダマイゼーション (y-randomization) についてです。y-scrambling と呼んだりもします。 やることは簡単で、目的変数 y の値をサンプル間でシャッフルして、回帰モ...

Generative Topographic Mapping(GTM)でデータの可視化・回帰分析・モデルの適用範囲・モデルの逆解析を一緒に実行する方法 [金子研論文]

今回は、Generative Topographic Mapping (GTM) でデータの可視化・回帰分析・モデルの適用範囲・モデルの逆解析を一緒に実行できる手法を開発し、QSPR 解析・QSAR 解析と分子設計を行った論文が、molec...

ランダムフォレスト(Random Forests, RF)や決定木(Decision Tree, DT)で構築したモデルを逆解析するときは気をつけよう!

回帰モデルやクラス分類モデルを構築したら、モデルの逆解析をすることがあります。逆解析では、説明変数 (記述子・特徴量・実験条件など) X の値から目的変数 (物性・活性など) y の値を推定するのではなく、逆に、y の値から X の値を推定...

化学工学会第50回秋季大会@鹿児島大学 郡元キャンパス で学生の研究発表・学生コンテスト [受賞あり]

2018年9月18, 19, 20日に開催されました化学工学会第50回秋季大会@鹿児島大学 郡元キャンパス に、データ化学工学研究室(金子研)のM1小島・B4山田と参加して参りました。 とても大規模な会議であり、27 会場で並行して(特別)...

本当に標準偏差(分散)が0の説明変数(記述子・特徴量)を削除してよいのか?

教師あり学習をするときの、データ解析のおおざっぱな流れとしては、 データセットをトレーニングデータとテストデータに分ける トレーニングデータを用いて X と y との間でモデル y = f(X) を構築する (おもに回帰分析もしくはクラス分...

[Pythonコードあり] スペクトル解析における波長領域や時系列データ解析におけるプロセス変数とその時間遅れを選択する方法

遺伝的アルゴリズム (Genetic Algorithm, GA) を使って回帰モデルの推定性能がよくなるように、説明変数 (記述子・特徴量・入力変数) を選択する手法を以前解説しました。 今回は、スペクトル解析における波長選択と、時系列デ...
タイトルとURLをコピーしました