マガジンのカバー画像

Kaggleで学ぶ機械学習

23
Kaggleで学んだこと、気づいたこと
運営しているクリエイター

記事一覧

Kaggle - ステップアップのために自然言語処理(NLP)も学んだほうがいいみたい

最近はできるだけKaggleでコードを公開するようにしている。初心者の拙いコードだけど、公開用…

sasayaka
8日前
9

機械学習モデルのパラメータ最適化 - Optunaのアルゴリズム

いままでなんとなく使っていたOptunaのパラメータ最適化。グリッドサーチのような総当たりアプ…

sasayaka
1か月前
12

Voting Regressor - 複数モデルを組み合わせて予測精度を向上するアンサンブル学習

いまさらながらVoting Regressorのアンサンブル学習をChatGPTに教えてもらった。Kaggleで公開…

sasayaka
1か月前
8

KaggleでExpertに昇格したのでどれくらい価値があるのか(ないのか)訊いてみた

Kaggleのコンペで銅メダルを2つ獲得し、Competition Expertに昇格した。挑戦して1年目の成果…

sasayaka
2か月前
26

マルチラベル分類問題 - 性能評価指標 AUC(Area Under the Curve)の適用

Kaggle初心者向けPlayground Seriesで、今回のテーマはマルチラベル分類。AUCの考え方がよくわ…

sasayaka
2か月前
8

多値分類の閾値調整: Optunaを用いた精度向上

多値分類のコンペが苦手だ。分類問題では後処理での閾値調整が有効らしいけど、その辺の理解が…

sasayaka
3か月前
11

正則化とは? -機械学習モデルの 過学習を防ぎ、予測精度を最適化する

正則化はモデルが訓練データに過剰に適合することを防ぎ、新しいデータに対する予測精度を高めるための重要な手法らしい。 いままでなんとなくやっていたLightGBMの正規化パラメータ設定についてChatGPTに教えてもらったのでメモします。 正則化とは?L1正則化(Lasso):不要な特徴量の重みを0にして影響を減らす。 L2正則化(Ridge):特徴量の重みを小さくしモデルの複雑さを減らす。 Elastic Net:L1とL2のバランスを取り、データの特性に応じて最適なモ

機械学習のための対数変換 - NumPyのlog1p関数

正規分布していない特徴量や目的変数を対数変換することで、予測精度が向上することがある。な…

sasayaka
3か月前
6

多次元データの異常値判定 - Isolation Forest

ChatGPTにIsolation Forestの異常値判定を教えてもらったメモ。特に多次元データセットでの異…

sasayaka
4か月前
10

パイプライン処理で効率化: scikit-learnのpipelineモジュール

scikit-learnのpipelineについてChatGPTに訊いてみた。 要するに、.fit()メソッドを使った一連…

sasayaka
5か月前
4

ChatGPTと学ぶ:時系列データの自己相関

時系列データの自己相関について勉強中です。ChatGPTは多くの知識を持つ頼りになる相棒ですが…

sasayaka
6か月前
3

Kaggle パラメータ最適化をChatGPTにお願いしてみた

LightGBMのパラメータ最適化について、ChatGPTに聞きながら確認中です。 ChatGPTに予測モデル…

sasayaka
6か月前
12

Kaggleコンペ - 株取引の終値の動き

Kaggleのコンペティション。共有されているコードは勉強になるのですごくありがたいのですが、…

sasayaka
7か月前
8

Kaggle トップレベルの人たちの取り組み方を見習う

ときどきKaggleに取り組んでいるものの、まだまだ何かが足りないなと感じる毎日です。この記事を読んで、トップレベルの人たちはやっぱり違うなぁと考えさせられました。 はじめてSIGNATEのコンペに参加したのが2020年9月なので、もう機械学習の勉強をはじめて4年目です。本業の合間でやっているとはいえ、いつまでも初心者気分でいる自分は考え方が甘いのかもしれません。「コンペ中よりもlate submitのほうが得られるものは大きい」ことも改めて納得しました。 ChatGPT