見出し画像

時系列データをpython【#2.7】MAモデルその1

以下の本から時系列データの部分を勉強しましたので、少しここに書こうと思います。※アフェリエイトはしていません。でもこの本はすごくいい本なので、これで知識を増やす、勉強するのはいいことだと思います。(アフェリエイトではなく、自分の一生ものの能力をつけるために約4000円でこの本を買って、月給4000円上げようというモチベーションです。)MAモデルは↓の本を参考にしました。

今回はMA(Moving Average)モデルを勉強していきます。
式を確認すると↓のようになっていました(全然わからない)。ので1つずつ分解してみていきます。

MA過程の数式

見たことないのが、W.N(σ^2)、↑の本にはホワイトノイズと定義されていました。

ホワイトノイズの定義

定義としては、平均はゼロで、分散はσ^2、他のtとの共分散はゼロということで、無相関で、分散の値が一定のもののようです。
t=1時間後、t=2時間後の値は、無相関(予想がつかない)と言ってますかね(雑だけど、イメージはこんな感じ)。

MA過程の数式の両辺に期待値Eをつけると、
E[y_t] = E[u+e_t + θ_1 * e_{t-1}]
= E[u] + E[e_t] + E[θ_1 * e_{t-1}]
→E[u] = たとえば、uが10として、Eがi=1,2,3とすると1/3 * (10 + 10 + 10) = 10なのでE[u] = u → 定数なので当たり前か、久しぶりすぎて書いちゃった。
→E[e_t] = ホワイトノイズの定義に従うと0、
→ E[θ_1 * e_{t-1}]はθ_1はたぶんEの外に出せてθ_1 * E[e_{t-1}]になって、
結局ホワイトノイズの定義に従うと θ_1 * 0 = 0。
なので、E[y_t] = μなので、y_tの平均って言ってますね。
y_tって1点じゃないの?i=1,…,nみたいに複数個あるの?
って思って、ページを戻すと定義されていました。

y_tの定義

y_tは1つ前までのデータで予測された値なので、E[y_t] = μの意味は、1つ前までのデータの平均ってことか。。。

MA過程の数式

ということで、ここまでの理解だとy_tのMAは、μ(1つ前までのデータの)平均にe_tノイズを追加したもの、θ_1*e_{t-1}は次回。。。

(ちょっと本業が忙しく、あんまり勉強する時間がとれない、、、尻切れトンボですが次回がんばりまーす)

#python
#ChatGPT
#プログラミング初心者
#生成AI
#プログラミング教育
#GoogleColab
#時系列

この記事が気に入ったらサポートをしてみませんか?