#python機械学習プログラミング wyniki wyszukiwania
3.2 パーセプトロンの訓練ができた。訓練データの多寡による決定境界の違いを確認できた。左は訓練データ70%使用で精度97.8%、右は訓練データ50%で精度93.3%。 #Python機械学習プログラミング

ロジスティック回帰を行うための事前準備で、シグモイド関数の勉強。左がロジット関数と言って、log (1/(1-p))のグラフ。右がシグモイド関数。1/(1+e^-z)を表している。実数のzを0より大きく1より小さい値に変換する。 #Python機械学習プログラミング

訓練データを標準化したのち、ADALINEをかけてみた。収束がとても早くて感動した!標準化前はエポック数1500くらいでやっと誤差0.1を切ったのが、標準化後は学習率も異なるが4回くらいで誤差0.1を切っている。標準化は神。上のグラフは横軸エポック数、縦軸誤差。 #Python機械学習プログラミング

パーセプトロンでも似たグラフを無理やり作ってみたが、そもそも重み最適化を平均二乗誤差のグラフに沿って実施していないため、綺麗に勾配を降りるようなグラフになっていない。グラフは横軸重み、縦軸二乗誤差、点の色は薄水色が学習開始時、紺色が学習終了時 #Python機械学習プログラミング

テキストに載っている尤度関数の導出の式を書き写してみたが全く理解できていない。ベイズ統計を理解して一周回って戻ってきたらこの式の導出も理解できるかなー。楽しみにしている。 #Python機械学習プログラミング
フルバッチ勾配降下法は、1回の重みの更新に必要な訓練データの計算コストはO(n)。nは訓練データの個数。確率的勾配降下法はO(1)。訓練データが100個あれば、前者は100倍の計算量が必要。言い方を変えると、後者は前者の100倍早く収束できる可能性がある。 #Python機械学習プログラミング
ADALINEの確率的勾配降下法。コードの半分を書いた。次回はもう半分を書くが、実行はその次の日かな。週末はキャンプなので朝学習はしない予定。 #Python機械学習プログラミング
scikit-learnを使ってパーセプトロンによる分類を行った。なんだこれは便利すぎる。訓練データとテストデータの自動分類も行ってくれるなど、あって欲しい機能がちゃんと実装された素晴らしいライブラリだ。 #Python機械学習プログラミング
ロジスティック回帰の損失関数の勉強中。難解な統計の用語がたくさん出てきて挫折しそう…。尤度、ベルヌーイ変数、確率質量関数などなど遠い昔に忘れた概念がたくさん出てきた。これは統計の勉強をやり直さないとだめかなぁ。 #Python機械学習プログラミング
尤度などの概念はベイズ統計学というものに属するようだ。そもそも大学で習っていなかったと思う…ので、「完全独習 ベイズ統計学入門 小島寛之」を買って勉強することにした。届くまでの間、分からないなりにも数式に取り組もうと思う。 #Python機械学習プログラミング
昨夜は深夜12時近くまで残業だったが、今朝も機械学習の勉強ができてよかった。ADALINEを実行できたが、どうもパーセプトロンとの違いが実感できていない気がする。損失関数のカーブをプロットしてみて、 勾配降下法の威力を実感してみようと思う。 #Python機械学習プログラミング
ADALINEの実装を始めた。コードを打ち始めると、パーセプトロンとの違いが一層わかるようになってくる。そして、パーセプトロンのコードの理解がイマイチだったところにも気づく。。また振り返って復習している。Jupyter Notebookは相変わらず素晴らしく便利 #Python機械学習プログラミング
ベイズ統計を勉強する前に確率統計の基礎を振り返っておかなればならない事に気づき、以下の本を読み返している。しばらく寄り道だな。 amzn.asia/d/5ZfTZ8j #Python機械学習プログラミング
ADALINEのパラメータ更新方法の解説で偏微分が出てきて早速挫けそうになった。ウン十年前に大学で覚えた知識をギリギリ思い出し、ChatGPT先生にも聞いてなんとか式展開できた。またテキストも式の導出方法をかなり細かく書いてくれていてよい chat.openai.com/share/900f4d36… #Python機械学習プログラミング
ADALINEのクラス実装がやっと終わった。明日はこれを実行してみる。楽しみ。クラス実装中に以下のページなど見つつ行列の内積の復習。 geisya.or.jp/~mwm48961/kou2… #Python機械学習プログラミング
ベイズ統計を勉強する前に確率統計の基礎を振り返っておかなればならない事に気づき、以下の本を読み返している。しばらく寄り道だな。 amzn.asia/d/5ZfTZ8j #Python機械学習プログラミング
テキストに載っている尤度関数の導出の式を書き写してみたが全く理解できていない。ベイズ統計を理解して一周回って戻ってきたらこの式の導出も理解できるかなー。楽しみにしている。 #Python機械学習プログラミング
尤度などの概念はベイズ統計学というものに属するようだ。そもそも大学で習っていなかったと思う…ので、「完全独習 ベイズ統計学入門 小島寛之」を買って勉強することにした。届くまでの間、分からないなりにも数式に取り組もうと思う。 #Python機械学習プログラミング
ロジスティック回帰の損失関数の勉強中。難解な統計の用語がたくさん出てきて挫折しそう…。尤度、ベルヌーイ変数、確率質量関数などなど遠い昔に忘れた概念がたくさん出てきた。これは統計の勉強をやり直さないとだめかなぁ。 #Python機械学習プログラミング
ロジスティック回帰を行うための事前準備で、シグモイド関数の勉強。左がロジット関数と言って、log (1/(1-p))のグラフ。右がシグモイド関数。1/(1+e^-z)を表している。実数のzを0より大きく1より小さい値に変換する。 #Python機械学習プログラミング

3.2 パーセプトロンの訓練ができた。訓練データの多寡による決定境界の違いを確認できた。左は訓練データ70%使用で精度97.8%、右は訓練データ50%で精度93.3%。 #Python機械学習プログラミング

scikit-learnを使ってパーセプトロンによる分類を行った。なんだこれは便利すぎる。訓練データとテストデータの自動分類も行ってくれるなど、あって欲しい機能がちゃんと実装された素晴らしいライブラリだ。 #Python機械学習プログラミング
フルバッチ勾配降下法は、1回の重みの更新に必要な訓練データの計算コストはO(n)。nは訓練データの個数。確率的勾配降下法はO(1)。訓練データが100個あれば、前者は100倍の計算量が必要。言い方を変えると、後者は前者の100倍早く収束できる可能性がある。 #Python機械学習プログラミング
ADALINEの確率的勾配降下法。コードの半分を書いた。次回はもう半分を書くが、実行はその次の日かな。週末はキャンプなので朝学習はしない予定。 #Python機械学習プログラミング
訓練データを標準化したのち、ADALINEをかけてみた。収束がとても早くて感動した!標準化前はエポック数1500くらいでやっと誤差0.1を切ったのが、標準化後は学習率も異なるが4回くらいで誤差0.1を切っている。標準化は神。上のグラフは横軸エポック数、縦軸誤差。 #Python機械学習プログラミング

パーセプトロンでも似たグラフを無理やり作ってみたが、そもそも重み最適化を平均二乗誤差のグラフに沿って実施していないため、綺麗に勾配を降りるようなグラフになっていない。グラフは横軸重み、縦軸二乗誤差、点の色は薄水色が学習開始時、紺色が学習終了時 #Python機械学習プログラミング

昨夜は深夜12時近くまで残業だったが、今朝も機械学習の勉強ができてよかった。ADALINEを実行できたが、どうもパーセプトロンとの違いが実感できていない気がする。損失関数のカーブをプロットしてみて、 勾配降下法の威力を実感してみようと思う。 #Python機械学習プログラミング
ADALINEのクラス実装がやっと終わった。明日はこれを実行してみる。楽しみ。クラス実装中に以下のページなど見つつ行列の内積の復習。 geisya.or.jp/~mwm48961/kou2… #Python機械学習プログラミング
ADALINEの実装の続き。テキストでは重みの更新のところは numpy.dot()を使い1行で書かれているが、ドット積を使っているので中身は行列の内積。実際にはforループで1要素ずつ計算されている。1つ1つほぐしながら理解を進める。。 #Python機械学習プログラミング
ADALINEの実装を始めた。コードを打ち始めると、パーセプトロンとの違いが一層わかるようになってくる。そして、パーセプトロンのコードの理解がイマイチだったところにも気づく。。また振り返って復習している。Jupyter Notebookは相変わらず素晴らしく便利 #Python機械学習プログラミング
ADALINEのパラメータ更新方法の解説で偏微分が出てきて早速挫けそうになった。ウン十年前に大学で覚えた知識をギリギリ思い出し、ChatGPT先生にも聞いてなんとか式展開できた。またテキストも式の導出方法をかなり細かく書いてくれていてよい chat.openai.com/share/900f4d36… #Python機械学習プログラミング
2.3 ADALINEと学習の収束、に進む。パーセプトロンはPython実装の細かいところを見すぎて時間を使ってしまった。ADALINEも数式がかなり出てきてとても難しい印象。偏微分まで出てきた。ゆっくりやろう #Python機械学習プログラミング
機械学習の勉強を始めてから、ひたすら表を整形したり、結合したりしているような気がします。#Python機械学習プログラミング の「常にデータの前処理が最も重要なステップになる」という記述を実感しています。 #Python #プログラミング勉強中

ロジスティック回帰を行うための事前準備で、シグモイド関数の勉強。左がロジット関数と言って、log (1/(1-p))のグラフ。右がシグモイド関数。1/(1+e^-z)を表している。実数のzを0より大きく1より小さい値に変換する。 #Python機械学習プログラミング

3.2 パーセプトロンの訓練ができた。訓練データの多寡による決定境界の違いを確認できた。左は訓練データ70%使用で精度97.8%、右は訓練データ50%で精度93.3%。 #Python機械学習プログラミング

訓練データを標準化したのち、ADALINEをかけてみた。収束がとても早くて感動した!標準化前はエポック数1500くらいでやっと誤差0.1を切ったのが、標準化後は学習率も異なるが4回くらいで誤差0.1を切っている。標準化は神。上のグラフは横軸エポック数、縦軸誤差。 #Python機械学習プログラミング

パーセプトロンでも似たグラフを無理やり作ってみたが、そもそも重み最適化を平均二乗誤差のグラフに沿って実施していないため、綺麗に勾配を降りるようなグラフになっていない。グラフは横軸重み、縦軸二乗誤差、点の色は薄水色が学習開始時、紺色が学習終了時 #Python機械学習プログラミング

Something went wrong.
Something went wrong.
United States Trends
- 1. Deport Harry Sisson 8,438 posts
- 2. Gabe Vincent 3,850 posts
- 3. DuPont 1,748 posts
- 4. #PokemonZA 1,556 posts
- 5. Angel Reese 51.8K posts
- 6. #PokemonLegendZA 1,432 posts
- 7. Mavs 5,704 posts
- 8. Deloitte 6,475 posts
- 9. #Blackhawks 2,152 posts
- 10. tzuyu 242K posts
- 11. Lakers 18K posts
- 12. Blues 21K posts
- 13. Tusky 2,380 posts
- 14. #AEWDynamite 18.6K posts
- 15. #TusksUp 1,668 posts
- 16. Mad Max 3,673 posts
- 17. Everest 3,267 posts
- 18. Birdman 5,345 posts
- 19. jihyo 190K posts
- 20. Nazar 6,788 posts