きっと続かんブログ

勉強したことや人に言いたいことを書く。

技術メモ

単純パーセプトロンとロジスティック回帰

両方とも、2値分類に用いられるニューラルネットワーク。 単純パーセプトロン 出力が0か1 活性化関数にステップ関数を用いる 0か1やと極端やなあ…確率出力すればえーんやない? ↓↓↓↓↓↓↓↓↓↓ ロジスティック回帰 出力が0~1の確率 活性化関数にシグモイド関数を…

スケーリング

意味 数値を特定の範囲内におさめるために施す処理。 またそのための定数をスケール因子(スケーリング因子)と呼ぶ。 例 0~1000の値Aを0~50の値Bにスケーリングする。 20がスケール因子に相当する。 上のように、単純に大きすぎる値を小さい範囲に収めたい…

加重和

意味 ベクトルVと重み付けベクトルWにおいてVとWの内積をとること。 登場文献 論文解説 Attention Is All You Need (Transformer) - ディープラーニングブログ Dot-Product Attention(内積アテンション)においては、 softmax(QKT)が重みに相当し、これにvalu…