きっと続かんブログ

勉強したことや人に言いたいことを書く。

2018-10-01から1ヶ月間の記事一覧

【tensorflowメモ】tf.app.flags

python実行ファイルにコマンドラインオプションを設定するためのモジュール。 #tf_app_flags.py import tensorflow as tf #定義 myflags = tf.app.flags.FLAGS #tf.app.flags.FLAGS.'型'('引数名', '初期値', '説明') tf.app.flags.DEFINE_integer("int", 0,…

単純パーセプトロンとロジスティック回帰

両方とも、2値分類に用いられるニューラルネットワーク。 単純パーセプトロン 出力が0か1 活性化関数にステップ関数を用いる 0か1やと極端やなあ…確率出力すればえーんやない? ↓↓↓↓↓↓↓↓↓↓ ロジスティック回帰 出力が0~1の確率 活性化関数にシグモイド関数を…

スケーリング

意味 数値を特定の範囲内におさめるために施す処理。 またそのための定数をスケール因子(スケーリング因子)と呼ぶ。 例 0~1000の値Aを0~50の値Bにスケーリングする。 20がスケール因子に相当する。 上のように、単純に大きすぎる値を小さい範囲に収めたい…

加重和

意味 ベクトルVと重み付けベクトルWにおいてVとWの内積をとること。 登場文献 論文解説 Attention Is All You Need (Transformer) - ディープラーニングブログ Dot-Product Attention(内積アテンション)においては、 softmax(QKT)が重みに相当し、これにvalu…

Attention is all you need(Transformer)のお勉強

nmt

deeplearning.hatenablog.com りょぼっと様が解説記事を書いてくださってるのでそれで勉強。 ここには読んでいて難しかったところ(ほぼ全て)の解説(個人的解釈)を記事に沿って示します。 浅学なもんで厳密には間違ってるってところがたくさんあると思い…