書いて理解するPytorchのforwardとbackward

forwardは一言で言えば順伝搬の処理を定義しています。元々はkerasを利用していましたが、時代はpytorchみたいな雰囲気に呑まれpytorchに移行中です。 ただkerasに比べて複雑に感じる時があります。 今回はforwardを書いていて、「なんだっけこれ」と初心者…

NNの中間層の出力ベクトルを特徴量として利用してみたい

学習済のニューラルネットワークの中間層の出力はそれ自体が特徴量となります。 頭では理解しているものの、今まで実装したことはありませんでした。今回はtomaCup第5回のときの しみしげ (@nyanchdayooon) | Twitter さんの 1D-CNN & Extract Feature Vect…

pytorch.nn.Embeddingが何をしているのか理解したい【入門】

embeddingを直訳すると「埋め込み・嵌め込み」みたいな意味です。 ここで行っているembeddingはWord embeddings(単語埋め込み)など、自然言語処理などで言われるembeddingの意味で、 何かの特徴を特定のベクトルに変換する意味です。実際にコードを実行して…

pandasで行方向の重複をカウントする

コード data.apply(lambda x: len(set(x)), axis=1) apply(function, axis=1)で、行方向の集計を決める。 関数をlambda式でxとして、その集合setに変換し、最後にlenで長さを取得する。