Posts for: #深層学習

Tabularデータ向けのサーベイ論文を読んだのでメモ

Tabularデータ向けのサーベイ論文を読んだのでメモ

Deep Learning(DL)を用いたテーブルデータ向けの手法は色々提案されており、度々、精度面で勾配ブースティング法を超えたとか超えないと話題になる気がします。
テーブルデータ周りのDL手法に詳しくない身からすると実際のところどうなのかというのは謎だったので、サーベイ論文を読んでみました。
読んだ論文:Deep Neural Networks and Tabular Data: A Survey

BERTを軽量化したALBERTの概要

BERTを軽量化したALBERTの概要

本記事はQrunchからの転載です。


BERTのパラメータの数を減らしたモデルであるALBERTについての概要を書いていきます。

参考論文:ALBERT: A Lite BERT for Self-supervised Learning of Language Representations

問題意識

2018年に提案されたBERTは自然言語界隈では非常に上手くいった手法です。先程論文の引用数を見たら、もう3000を超えていまして、この数字を見てもよくわかります。

ディープラーニング向けの特徴量の寄与を求めるIntegrated Gradientsの解説

本記事はQrunchからの転載です。


機械学習のモデルの出力に対する入力された特徴量の寄与を求める手法の1つに、Integrated Gradientsというものがあります。 Integrated Gradientsはディープラーニング向けの手法ですが、他のディープラーニング向けの手法では満たしていない公理(性質)をいくつも満たしているという点で優れています。 今回はそんなIntegrated Gradientsを解説します。

CNNで画像中のピクセルの座標情報を考慮できるCoordConv

CNNで画像中のピクセルの座標情報を考慮できるCoordConv

本記事はQrunchからの転載です。


CNNの表現能力の高さはすばらしいものがありますが、何でもうまくいくわけではありません。例えば、画像中の位置情報を考慮しないと解けないような問題は、通常のCNNではうまく対応できません(具体的な例はこの後説明します)。
このような問題に対応した手法としてCoordConvというものがあります。CoordConvは座標情報をCNNのなかに組み込む手法で、これを使うことで解けるようになるケースや性能が大きく改善されるようなケースがあります。また「効くか分からないけど、とりあえず組み込む」ということをしても、デメリットはそれほどありません。

BERTでおこなうポケモンの説明文生成

本記事はQrunchからの転載です。


概要

自然言語界隈では非常によく話題になるBERTですが、BERTを使った文生成を実装してみたので今回はその話をします。BERTの事前学習モデルが文生成のタスクで使えたら、比較的少なめの学習データでもそれっぽく文生成できたりしないかなぁと思ってやってみました。