-
Wide Residual Networks
1. どんなもの?近年発展を見せるResidual Network(ResNet)アーキテクチャについて、層の深さを浅くしフィルタ数を増やしてネットワークの幅を「広くする」手法やResNet Blockのパラメータをいくつか変更して検証を行った。2. 先行研究と比べてどこがすごいの?ResNetは層を数千まで増やしても、それに合わせてパフォーマンスが向上することで知られている。これとは逆に層の深さを浅くしてフィルタ数を増やし、ネットワークの「幅」を広くすることで、層が深く幅の狭い従来のRe...
-
Text Classification in Asian Languages without Word Segmentation
1. どんなもの?アジアの言語に対して、分かち書きを必要としない文字ベースのn-gramとそれを用いた言語モデルを用いて文書分類を行う。2. 先行研究と比べてどこがすごいの?英語は単語と単語の間にスペースがあり、分かち書きがしやすい。しかしながら日本語や中国語といったアジアの言語は単語の切れ目が明確ではなく、分かち書きを行っても結果が正しいとは限らない。本研究では分かち書きを必要としない文字レベルのn-gramを用いたベイズベースの言語モデルを文書分類に適用することで、単語レベルのベクトル...
-
Semi-supervised Convolutional Neural Networks for Text Categorization via Region Embedding
1. どんなもの?文書分類のためのConvolutional Neural Networks(CNNs)を用いた半教師あり学習フレームワークを提案する。2. 先行研究と比べてどこがすごいの?CNNsを用いた文書分類における先行研究では、word2vecなどを利用し事前に学習を行ったword embeddingを入力していた。本研究では教師なしのテキストデータからtv-embeddingという手法を用いてembeddingを学習したのち、教師あり学習時の入力の一部として利用している。実験結果...