1
/
5

株式会社Albert様と共同で、機械学習関連論文読み会を開始しました

現在機械学習の分野は、本当に進歩が早くなっています。「最新の手法」というのが週間で変わるぐらいその変化は激しいものです。

そんな世界にキャッチアップしていくためには、一社だけで閉じている場合ではない!ということで、このたび株式会社Albert様と共同で、機械学習関連論文の読み会を開催していくことにしました。


分析力をコアとするデータソリューションカンパニー・株式会社ALBERT(アルベルト)
ALBERT(アルベルト)は分析力をコアとするデータソリューションカンパニーとして、顧客の意思決定と問題解決を支援します。
http://www.albert2005.co.jp/

月一回で、今後も定期的に開催していく予定です。どこかのタイミングで、オープンな読み会も開催できればと考えています。

最初はお互い2本ずつ紹介という予定だったのですが、議論が白熱してしまったこともあり1本ずつになってしましました。私自身疑問を持ちながらも特に相談する相手も時間もなく置いていた点が検討できる場が持て、非常に良い時間が持てたという実感がありました。

今回紹介されたのは、以下2本です。

TISからは、Word2Vecをゼロベースから理解していく、目的で以下の論文を。

word2vec Parameter Learning Explained · Issue #38 · arXivTimes/arXivTimes
一言でいうと word2vecのパラメータ更新式の詳細な導出と説明を行っている論文。対象のモデルはCBOWとSkip-Gram。パラメータ学習の過程を詳細に解説した資料がなかったから書いたそうだ。 論文リンク https://arxiv.org/abs/1411.2738 著者/所属機関 Xin Rong 概要 新規性・差分 手法 結果 コメント
https://github.com/arXivTimes/arXivTimes/issues/38

発表資料は、後日Qiitaに掲載予定です。

Albertさんからは、Image Captionを行う際画像上の着目点(Attention)を示唆する機構(レビューステップ)を組み込んだ以下の論文を発表していただきました。

Review Networks for Caption Generation · Issue #9 · arXivTimes/arXivTimes
一言でいうと イメージキャプション生成におけるEncoder-Decoder+attentionモデルにreview steps(thought vectors)を加えて既存アルゴリズムの欠点を緩和した。 論文リンク https://arxiv.org/pdf/1605.07912v4.pdf 著者/所属機関 Zhilin Yang, Ye Yuan, Yuexin Wu, Ruslan S...
https://github.com/arXivTimes/arXivTimes/issues/9

発表資料はこちらになります。

検討の中では、このReviewのステップが複数ステップであることに意味はあるのか、また別途レビュー機構の学習が必要になるがその労力は見合うのか、などといった点などが議論されました。



そしてリンク先からお気づきかもしれませんが、リサーチしている論文は、GitHubリポジトリで管理しています。こちらはどんどん更新されていく予定ですので、ぜひWatch & Starをしていただけたらなと思います。


arXivTimes/arXivTimes
arXivTimes - repository to research & share the machine learning articles
https://github.com/arXivTimes/arXivTimes


もちろん、皆様の投稿もお待ちしています!オープンな場で、あれこれ議論できるのを楽しみにしています。

TIS株式会社's job postings
1 Likes
1 Likes

Weekly ranking

Show other rankings