[논문정리] StyleNet: Generating Attractive Visual Captions with Styles

2020. 7. 13. 22:45Machine Learning/NLP-UGRP

author: Chuang Gan1 Zhe Gan2 Xiaodong He3 Jianfeng Gao 3 Li Deng3 1 IIIS, Tsinghua University, China 2 Duke University, USA 3 Microsoft Research Redmond, USA

 

기존에 논문으로 많이 등장하는 이미지에서 caption text를 생성하는 captioning system기법에 style을 적용한 논문.

 

StyleNet은 특정 style을 지닌 captions을 생성한다.

사용한 데이터: Flicker stylized image caption dataset.

 

StyleNet framework와 Flicker stylized image caption dataset이 매력적인 video caption을 만들어내는 것도 증명하는 논문.

 

Our proposed StyleNet only takes the external language corpus as supervision without paired images, which are much cheaper than the word-level supervision used in the switching RNN model, thus more suitable to scale up.

 

'Machine Learning > NLP-UGRP' 카테고리의 다른 글

도움되는 site  (0) 2020.07.23
Memory network  (0) 2020.07.21
[논문 정리]Memory Networks  (0) 2020.07.12
[논문 정리]End-To-End Memory Networks  (0) 2020.07.12
데이터 전처리  (0) 2020.07.07