본문 바로가기

NLP

(3)
google ads 관련 논문 static.googleusercontent.com/media/research.google.com/ko//pubs/archive/41159.pdf ieeexplore.ieee.org/document/8526633 Model of the Effectiveness of Google Adwords Advertising Activities Nowadays, some of the most popular forms of e-marketing are activities in search engines. Pay Per Click is a type of advertisement in the form of a banner or a link with the description, recommendation or opinio..
Laser Tagger 논문 리뷰 Laser Tagger는 문장을 생성하는 과정에 대해서 다른 관점을 제시한 논문 Encode, Tag, Realize: High-Precision Text Editing을 구현한 오픈소스 분석기입니다. 0. 요약 레이저 태거는 시퀀스 태깅 모델입니다. 문서의 생성 자체를 문서의 편집이라 가정하고 입력으로 들어온 문서에 대해서 어떤 '편집 작업'을 할지 예측합니다. 예측을 위해서 기존에 없었던 모델을 만들어 제안하며, 영어 문서에 대해서 평가를 진행합니다. LaserTagger는 3가지 NLP Task 에서 SOTA 성능을 보였습니다. 1. 문장 합성 2. 문장 분절 3. 추상 요약(특히나 놀라운 부분입니다. 일반적인 문서 요약은 추출 요약이 대부분이기에 더더욱 그렇습니다.) 또한 실질적인 추론 시간역시 ..
Attention is all you need 리뷰 Attention is All You Need 는 딥러닝을 활용한 자연어 처리에서 현재 가장 중요한 논문입니다. 이 논문 이후로 더 이상 RNN, CNN등을 활용한 자연어 처리 연구는 거의 이루어지지 않다고 봐도 무관합니다. 딥러닝을 활용하여 자연어 처리를 한다면, 앞으로는 해당 논문에서 제시한 Transformer 구조나, 이를 변형한 BERT등의 구조를 사용함이 바람직합니다. 3줄 요약. Transformer 는 Attention 이 적용된 Seq2Seq에서 RNN 계열(RNN, LSTM, GRU 등)을 제거한 모델입니다. 대신 굉장히 깊은 층의 self-attention layer를 사용하게 됩니다. Transformer 에 적용된 기술로는 , scaled dot-product attention()..