본문 바로가기

Paper Review31

[논문 리뷰] Neural Machine Translation by Jointly Learning to Align and Translate Attention mechanism의 시초라고 할 수 있는 논문, Neural Machine Translation by Jointly Learning to Align and Translate를 읽은 후 리뷰해보았습니다. 해석이 잘못 되었거나, 오개념이 있다면 댓글로 지적해주세요. 설명이 부족한 부분에 대해서도 말씀해주시면 본문을 수정하겠습니다. 개요 기계 번역 분야에서 신경망 기계 번역(Neural Machine Translation, NMT)는 당시 새롭게 제안된 접근법이었습니다. 통계 기계 번역(Statistical Machine Translation, SMT)와는 다르게 NMT는 번역 성능을 극대화할 수 있는 공동으로 훈련될 수 있는 시스템을 구축하는 것을 목표로 합니다. SMT 시스템은 Langu.. 2023. 9. 20.
[논문 리뷰] Effective Approaches to Attention-based Neural Machine Translation 리뷰 순서는 논문의 목차를 따릅니다. 해석이 잘못 되었거나, 오개념이 있다면 댓글로 지적해주시면 감사하겠습니다. 설명이 부족한 부분에 대해서도 말씀해주시면 본문을 수정하겠습니다. 중간에 부연 설명이 필요한 경우 [1]과 같이 표기한 후, 각 섹션의 마지막 부분에서 구체적인 내용을 추가로 작성하였습니다. Abstract를 포함한 일부 섹션은 최대한 모든 내용을 담으려고 하였고, 이외 일부 섹션은 요약과 생략이 되었을 수 있습니다. Abstract Attentional 메커니즘은 번역 과정에서 source sentence의 일부에 선택적으로 집중하며 NMT를 개선하기 위해서 사용됩니다. 하지만 attention에 기반한 NMT를 위한 아키텍처에 대한 연구는 거의 없습니다. 논문에서는 두 가지 간단하고 효과적.. 2023. 5. 1.
[논문 리뷰] Sequence to Sequence Learning with Neural Networks 위 논문에 대해서 리뷰해보겠습니다. 사실 논문을 읽어본 적 조차 많지 않고, 리뷰까지 하는 건 처음이라 미숙할 수 있지만, 최대한 논문의 내용을 잘 해석해보려고, 그리고 이해한 내용을 쉽게 설명해보려고 노력하였습니다. 리뷰 순서는 논문에 쓰여진 내용의 순서를 따르려고 합니다. 각 파트별로 해당 파트에 대한 요약과 중간에 부연설명이 필요한 개념이 있다면 이를 덧붙이는 방법으로 작성하였습니다. 참고로, 부연 설명이 필요하지만, 중간에 끼워넣기에는 글의 흐름을 방해한다고 생각하는 경우에는 중간에 [1]과 같이 표기하여 단락이 끝난 뒤에 관련 내용을 설명하는 방식으로 작성하였습니다. Abstract 부분은 논문의 핵심적인 내용을 모두 담고 있기 때문에 최대한 모든 내용을 빠짐없이 설명하려 하였고, 이후 부분은 .. 2023. 3. 25.