본문 바로가기

분류 전체보기69

왜 그렇게 많은 인공지능 시스템들이 머펫의 이름을 갖게 되었을까? BERT는 그 유명한 논문 Attention is All You Need에서 제안한 트랜스포머(Transformers)의 인코더를 기반으로 한 언어 모델입니다. GPT-3.5와 같이 초거대 규모의 언어모델 등장 이전에는 분류 태스크를 포함한 다양한 NLP 문제는 BERT를 기반으로 한 모델로 풀었습니다. 여전히 특정 태스크에 한정해서 우수한 성능을 내거나, 빠르고 효율적으로 문제를 풀 수 있는 모델은 BERT를 기반으로 합니다. 그런데 BERT는 세서미 스트리트의 캐릭터에서 이름을 따왔다고 합니다. 세서미 스트리트를 알긴 하지만 모든 캐릭터의 이름을 잘 알 정도는 아니었어서, 처음에 BERT의 이름을 보곤 별 생각이 없었는데, 이름의 유래가 이렇다는 것을 알고 나니 흥미로웠습니다. BERT 출시 이후 세.. 2023. 9. 24.
[논문 리뷰] How Contextual are Contextualized Word Representations? Comparing the Geometry of BERT, ELMo, and GPT-2 Embeddings Static Embedding과 비교하여 Contextualized representations가 어떤 특징을 갖는지에 대해 분석한 논문인 How Contextual are Contextualized Word Representations? Comparing the Geometry of BERT, ELMo, and GPT-2 Embeddings를 리뷰해보았습니다. 이번 논문은 이해하기가 특히 어렵고, 한글로 옮기기 어려운 개념들이 많았던 것 같습니다. 번역을 통해 오히려 이해가 어려워지거나, 원문의 표현을 사용하는 게 원래 의미를 온전히 잘 전달할 것이라고 생각하는 표현은 원문의 표기를 따랐습니다. 오개념이나 오탈자가 있다면 댓글로 지적해주세요. 설명이 부족한 부분에 대해서도 말씀해주시면 본문을 수정하겠습.. 2023. 9. 24.
[논문 리뷰] PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization 추상적 요약(Abstractive Summary) 모델을 다룬 PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization에 대한 논문을 읽고 리뷰해보았습니다. 오개념이 있다면 댓글로 지적해주세요. 설명이 부족한 부분에 대해서도 말씀해주시면 본문을 수정하겠습니다. 개요 텍스트 요약은 입력 문서에 대한 정확하고 간결한 요약문을 생성하는 것을 목표로 합니다. 단순히 입력 문서의 일부를 복사하는 것에 그치는 추출적 요약(extractive summarization)과는 다르게, 추상적 요약(abstractive summarization)은 요약문에 새로운 단어를 생성하기도 합니다. 좋은 추상적 요약문은 핵심 정보를 잘 담고, .. 2023. 9. 22.
[논문 리뷰] Neural Machine Translation by Jointly Learning to Align and Translate Attention mechanism의 시초라고 할 수 있는 논문, Neural Machine Translation by Jointly Learning to Align and Translate를 읽은 후 리뷰해보았습니다. 해석이 잘못 되었거나, 오개념이 있다면 댓글로 지적해주세요. 설명이 부족한 부분에 대해서도 말씀해주시면 본문을 수정하겠습니다. 개요 기계 번역 분야에서 신경망 기계 번역(Neural Machine Translation, NMT)는 당시 새롭게 제안된 접근법이었습니다. 통계 기계 번역(Statistical Machine Translation, SMT)와는 다르게 NMT는 번역 성능을 극대화할 수 있는 공동으로 훈련될 수 있는 시스템을 구축하는 것을 목표로 합니다. SMT 시스템은 Langu.. 2023. 9. 20.