본문 바로가기
Community/OSSCA

기술 문서 번역의 어려움

by mjk0618 2023. 7. 22.

오픈소스 컨트리뷰션 HuggingFace 한글화 프로젝트에서 본격적으로 번역활동을 시작했습니다.

Transformers 라이브러리의 공식 문서를 한글로 번역하는 작업인데, 하위 문서를 골라서 번역을 수행합니다.

 

처음으로 고른 문서는 How to add a model to 🤗 Transformers? 입니다.

Transformers 라이브러리에 새로운 모델을 추가하는 방법을 단계별로 매우 구체적으로 설명하고 있는 문서입니다.

이 문서를 번역하는 도중 여러가지 문제점에 직면했었는데 구체적으로 어떤 문제였는지 하나씩 정리해보았습니다.

 

용어 번역 문제

먼저 팀에서 어떤 과정으로 번역을 수행하는지 간단하게 요약하자면 다음과 같습니다.

1. 원본 문서를 ChatGPT, DeepL등을 사용하여 기계번역 수행
2. 초벌번역 결과를 직접 검수하여 부자연스러운 부분을 수정
3. 팀원 간 리뷰를 진행하여 번역 수정 제안, 논의
4. 번역 최종본 생성 후 Pull Request open

 

ChatGPT를 사용하여 원본 문서에 대한 초벌 번역을 마쳤고, 아래 문장은 다음과 같이 번역되어 있었습니다.

 

# 원본 문장

To successfully add a model, it is important to understand the interaction between your model and its config, PreTrainedModel, and PretrainedConfig. For exemplary purposes, we will call the model to be added to 🤗 Transformers BrandNewBert.

 

# 번역 문장

모델을 성공적으로 추가하려면 모델과 해당 구성인 [PreTrainedModel] 및 [PretrainedConfig] 간의 상호작용을 이해하는 것이 중요합니다. 예를 들어, 🤗 Transformers에 추가하려는 모델을 BrandNewBert라고 부르겠습니다.

 

번역 문서를 검수하던 도중 구성이라는 단어가 조금 부자연스럽다고 생각하여, 원문을 확인해보니 위와 같이 configuration이라는 단어가 구성이라고 번역되어 있었습니다. 단어 대 단어로 보았을 때는 번역이 틀리진 않지만, 전체적인 문맥을 고려할 때 구성이라는 용어가 의아하다고 생각하였습니다.

 

AWS 번역 문서를 자주 읽어본 지인은 구성이라는 용어가 어색하지 않다고 하였고, 다른 일부 지인들인 확실히 해당 표현이 부적절하다고 생각했습니다. 팀 내에서는 기본 설정이라는 대체 표현이 제안되었습니다.

 

이처럼 같은 문장과 단어에 대해서도 번역자마다 의견이 분분하여 번역문에서는 원본 문서에 대한 일관된 정보를 제공하기가 어렵습니다. 이 문제는 비단 기술 문서 뿐 아니라 번역 과정에서 누구나 겪는 고충이라고 생각합니다. 그런데 기술 문서에서는 조금 더 특별한 점이 있습니다. 기술 용어의 경우 외래어를 굳이 번역하지 않고 사용하는 경우가 매우 흔합니다. 오히려 기술 서적을 보면 같은 용어를 저자마다 다르게 번역해서, 번역문을 보면 오히려 이해가 되지 않는 경우도 많다. 이 경우에는 구성(configuration)과 같이 원문 표현을 괄호와 함께 병기하면 해결되지만, 그렇지 않을 경우에는 독자로 하여금 혼란을 야기할 수 있습니다. 어색한 번역 표현으로 인해 독자에게 불필요하게 시간을 투자하게 하는 것은 바람직하지 않다고 생각합니다.

 

따라서 개인적으로는 가급적 흔히 사용하는 기술 용어의 경우 굳이 번역을 하지 않거나, 번역을 하더라도 원문을 병기해주는 게 적절하다고 생각합니다. 하지만 이 점에 대해서는 번역자마다 의견이 달라서 항상 논의가 필요한 부분인 것 같습니다.

 

 

유사한 개념에 대해 서로 다른 표현을 사용

문서 내에 forward pass라는 표현이 등장했고, 다른 팀원이 번역한 문서에서는 forward path라는 표현이 등장했습니다. 초벌 번역에서 순방향(또는 전방향) 통과와 순방향 경로라고 번역되어 있었습니다. 개념적으로는 두 표현이 무엇을 의미하는지 이해할 수 있지만, 용어만 뜯어보니 조금 부자연스러운 느낌이 들었습니다. 그렇지만 마땅한 대안도 떠오르지 않았습니다. 순전파를 의미하는 Forward propagation이라는 용어도 떠올랐지만, 원문에서 굳이 다른 어휘를 사용한 데는 이유가 있을 것이라고 생각했습니다. 딥러닝 개념 이해도의 부족이 번역에서 문제가 되었을 수도 있지만, 이처럼 유사한 개념에 대해서 서로 다른 표현이 사용되었다면, 그때 그때 상황에 맞게 적절한 표현으로 옮기는 게 매우 어렵다고 생각합니다. 

 

 

언급했듯이 번역 과정에서 여러 어려움을 겪었습니다. 실제로 모든 번역자들이 갖는 고민일 수도 있고, 개인적으로 경험이 많지 않기 때문에 겪는 어려움일 수도 있을 것 같습니다. 어떤 방향이든 결국, 정보 비대칭을 해결하고자 하는 목적을 달성하기 위해서는 해결하려고 노력할 문제라고 생각합니다. 앞으로 많은 경험을 쌓고, 함께 번역하는 팀원이나 멘토님과 많은 논의를 거쳐 노하우를 터득해가야겠다는 생각이 들었습니다.

댓글