본문 바로가기

분류 전체보기69

인사이드 머신러닝 인터뷰 매일 수십통씩 오는 이메일을 정리하다가 실수로 수신거부 처리를 해버려서 3월에는 서평단 활동을 하지 못했습니다. 두 달 만에 받아본 책은 바로 '인사이드 머신러닝 인터뷰'입니다. 이번 달에는 AI와 관련된 도서가 선택지에 많이 있지 않아서, 큰 고민을 하지 않고 고를 수 있었습니다. 책에서는 말 그대로 ML 면접을 대비하기 위한 질문과 답변들이 수록되어 있습니다. 세부 주제를 제외하고 대주제를 기준으로 목차를 작성하면 다음과 같습니다. 자세한 내용은 한빛미디어에서 확인해주세요. 1장 ML 면접에 임하기2장 ML 기본 지식3장 ML 코딩4장 ML 시스템 설계 1 - 추천 시스템5장 ML 시스템 설계 2 - 응용6장 ML 인프라 설계7장 고급 ML 문제 책의 내용은 주로 AI 연구자보다는 ML 엔지니어 관련.. 2024. 4. 27.
쉽고 빠르게 익히는 실전 LLM 한빛미디어 서평단 에 선발되어 매달 관심 분야의 도서 한 권을 제공받고, 서평을 작성하게 되었습니다. 최근 인공지능에 대한 열기가 전세계적으로 뜨거운 만큼, 관련 도서도 잇따라 출판되고 있습니다. 전문적인 개념을 도서로 엮어 내는 시간을 고려하면, 인공지능은 특별히 빠르게 발전하고 있는 분야다보니까 조금 뒤처지는 감이 있긴 하지만, 그래도 온라인에서 얻는 정보와 오랜 기간동안 공들여 집필하고 교정한 도서에서 얻는 정보는 그 질이 다르긴 합니다. 이야기가 조금 샜는데, 하여튼 인공지능에 관심이 있는 제게는 선택지가 다양해서 리뷰할 책을 고르는 것이 즐거운 고민이었습니다. 최종적으로 고른 도서는 '쉽고 빠르게 익히는 실전 LLM'입니다. ChatGPT를 시작으로 인공지능에 대한 대중의 관심이 급증하였습니다... 2024. 2. 22.
[논문리뷰] What does BERT learn about the structure of language? 최근 언어 모델의 트렌드는 자기 회귀적인 사전 학습 목표를 통해 훈련된 GPT와 같은 생성형 모델에 대한 연구에 집중되어 있습니다. 그런데 GPT와 양대산맥을 이루고 있는 언어 모델이 또 하나 있었는데 바로 BERT입니다. BERT는 Bidirectional Encoder Representation from Transforemers의 앞 글자를 따 이름붙인 모델로 GPT와 같이 단방향이 아닌 양방향으로 텍스트를 학습합니다. 그래서 조금 색다른 학습 목표를 갖고 있는데 바로 문장 중간에 마스킹된 토큰이 원래 어떤 단어였는지를 예측하는 방식으로 학습되었습니다. BERT는 어텐션 메커니즘을 기반으로 하기 때문에 내재적으로 해석 가능성을 가집니다. 그래서 BERT가 등장한 이후 모델이 무엇을 학습하였는지에 대한.. 2023. 12. 15.
[논문리뷰] Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks RAG는 언어 모델의 할루시네이션을 줄이기 위한 기술로 널리 사용되고 있습니다. RAG의 풀네임은 Retrieval-Augmented Generation으로 리트리버로 생성 능력을 보완한 것으로 볼 수 있습니다. 언어 모델은 어떤 시퀀스가 주어졌을 때 그 다음에 나타날 토큰을 예측하는 방식으로 학습했기 때문에, 애초에 텍스트의 사실성을 고려하도록 훈련되진 않았습니다. 언어 모델은 그저 그럴듯한 문장을 완성하는 목표에만 집중할 뿐입니다. 다만 학습 데이터가 대부분 사실에 기반한 텍스트로 이루어졌기 때문에 대부분의 경우 사실에 가까운 결과가 출력되는 것이죠. 하지만 원래 훈련 목표는 이렇다 하더라도, 언어 모델의 출력이 실제 사실에 가까울수록 유용해지기 때문에, 할루시네이션 문제를 개선하기 위한 노력이 끊임.. 2023. 12. 9.