본문 바로가기

전체 글71

인사이드 머신러닝 인터뷰 매일 수십통씩 오는 이메일을 정리하다가 실수로 수신거부 처리를 해버려서 3월에는 서평단 활동을 하지 못했습니다. 두 달 만에 받아본 책은 바로 '인사이드 머신러닝 인터뷰'입니다. 이번 달에는 AI와 관련된 도서가 선택지에 많이 있지 않아서, 큰 고민을 하지 않고 고를 수 있었습니다. 책에서는 말 그대로 ML 면접을 대비하기 위한 질문과 답변들이 수록되어 있습니다. 세부 주제를 제외하고 대주제를 기준으로 목차를 작성하면 다음과 같습니다. 자세한 내용은 한빛미디어에서 확인해주세요. 1장 ML 면접에 임하기2장 ML 기본 지식3장 ML 코딩4장 ML 시스템 설계 1 - 추천 시스템5장 ML 시스템 설계 2 - 응용6장 ML 인프라 설계7장 고급 ML 문제 책의 내용은 주로 AI 연구자보다는 ML 엔지니어 관련.. 2024. 4. 27.
쉽고 빠르게 익히는 실전 LLM 한빛미디어 서평단 에 선발되어 매달 관심 분야의 도서 한 권을 제공받고, 서평을 작성하게 되었습니다. 최근 인공지능에 대한 열기가 전세계적으로 뜨거운 만큼, 관련 도서도 잇따라 출판되고 있습니다. 전문적인 개념을 도서로 엮어 내는 시간을 고려하면, 인공지능은 특별히 빠르게 발전하고 있는 분야다보니까 조금 뒤처지는 감이 있긴 하지만, 그래도 온라인에서 얻는 정보와 오랜 기간동안 공들여 집필하고 교정한 도서에서 얻는 정보는 그 질이 다르긴 합니다. 이야기가 조금 샜는데, 하여튼 인공지능에 관심이 있는 제게는 선택지가 다양해서 리뷰할 책을 고르는 것이 즐거운 고민이었습니다. 최종적으로 고른 도서는 '쉽고 빠르게 익히는 실전 LLM'입니다. ChatGPT를 시작으로 인공지능에 대한 대중의 관심이 급증하였습니다... 2024. 2. 22.
[논문리뷰] What does BERT learn about the structure of language? 최근 언어 모델의 트렌드는 자기 회귀적인 사전 학습 목표를 통해 훈련된 GPT와 같은 생성형 모델에 대한 연구에 집중되어 있습니다. 그런데 GPT와 양대산맥을 이루고 있는 언어 모델이 또 하나 있었는데 바로 BERT입니다. BERT는 Bidirectional Encoder Representation from Transforemers의 앞 글자를 따 이름붙인 모델로 GPT와 같이 단방향이 아닌 양방향으로 텍스트를 학습합니다. 그래서 조금 색다른 학습 목표를 갖고 있는데 바로 문장 중간에 마스킹된 토큰이 원래 어떤 단어였는지를 예측하는 방식으로 학습되었습니다. BERT는 어텐션 메커니즘을 기반으로 하기 때문에 내재적으로 해석 가능성을 가집니다. 그래서 BERT가 등장한 이후 모델이 무엇을 학습하였는지에 대한.. 2023. 12. 15.
[논문리뷰] Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks RAG는 언어 모델의 할루시네이션을 줄이기 위한 기술로 널리 사용되고 있습니다. RAG의 풀네임은 Retrieval-Augmented Generation으로 리트리버로 생성 능력을 보완한 것으로 볼 수 있습니다. 언어 모델은 어떤 시퀀스가 주어졌을 때 그 다음에 나타날 토큰을 예측하는 방식으로 학습했기 때문에, 애초에 텍스트의 사실성을 고려하도록 훈련되진 않았습니다. 언어 모델은 그저 그럴듯한 문장을 완성하는 목표에만 집중할 뿐입니다. 다만 학습 데이터가 대부분 사실에 기반한 텍스트로 이루어졌기 때문에 대부분의 경우 사실에 가까운 결과가 출력되는 것이죠. 하지만 원래 훈련 목표는 이렇다 하더라도, 언어 모델의 출력이 실제 사실에 가까울수록 유용해지기 때문에, 할루시네이션 문제를 개선하기 위한 노력이 끊임.. 2023. 12. 9.
Gemini의 시대로 여러분을 초대합니다. 2017년 알파고를 출시하여 세상을 놀라게 한 구글은 바로 어제 2023년 12월 6일, 또다시 역사를 바꿀지도 모를 새로운 모델인 Gemini를 출시했습니다. 세계적인 초거대기업인 구글은 수많은 분야에서 이루어지는 연구의 최전선에 서있었지만, 인공지능에서 만큼은 OpenAI의 그림자를 지우기가 힘들었습니다. 구글의 연구가 미흡한 것은 아니었지만, GPT를 통해 대규모 언어 모델의 효용을 널리 알리고 빠르게 시장 저변을 넓혀나간 OpenAI의 행보를 따라잡기는 쉽지 않았습니다. 게다가 야심차게 내놓은 Bard도 번번히 기대에 미치지 못하는 성능으로 사람들은 다시 한 번 ChatGPT의 우월함을 깨닫곤 했습니다. 그러던 구글이 마침내 새로운 모델을 발표하였습니다. Gemini의 시대가 도래했다 누군가가 G.. 2023. 12. 7.
[논문리뷰] Contrastive Chain-of-Thought Prompting 아마 프롬프트 엔지니어링을 다룬 논문 중 가장 잘 알려진 건 Chain of Thought가 아닐까 싶습니다. 유명한 논문은 흔히 원래 제목이 자주 차용되곤 하는데 chain of thought도 마찬가지입니다. CoT도 기존의 연구에서 빌려온 개념인지는 잘 모르겠지만, 프롬프트 엔지니어링을 다룬 많은 논문이 X of thought라는 표현을 사용하는 것 같습니다. 이번에 리뷰할 논문인 Contrastive Chain-of-Thought Prompting도 마찬가지입니다. CoT는 few shot 프롬프트에 단순히 문제와 정답만을 제시하는 게 아니라, 정답에 이르는 사고 과정을 포함한 few shot example을 입력하는 방법입니다. 이를 통해 LLM이 학습하지 않은 새로운 태스크를 해결하는 능력이 .. 2023. 12. 1.