홈 > 부모님 > 부모님 > 소설,일반 > 컴퓨터,모바일
대규모 언어 모델, 핵심만 빠르게!  이미지

대규모 언어 모델, 핵심만 빠르게!
언어 모델링의 기초부터 LLM 최신 기법까지
인사이트 | 부모님 | 2025.10.30
  • 정가
  • 24,000원
  • 판매가
  • 21,600원 (10% 할인)
  • S포인트
  • 1,200P (5% 적립)
  • 상세정보
  • 17.2x22.5 | 0.418Kg | 220p
  • ISBN
  • 9788966264940
  • 배송비
  • 2만원 이상 구매시 무료배송 (제주 5만원 이상) ?
    배송비 안내
    전집 구매시
    주문하신 상품의 전집이 있는 경우 무료배송입니다.(전집 구매 또는 전집 + 단품 구매 시)
    단품(단행본, DVD, 음반, 완구) 구매시
    2만원 이상 구매시 무료배송이며, 2만원 미만일 경우 2,000원의 배송비가 부과됩니다.(제주도는 5만원이상 무료배송)
    무료배송으로 표기된 상품
    무료배송으로 표기된 상품일 경우 구매금액과 무관하게 무료 배송입니다.(도서, 산간지역 및 제주도는 제외)
  • 출고일
  • 품절된 상품입니다.
  • ★★★★★
  • 0/5
리뷰 0
리뷰쓰기

구매문의 및 도서상담은 031-944-3966(매장)으로 문의해주세요.
매장전집은 전화 혹은 매장방문만 구입 가능합니다.

  • 도서 소개
  • 출판사 리뷰
  • 작가 소개
  • 목차
  • 회원 리뷰

  도서 소개

안드리 부르코프의 베스트셀러 《머신러닝, 핵심만 빠르게!》의 후속작으로, 언어 모델링의 기초부터 시작하여 최신 대규모 언어 모델(LLM)을 간결하면서도 철저하게 다룬다. 독자들은 이 책을 통해 현대 머신러닝과 신경망의 수학적 기초, 파이썬으로 구현하는 카운트, RNN 기반 언어 모델, 파이토치로 직접 만드는 트랜스포머, LLM 실습(지시 미세 튜닝, 프롬프트 엔지니어링)까지 체계적으로 학습할 수 있다.

실행 가능한 파이썬 코드와 구글 코랩 환경을 기반으로 실습형으로 구성된 이 책은 누구나 단계별로 따라가며 이해를 확장할 수 있다. 언어 모델이 단순한 n-그램 통계에서 출발해 오늘날 AI의 핵심 기술로 성장해 온 과정을 카운트 기반 방법부터 시작해서 최신 트랜스포머 아키텍처까지 설명하며, 원리와 구현을 함께 다룬다. 각 장은 앞선 내용을 토대로 점진적으로 발전하며, 복잡한 개념도 명확한 설명과 그림, 실습을 통해 쉽게 이해할 수 있도록 구성되어 있다.

  출판사 리뷰

복잡한 이론은 덜고, 꼭 필요한 핵심만 담았다!
언어 모델링을 익히는 가장 간결한 안내서


이 책은 안드리 부르코프의 베스트셀러 《머신러닝, 핵심만 빠르게!》의 후속작으로, 언어 모델링의 기초부터 시작하여 최신 대규모 언어 모델(LLM)을 간결하면서도 철저하게 다룬다. 독자들은 이 책을 통해 현대 머신러닝과 신경망의 수학적 기초, 파이썬으로 구현하는 카운트, RNN 기반 언어 모델, 파이토치로 직접 만드는 트랜스포머, LLM 실습(지시 미세 튜닝, 프롬프트 엔지니어링)까지 체계적으로 학습할 수 있다.
실행 가능한 파이썬 코드와 구글 코랩 환경을 기반으로 실습형으로 구성된 이 책은 누구나 단계별로 따라가며 이해를 확장할 수 있다. 언어 모델이 단순한 n-그램 통계에서 출발해 오늘날 AI의 핵심 기술로 성장해 온 과정을 카운트 기반 방법부터 시작해서 최신 트랜스포머 아키텍처까지 설명하며, 원리와 구현을 함께 다룬다. 각 장은 앞선 내용을 토대로 점진적으로 발전하며, 복잡한 개념도 명확한 설명과 그림, 실습을 통해 쉽게 이해할 수 있도록 구성되어 있다.

이 책에서 다루는 내용
머신러닝과 신경망의 핵심 개념
텍스트 표현 기법과 기본 언어 모델링
파이토치로 RNN과 트랜스포머 구현하기
언어 모델의 미세 튜닝과 프롬프트 엔지니어링 실무 지침
환각 문제와 모델 평가에 관한 주요 고려 사항

  작가 소개

지은이 : 안드리 부르코프
두 아이의 아빠이며, 캐나다 퀘벡시에서 머신러닝 전문가로 활동하고 있다. 10년 전 AI 분야로 박사 학위를 취득한 후, 7년 동안 가트너에서 머신러닝 팀을 이끌었다. 전문 분야는 자연어 처리이며, 표층 학습 기법과 심층 학습 기법을 모두 적용해 최첨단 텍스트 추출 및 정규화 시스템을 개발했다. 현재는 True Positive Inc.의 대표로 머신러닝 도서를 집필하면서 다양한 기업에 자문을 제공하고 있다.

  목차

옮긴이의 글
추천의 글
지은이의 글

1장 머신러닝 기초
1.1 AI와 머신러닝
1.2 모델
1.3 네 단계 머신러닝 프로세스
1.4 벡터
1.5 신경망
1.6 행렬
1.7 경사 하강법
1.8 자동 미분

2장 언어 모델링 기초
2.1 BoW
2.2 단어 임베딩
2.3 바이트 페어 인코딩
2.4 언어 모델
2.5 카운트 기반 언어 모델
2.6 언어 모델 평가
2.6.1 혼잡도
2.6.2 ROUGE
2.6.3 사람의 평가

3장 순환 신경망
3.1 엘만 RNN
3.2 미니 배치 경사 하강법
3.3 RNN 구현하기
3.4 RNN 언어 모델
3.5 임베딩 층
3.6 RNN 언어 모델 훈련시키기
3.7 Dataset과 DataLoader
3.8 훈련 데이터와 손실 계산

4장 트랜스포머
4.1 디코더 블록
4.2 셀프 어텐션
4.3 위치별 다층 퍼셉트론
4.4 로터리 위치 임베딩
4.5 멀티헤드 어텐션
4.6 잔차 연결
4.7 RMS 정규화
4.8 키-값 캐싱
4.9 트랜스포머 구현

5장 대규모 언어 모델
5.1 규모가 클수록 좋은 이유
5.1.1 대규모 파라미터 개수
5.1.2 큰 문맥 크기
5.1.3 대규모 훈련 데이터셋
5.1.4 대량의 계산량
5.2 지도 학습 미세 튜닝
5.3 사전훈련된 모델 미세 튜닝하기
5.3.1 기준 감정 분류기
5.3.2 감정 레이블 생성하기 |
5.3.3 지시를 따르도록 미세 튜닝하기
5.4 언어 모델의 샘플링
5.4.1 온도를 사용한 기본 샘플링
5.4.2 탑-k 샘플링
5.4.3 뉴클리어스(탑-p) 샘플링
5.4.4 페널티
5.5 LoRA
5.5.1 핵심 아이디어
5.5.2 PEFT
5.6 분류용 LLM
5.7 프롬프트 엔지니어링
5.7.1 좋은 프롬프트의 특징
5.7.2 행동에 대한 후속조치
5.7.3 코드 생성
5.7.4 문서 동기화
5.8 환각 182
5.8.1 환각의 원인
5.8.2 환각 방지
5.9 LLM, 저작권, 윤리
5.9.1 훈련 데이터
5.9.2 생성된 콘텐츠
5.9.3 오픈 웨이트 모델
5.9.4 광범위한 윤리적 고려사항

6장 추가 자료
6.1 MoE
6.2 모델 병합
6.3 모델 압축
6.4 선호도 기반 정렬
6.5 고급 추론
6.6 언어 모델 보안
6.7 비전 언어 모델
6.8 과대적합 방지
6.9 맺음말
6.10 저자의 다른 책

  회원리뷰

리뷰쓰기