홈 > 부모님 > 부모님 > 소설,일반 > 컴퓨터,모바일
Llama.cpp 실전 가이드 이미지

Llama.cpp 실전 가이드
콩콩 컴퍼니 | 부모님 | 2025.11.14
  • 판매가
  • 19,300원
  • 상세정보
  • 18.8x25.7 | 0.336Kg | 177p
  • ISBN
  • 9791124122396
  • 배송비
  • 2만원 이상 구매시 무료배송 (제주 5만원 이상) ?
    배송비 안내
    전집 구매시
    주문하신 상품의 전집이 있는 경우 무료배송입니다.(전집 구매 또는 전집 + 단품 구매 시)
    단품(단행본, DVD, 음반, 완구) 구매시
    2만원 이상 구매시 무료배송이며, 2만원 미만일 경우 2,000원의 배송비가 부과됩니다.(제주도는 5만원이상 무료배송)
    무료배송으로 표기된 상품
    무료배송으로 표기된 상품일 경우 구매금액과 무관하게 무료 배송입니다.(도서, 산간지역 및 제주도는 제외)
  • 출고일
  • 1~2일 안에 출고됩니다. (영업일 기준) ?
    출고일 안내
    출고일 이란
    출고일은 주문하신 상품이 밀크북 물류센터 또는 해당업체에서 포장을 완료하고 고객님의 배송지로 발송하는 날짜이며, 재고의 여유가 충분할 경우 단축될 수 있습니다.
    당일 출고 기준
    재고가 있는 상품에 한하여 평일 오후3시 이전에 결제를 완료하시면 당일에 출고됩니다.
    재고 미보유 상품
    영업일 기준 업체배송상품은 통상 2일, 당사 물류센터에서 발송되는 경우 통상 3일 이내 출고되며, 재고확보가 일찍되면 출고일자가 단축될 수 있습니다.
    배송일시
    택배사 영업일 기준으로 출고일로부터 1~2일 이내 받으실 수 있으며, 도서, 산간, 제주도의 경우 지역에 따라 좀 더 길어질 수 있습니다.
    묶음 배송 상품(부피가 작은 단품류)의 출고일
    상품페이지에 묶음배송으로 표기된 상품은 당사 물류센터에서 출고가 되며, 이 때 출고일이 가장 늦은 상품을 기준으로 함께 출고됩니다.
  • 주문수량
  • ★★★★★
  • 0/5
리뷰 0
리뷰쓰기

구매문의 및 도서상담은 031-944-3966(매장)으로 문의해주세요.
매장전집은 전화 혹은 매장방문만 구입 가능합니다.

  • 출판사 리뷰
  • 작가 소개
  • 목차
  • 회원 리뷰

  출판사 리뷰

Llama.cpp는 단순한 오픈소스 프로젝트가 아니다.
이는 “누구나 자신의 장비에서 대형 언어 모델(LLM)을 자유롭게 실행할 수 있는 시대”를 연 핵심 엔진이다.
GPU가 없어도, 저사양 노트북에서도, 라즈베리 파이 같은 엣지 디바이스에서도 AI를 실행하는 그 가능성을 현실로 만든 것이 바로 Llama.cpp이다.

이 책은 Llama.cpp를 깊이 있게 이해하고 실전 환경에서 활용하고자 하는 개발자를 위한 완벽한 로드맵이다.
단순 사용법을 넘어, GGUF 구조 분석 → 양자화 전략 → API 활용 → RAG 시스템 → 엣지 배포 → 서버 운영까지,
개발·아키텍처 관점에서 전 과정을 단계적으로 안내한다.

이 책은 이런 사람에게 추천합니다

GPU 없이도 로컬에서 AI 애플리케이션을 만들고 싶은 개발자
RAG, 오프라인 챗봇, 전용 AI 비서 등 실전 서비스 구축이 목표인 사람
LLM 최적화의 기술적 원리를 깊게 알고 싶어 하는 아키텍트·엔지니어
라즈베리 파이, 엣지 AI, 임베디드 환경에 관심 있는 메이커

  작가 소개

지은이 : KR.UM

  목차

Llama.cpp 실전 가이드
[Part 1: Llama.cpp와 로컬 AI의 시작]
Chapter 1: 왜 Llama.cpp인가?
Chapter 2: Llama.cpp 설치 및 환경 구축
[Part 2: GGUF와 모델 최적화 (핵심)]
Chapter 3: GGUF 모델 포맷 완벽 이해
Chapter 4: 양자화(Quantization): 모델 다이어트의 기술
[Part 3: Llama.cpp 핵심 API 활용]
Chapter 5: C/C++로 LLM 애플리케이션 만들기 (libllama)
Chapter 6: Python에서 Llama.cpp 활용하기 (llama-cpp-python)
[Part 4: 실전 프로젝트 및 배포]
Chapter 7: [Project 2] 로컬 RAG 시스템 구축하기
Chapter 8: [Project 3] 엣지 디바이스 배포 (라즈베리 파이)
Chapter 9: Llama.cpp 서버 활용과 배포
[부록]
부록 A. Llama.cpp 주요 파라미터 튜닝 가이드
부록 B. GGUF 모델 버전 관리와 트러블슈팅

  회원리뷰

리뷰쓰기