
구매문의 및 도서상담은 031-944-3966(매장)으로 문의해주세요.
매장전집은 전화 혹은 매장방문만 구입 가능합니다.
지은이 : 강영민
2002 스위스 제네바대학 미라랩 Virtual Clothing 프로젝트 참여2003 부산대학교 전자계산학과 이학박사 / 그래픽스 응용 연구실2003~2005 한국전자통신연구원(ETRI) 디지털콘텐츠연구단 연구원2005~현재 동명대학교 AI융합대학 게임공학과 교수2020~2021 한국전자통신연구원(ETRI) 인공지능연구소 파견연구원동명대학교 산학협력단장, 정보전산센터장, ACE 사업 단장 등 역임
지은이 : 박동규
「널널한 교수의 코딩 클래스」 유튜브 채널을 운영 중이며 파이썬, C, 자바, Swift 등의 프로그래밍 언어와 자료구조, 알고리즘, 머신러닝, 딥러닝 관련 강좌를 400개 이상 업로드하였다. 저서로는 『으뜸 파이썬』, 『따라하며 배우는 파이썬과 데이터 과학』, 『으뜸 머신러닝』, 『으뜸 데이터 분석과 머신러닝』, 『자바 3D 프로그래밍』, 『누구나 쉽게 배우는 인공지능 스타트』, 『누구나 쉽게 배우는 딥러닝 스타트』 등이 있다. 『으뜸 파이썬』(2020), 『누구나 쉽게 배우는 인공지능 스타트』(2023), 『누구나 쉽게 배우는 딥러닝 스타트』(2024)는 한국출판문화산업진흥원의 세종도서 학술부문도서로 선정되었다.• 1993年 부산대학교 전자계산학과 이학사• 1996年 부산대학교 전자계산학과 이학석사• 1999年 부산대학교 전자계산학과 이학박사• 2002年~현재 창원대학교 정보통신공학과 교수• 2021年 부산대학교 컴퓨터 및 정보통신연구소 객원교수• 2007年 미국 카네기멜론대학교 방문교수• 2012年 미국 텍사스A&M대학교 방문교수• 창원대학교 정보전산원장, 창원시 스마트모바일 앱센터장 역임
지은이 : 김성수
한국전자통신연구원(ETRI) 인공지능연구소 책임연구원1999 부산대학교 전자계산학과 이학석사 / 그래픽스 응용 연구실2021 충남대학교 컴퓨터공학과 공학박사 후보자1999~2000 한국과학기술원(KAIST) 연구원2000~현재 한국전자통신연구원(ETRI) 책임연구원3차원 GIS, 과학적 가시화, 기하 압축, 고성능 렌더링, 빅데이터, 기계학습 프로젝트 참여github : https://github.com/sungsoo
CHAPTER 01 머신러닝이란
1.1 인간을 닮은 기계를 만들기 위한 노력: 그 시작
1.2 생각하기 시작하는 기계
1.3 반복되는 사계절: 추운 겨울을 이기고 다시 찾아온 인공지능의 봄
1.4 머신러닝은 무엇을 하려는 것인가?
1.5 머신러닝의 정의와 종류를 알아보자
1.6 머신러닝, 무엇이 중요한가?
1.7 다시 피어나는 AI의 여름: 2020년대 이후 폭발적 성장
핵심 정리
심화문제
CHAPTER 02 머신러닝을 위한 기초지식
2.1 수학 표기
2.2 벡터와 행렬
2.3 벡터와 행렬의 기본 연산
2.4 미분과 기울기, 그리고 경사하강법의 개념
2.5 편미분과 기울기
2.6 모델, 파라미터, 그리고 학습
2.7 오차의 기울기를 이용한 학습의 기본 원리와 최적해
2.8 과적합, 과소적합, 그리고 일반화
2.9 과적합을 피하기 위한 방법들
핵심 정리
심화문제
CHAPTER 03 구현을 위한 도구
3.1 파이썬
3.2 구글 코래버러토리를 이용한 프로그래밍
3.3 넘파이는 머신러닝을 위한 데이터 처리의 핵심 도구
3.4 넘파이 활용의 기본 - 브로드캐스팅, 인덱싱, 슬라이싱
3.5 벡터화 연산 - 넘파이 배열 계산 성능의 핵심
3.6 논리 인덱싱으로 빠르게 데이터 추려내기
3.7 판다스 소개
3.8 판다스로 데이터 읽고 확인하기
3.9 데이터 시리즈 선택하여 시각화해 보기
3.10 편리한 데이터 다루기 - 슬라이싱과 열 데이터 추가
3.11 판다스를 이용한 데이터 분석
3.12 데이터 정제와 결손값의 처리
3.13 그룹핑과 필터링
3.14 데이터 구조의 변경: pivot과 concat
3.15 데이터의 병합: merge
핵심 정리
심화문제
CHAPTER 04 선형 회귀와 지도 학습
4.1 회귀 모델
4.2 선형 회귀와 지도 학습
4.3 실제 데이터를 읽고 가설 만들어 보기
4.4 좋은 가설과 모델의 오차
4.5 데이터의 관계를 설명하는 선형 회귀 함수의 시각적 이해
4.6 오차의 종류에 따른 오차 곡면의 모습
4.7 오차로 가설을 평가하고 좋은 가설 찾기
4.8 기계학습의 개념으로 해석하는 선형 회귀
4.9 Scikit-Learn을 이용한 선형 회귀
4.10 다변량 회귀분석 - 수학적 모델
4.11 회귀분석의 닫힌 해 - 정규 방정식
4.12 다변량 선형 회귀 연습을 위한 데이터 다루기
4.13 다변량 선형 회귀 데이터를 이용한 훈련과 검증
4.14 데이터 정규화와 표준화를 적용한 분석 성능 개선
핵심 정리
심화문제
CHAPTER 05 분류와 군집화로 이해하는 지도 학습과 비지도 학습
5.1 k-NN 알고리즘과 분류문제
5.2 k-NN 알고리즘을 위한 데이터 준비
5.3 사이킷런을 이용한 k-NN 알고리즘의 적용
5.4 붓꽃 데이터를 이용한 k-NN 활용 연습
5.5 학습된 k-NN 분류기의 성능 평가
5.6 사이킷 런의 성능지표 함수들
5.7 앙상블 - 머신러닝의 민주주의
5.8 군집화의 개념과 비지도 학습
5.9 k-평균 알고리즘 살펴보기
5.10 k-평균 알고리즘과 k-NN 알고리즘의 비교: 지도와 비지도 학습
LAB 5-1 붓꽃 데이터 군집화의 정확성을 분석하자
핵심 정리
심화문제
미니 프로젝트 A1 잡음제거: k-NN의 활용
CHAPTER 06 다항 회귀, 결정 트리, SVM 등의 다양한 기계학습 기법들
6.1 다항 회귀의 개념과 비선형 회귀
6.2 다항 회귀의 문제점 - 과적합 위험과 폭발적인 복잡도 증가
LAB 6-1 다항 회귀의 회귀 함수를 그려 보자
6.3 결정 트리를 이용한 분류
6.4 어떤 속성이 가장 중요한가?
6.5 결정 트리 분할의 기준 - 정보량과 불순도
6.6 ID3 알고리즘과 CART 알고리즘의 비교
6.7 사이킷런의 결정 트리로 붓꽃 분류하기
LAB 6-2 꽃받침의 너비와 길이로 결정 트리를 만들자
6.8 SVM - 서포트 벡터 머신의 소개
6.9 하드 마진 서포트 벡터 머신의 구현
6.10 소프트 마진 서포트 벡터 머신의 구현
6.11 사이킷런을 이용한 서포트 벡터 머신 사용하기
6.12 다항 특징 변환을 통한 비선형 서포트 벡터 머신의 구현
LAB 6-3 비선형 SVM을 이용한 데이터 분류
6.13 커널 트릭을 이용한 비선형 서포트 벡터 머신
LAB 6-4 커널 트릭을 이용한 비선형 SVM
핵심 정리
심화문제
미니 프로젝트 B1 얼굴 찾기: SVM으로 분류하기
CHAPTER 07 문제와 돌파구: 인공 신경망 기초
7.1 뇌의 동작을 흉내내자 - 연결주의자의 목표
7.2 학습할 수 있는 신경 모델 - 퍼셉트론의 등장
LAB 7-1 AND / OR 연산을 수행하는 퍼셉트론
7.3 학습의 원리 - 연결강도의 변경
LAB 7-2 논리합을 수행하는 퍼셉트론 만들기
LAB 7-3 다양한 논리 연산이 가능하게 퍼셉트론 훈련하기
7.4 퍼셉트론, 연결주의가 누린 첫 영예와 긴 좌절
7.5 퍼셉트론이 XOR 문제를 풀 수 있게 만드는 방법
7.6 퍼셉트론 학습 일반화 - 단층 퍼셉트론에 경사하강법 적용
7.7 다층 퍼셉트론의 학습 - 오차 역전파로 학습 방법 혁신
7.8 계층 단위 신호 전파를 수식화하자
LAB 7-4 XOR 연산이 가능한 다층 퍼셉트론 만들기
LAB 7-5 다층 퍼셉트론으로 비선형 회귀 구현하기
7.9 인공 신경망을 설계하고 훈련할 수 있는 도구: 텐서플로우
핵심 정리
심화문제
CHAPTER 08 고급 인공 신경망 구현
8.1 심층 신경망이 부딪힌 한계 - 사라지는 기울기
8.2 심층 신경망 학습의 돌파구 - 연결강도 초기화
8.3 활성화 함수의 다양화
8.4 경사하강법의 문제를 개선한 최적화 기법
8.5 텐서플로우의 MNIST 예제로 시작하는 신경망의 Hello World!
8.6 케라스로 순차 심층 신경망 구축하기
8.7 인공 신경망 학습 방법
8.8 부드러운 최대값: 소프트맥스 함수
8.9 원-핫 인코딩과 평균 제곱 오차
8.10 교차 엔트로피 오차의 도입
8.11 정규화와 표준화
8.12 배치 경사하강법, 확률적 경사하강법, 미니 배치 경사하강법
8.13 더 깊은 층으로 정확도를 높여보고 교차검증도 하자
8.14 학습데이터에만 최적화된 신경망 개선하기: 드롭아웃
LAB 8-1 Fashion-MNIST 데이터 분류하기
핵심 정리
심화문제
CHAPTER 09 신경망 부흥의 시작, 합성곱 신경망
9.1 시각 정보 처리와 합성곱의 필요성
9.2 합성곱의 기본 개념 이해
9.3 합성곱을 통한 특징 추출
9.4 합성곱 수행 신경망의 기본 구조와 문제
9.5 패딩, 스트라이딩, 다중 채널
9.6 강건한 모델을 만드는 풀링
LAB 9-1 합성곱을 만들어보자
9.7 합성곱 신경망 모델의 구성
9.8 합성곱 신경망 모델의 성공
LAB 9-2 합성곱 신경망으로 패션 MNIST 분류를 개선하기
9.9 전이학습 - 이미 훈련된 모델을 고쳐 쓰기
핵심 정리
심화문제
미니 프로젝트 B2 얼굴 찾기: CNN 활용하기
미니 프로젝트 B3 얼굴 찾기: 전이학습 활용하기
CHAPTER 10 순차적 정보의 처리, 순환 신경망에서 “어텐션”으로
10.1 순환 신경망의 적용 분야
10.2 순환 신경망의 구조
10.3 순환 신경망 셀의 구조와 유닛
10.4 텐서플로우를 이용한 간단한 RNN 모델 만들기
10.5 RNN을 이용한 순차 데이터 예측
10.6 RNN을 다층 구조로 만들어 파라미터는 줄이기
10.7 RNN의 장기 의존성 문제를 해결하는 LSTM
10.8 LSTM 셀의 각 게이트 별로 동작 살펴보기
10.9 GRU - 장기 의존성 문제를 해결하는 더 간단한 게이트들
LAB 10-1 장기 기억이 필요한 시퀀스를 예측해 보자
10.10 중요한 것이 무엇인가? 어텐션의 혁신적 등장
LAB 10-2 어텐션 모델로 중요한 정보에 집중하자
핵심 정리
심화문제
CHAPTER 11 차원을 넘나드는 변환 잠재공간과 오토인코더
11.1 차원, 그리고 차원의 저주
11.2 차원 축소
11.3 주성분 분석과 특이값 분해
LAB 11-1 3차원 공간의 데이터에서 주성분을 찾아보자
LAB 11-2 주성분을 추출해 이미지를 압축해 보자
11.4 특징, 그리고 잠재표현 학습
LAB 11-3 오토인코더로 차원 축소하기
LAB 11-4 다층 구조 오토인코더로 차원 축소/복원하기
LAB 11-5 오토인코더를 이용한 이미지 압축과 복원
11.5 잠재표현으로 새로운 데이터 만들기
LAB 11-6 오토인코더를 이용한 데이터 생성
핵심 정리
심화문제
미니 프로젝트 A2 잡음제거: 오토인코더 활용
CHAPTER 12 어텐션만 있으면 막강한 트랜스포머
12.1 트랜스포머 모델의 등장
12.2 셀프-어텐션, 전체 시퀀스의 전역적 맥락 파악
12.3 트랜스포머 모델의 전체 아키텍처
12.4 임베딩과 위치 인코딩
12.5 인코더의 구성
12.6 트랜스포머 디코더의 구성
12.7 트랜스포머의 변형과 그 성공
12.8 그리디 디코딩과 빔 서치
LAB 12-1 트랜스포머를 이용한 챗봇
핵심 정리
심화문제
미니 프로젝트 C1 트랜스포머로 감정분석하기
CHAPTER 13 인공지능의 현재 그리고 미래
13.1 인공지능의 역사를 돌아보자
13.2 모라벡의 역설과 초 인공지능으로 향하는 혁신
13.3 인간의 뇌와 이를 모방한 인공 신경망
13.4 학습방법의 혁신, 오차 역전파, 활성화 함수 다양화, 그리고 딥러닝
13.5 인공지능 기술 발전의 폭발적 속도
13.6 현실 세계를 이해하고 상호작용하는 인공지능: 피지컬 AI
13.7 스스로 환경을 경험하며 똑똑해지는 인공지능: 강화 학습
13.8 강화 학습의 다양한 가능성과 한계, 모방학습의 도입
13.9 인공지능, 신기한 기술에서 신뢰할 수 있는 지능으로
13.10 인공지능에 가해지는 위협: 적대적 공격
핵심 정리
심화문제
도서 DB 제공 - 알라딘 인터넷서점 (www.aladin.co.kr)