홈 > 부모님 > 부모님 > 소설,일반 > 컴퓨터,모바일
머신러닝 리스크 관리 with 파이썬  이미지

머신러닝 리스크 관리 with 파이썬
안정성과 신뢰성 높은 견고한 모델을 구축하는 방법
한빛미디어 | 부모님 | 2024.05.10
  • 정가
  • 42,000원
  • 판매가
  • 37,800원 (10% 할인)
  • S포인트
  • 2,100P (5% 적립)
  • 상세정보
  • 18.8x23.5 | 1.049Kg | 552p
  • ISBN
  • 9791169212380
  • 배송비
  • 2만원 이상 구매시 무료배송 (제주 5만원 이상) ?
    배송비 안내
    전집 구매시
    주문하신 상품의 전집이 있는 경우 무료배송입니다.(전집 구매 또는 전집 + 단품 구매 시)
    단품(단행본, DVD, 음반, 완구) 구매시
    2만원 이상 구매시 무료배송이며, 2만원 미만일 경우 2,000원의 배송비가 부과됩니다.(제주도는 5만원이상 무료배송)
    무료배송으로 표기된 상품
    무료배송으로 표기된 상품일 경우 구매금액과 무관하게 무료 배송입니다.(도서, 산간지역 및 제주도는 제외)
  • 출고일
  • 1~2일 안에 출고됩니다. (영업일 기준) ?
    출고일 안내
    출고일 이란
    출고일은 주문하신 상품이 밀크북 물류센터 또는 해당업체에서 포장을 완료하고 고객님의 배송지로 발송하는 날짜이며, 재고의 여유가 충분할 경우 단축될 수 있습니다.
    당일 출고 기준
    재고가 있는 상품에 한하여 평일 오후3시 이전에 결제를 완료하시면 당일에 출고됩니다.
    재고 미보유 상품
    영업일 기준 업체배송상품은 통상 2일, 당사 물류센터에서 발송되는 경우 통상 3일 이내 출고되며, 재고확보가 일찍되면 출고일자가 단축될 수 있습니다.
    배송일시
    택배사 영업일 기준으로 출고일로부터 1~2일 이내 받으실 수 있으며, 도서, 산간, 제주도의 경우 지역에 따라 좀 더 길어질 수 있습니다.
    묶음 배송 상품(부피가 작은 단품류)의 출고일
    상품페이지에 묶음배송으로 표기된 상품은 당사 물류센터에서 출고가 되며, 이 때 출고일이 가장 늦은 상품을 기준으로 함께 출고됩니다.
  • 주문수량
  • ★★★★★
  • 0/5
리뷰 0
리뷰쓰기
  • 도서 소개
  • 출판사 리뷰
  • 작가 소개
  • 목차
  • 회원 리뷰

  도서 소개

모든 기술이 그렇듯이 ML도 의도하지 않은 오용이나 의도적인 남용 때문에 실패할 수 있다. 조직과 대중이 이 흥미로운 기술의 진정한 이점을 활용하려면 그러한 위험 요인을 완화해야 한다. 이 책이 준수하려는 초기 표준이 최근 조금씩 구체화되기 시작했지만, 머신러닝 실무에서는 아직 널리 인정받는 전문 자격증이나 모범 사례가 부족하다. 따라서 머신러닝 기술이 세상에 배포될 때 해당 기술의 결과에 대한 책임을 실무자가 떠안아야 하는 실정이다.

이 책은 실무자가 AI 모델 위험관리 프로세스를 제대로 이해하고, 일반적인 파이썬 도구를 사용해 설명 가능한 모델을 학습하며 안전성, 편향 관리, 보안, 프라이버시 문제를 관리하는 새로운 방법을 제공한다. ML의 리스크를 제거하는 미묘한 접근 방식을 취함으로써, 책임감 있고 지속 가능한 방식으로 ML 시스템을 성공적으로 배포할 수 있는 귀중한 리소스를 독자들에게 제공한다.

  출판사 리뷰

책임감 있고 지속 가능한 ML 시스템을 배포하는 방법,
AI 모범 사례와 위험 관리 프로세스 제대로 알고 활용하기


모든 기술이 그렇듯이 ML도 의도하지 않은 오용이나 의도적인 남용 때문에 실패할 수 있습니다. 조직과 대중이 이 흥미로운 기술의 진정한 이점을 활용하려면 그러한 위험 요인을 완화해야 합니다. 이 책이 준수하려는 초기 표준이 최근 조금씩 구체화되기 시작했지만, 머신러닝 실무에서는 아직 널리 인정받는 전문 자격증이나 모범 사례가 부족합니다. 따라서 머신러닝 기술이 세상에 배포될 때 해당 기술의 결과에 대한 책임을 실무자가 떠안아야 하는 실정입니다.

이 책은 실무자가 AI 모델 위험관리 프로세스를 제대로 이해하고, 일반적인 파이썬 도구를 사용해 설명 가능한 모델을 학습하며 안전성, 편향 관리, 보안, 프라이버시 문제를 관리하는 새로운 방법을 제공합니다. ML의 리스크를 제거하는 미묘한 접근 방식을 취함으로써, 책임감 있고 지속 가능한 방식으로 ML 시스템을 성공적으로 배포할 수 있는 귀중한 리소스를 독자들에게 제공합니다.

주요 내용
책임 있는 AI를 위한 기술적 접근 방식 이해하기
성공적이고 영향력 있는 AI 위험 관리 사례를 만드는 방법 알아보기
AI 기술 채택을 위한 기존 표준, 법률 및 평가 관련 기본 가이드 확인하기
새로운 NIST AI 위험 관리 프레임워크 살펴보기
깃허브 및 코랩의 대화형 리소스 활용하기

AI 규제법안 시대, 고위험 애플리케이션에서 ML 기술을 책임감 있게 활용하는 방법

유럽연합 의회는 인공지능 기술을 안전하고 윤리적으로 사용할 수 있도록 하는 규제법안인 인공지능법(AI Act)을 최근 승인했습니다. 이 법안은 인공지능 시스템의 개발, 배포, 사용에 대한 엄격한 규제를 마련해 인공지능 기술의 잠재적 위험성을 관리하고, 사람 중심의 인공지능 기술 발전을 촉진할 목적으로 제정되었습니다. 이 법안은 인공지능 기술을 ‘허용할 수 없는’ 기술부터 고위험, 중위험, 저위험으로 분류하며 ‘허용할 수 없는’ 기술은 금지합니다.

이 책은 저자들이 경험한 실제 사례와 연구 결과를 통해 머신러닝 기술을 고위험 애플리케이션에 성공적으로 적용하는 방법을 보여줍니다. 또한, 유럽연합의 인공지능 규제법안의 주요 내용과 미국 위험관리 프레임워크 관련성을 분석하고 법안 준수를 위한 구체적인 방안을 제시합니다. 주로 다루는 내용은 다음과 같습니다.

편향 및 윤리 문제: 모델 개발 과정에서 발생할 수 있는 편향과 윤리 문제 해결 및 완화 방법
모델 설명 및 책임감: 고위험 애플리케이션에서 머신러닝 모델의 설명 가능성과 책임감 확보 방법
모델 평가 및 검증: 고위험 애플리케이션에서 머신러닝 모델의 성능과 신뢰성 평가 및 검증 방법
모델 배포 및 관리: 고위험 애플리케이션에서 머신러닝 모델을 안전하고 효율적으로 배포 및 관리하는 방법

  작가 소개

지은이 : 제임스 커티스
솔레아 에너지(Solea Energy)의 정량 분석가(quantitative researcher)로, 통계 예측을 사용해 미국 전력망의 탄소 배출을 감소하는 데 주력하고 있다. 이전에는 금융 서비스 조직, 보험사, 규제기관 및 의료 서비스 제공업체에 더 공정한 인공지능 및 머신러닝 모델을 구축하는 데 도움을 주는 컨설턴트로 활동했다. 콜로라도 광업대학교(Colorado School of Mines)에서 수학 석사학위를 받았다.

지은이 : 패트릭 홀
BNH.AI의 수석 과학자로 포춘 500대 기업과 최첨단 스타트업에 AI 위험에 관해 자문을 제공하고, NIST의 인공지능 위험관리 프레임워크를 지원하는 연구를 수행하고 있다. 조지 워싱턴 경영대학원의 의사결정과학과 객원 교수로 데이터 윤리와 비즈니스 분석, 머신러닝 강의를 진행하고 있다.BNH를 공동 설립하기 전에는 H2O.ai에서 책임 있는 AI 분야를 이끌면서 머신러닝의 설명 가능성 및 편향성 완화를 위한 세계 최초의 상용 응용 프로그램을 개발했다. 또한 SAS 연구소에서 글로벌 고객 지원 업무와 R&D 업무를 담당했다. 일리노이 대학교에서 계산화학을 전공한 후 노스캐롤라이나 주립대학교의 고급 분석 연구소를 졸업했다.미국 과학, 공학 및 의학 아카데미(National Academies of Science, Engineering, and Medicine), ACM SIGKDD, 합동 통계 회의(Joint Statistical Meetings)에서 설명 가능한 인공지능과 관련 주제로 발표했다. McKinsey.com, 오라일리 레이더(O’Reilly Radar), 톰슨 로이터 규제 인텔리전스(Thompson Reuters Regulatory Intelligence) 등의 매체에 글을 기고했으며, 그의 기술 성과는 『포춘(Fortune)』, 『와이어드(Wired)』, 『인포월드(InfoWorld)』, 『테크크런치(TechCrunch)』 등에 소개되었다.

지은이 : 파룰 판데이
전기공학을 전공했으며 현재 H2O.ai에서 수석 데이터과학자로 근무하고 있다. 이전에는 Weights & Biases에서 머신러닝 엔지니어로 근무했다. 또한 캐글 노트북 부문의 그랜드 마스터이며, 2019년에는 링크드인(LinkedIn) 소프트웨어 개발 부문에서 최고 목소리(Top Voices) 중 한 명으로 선정되었다. 다양한 출판물에 데이터과학 및 소프트웨어 개발을 주제로 한 여러 기사를 기고했으며, 책임 있는 AI와 관련된 주제에 대해 강연하고 멘토링 및 워크숍을 진행하는 등 활발하게 활동하고 있다.

  목차

[1부_ 인공지능 위험관리의 이론과 실제 적용 사례]

1장 현대의 머신러닝 위험관리
_1.1 법률 및 규제 환경 개요
_1.2 권위 있는 모범사례
_1.3 AI 사고
_1.4 머신러닝 위험관리를 위한 문화적 역량
_1.5 머신러닝 위험관리를 위한 조직 프로세스
_1.6 사례 연구: 질로우 아이바잉 사업의 흥망성쇠
_1.7 참고 자료

2장 해석 및 설명 가능한 머신러닝
_2.1 해석 가능성 및 설명 가능성에 관한 중요 아이디어
_2.2 설명 가능한 모델
_2.3 사후 설명
_2.4 실무에서 사후 설명의 고질적 문제
_2.5 설명 가능한 모델과 사후 설명의 결합
_2.6 사례 연구: 알고리즘 채점
_2.7 참고 자료

3장 안전성과 성능을 높이는 머신러닝 시스템 디버깅
_3.1 훈련
_3.2 모델 디버깅
_3.3 배포
_3.4 사례 연구: 자율주행차 사망 사고
_3.5 참고 자료

4장 머신러닝 편향관리
_4.1 ISO 및 NIST의 편향 정의
_4.2 미국의 머신러닝 편향에 대한 법적 개념
_4.3 머신러닝 시스템의 편향을 경험하는 경향이 있는 사람
_4.4 사람들이 경험하는 피해
_4.5 편향 테스트
_4.6 편향 완화
_4.7 사례연구: 편향 버그 바운티
_4.8 참고 자료

5장 머신러닝 보안
_5.1 보안 기초
_5.2 머신러닝 공격
_5.3 일반적인 머신러닝 보안 문제
_5.4 대응책
_5.5 사례 연구: 실제 우회 공격
_5.6 참고 자료

[2부_ 인공지능 위험관리 실행하기]

6장 설명 가능한 부스팅 머신과 XGBoost 설명
_6.1 개념 복습: 머신러닝 투명성
_6.2 일반화가법모형 계열의 설명 가능한 모델
_6.3 제약조건과 사후 설명이 있는 XGBoost
_6.4 참고 자료

7장 파이토치 이미지 분류기
_7.1 흉부 엑스레이 분류 설명
_7.2 개념 복습: 설명 가능한 모델과 사후 설명 기법
_7.3 설명 가능한 모델
_7.4 파이토치 이미지 분류기 훈련 및 설명
_7.5 결론
_7.6 참고 자료

8장 XGBoost 모델 선택 및 디버깅
_8.1 개념 복습: 머신러닝 디버깅
_8.2 더 좋은 XGBoost 모델 선택하기
_8.3 XGBoost 민감도 분석
_8.4 XGBoost 잔차 분석
_8.5 선택한 모델 개선하기
_8.6 결론
_8.7 참고 자료

9장 파이토치 이미지 분류기 디버깅
_9.1 개념 복습: 딥러닝 디버깅
_9.2 파이토치 이미지 분류기 디버깅하기
_9.3 결론
_9.4 참고 자료

10장 XGBoost를 사용한 편향 테스트 및 개선
_10.1 개념 복습: 편향관리
_10.2 모델 훈련
_10.3 모델의 편향 평가
_10.4 편향 개선
_10.5 결론
_10.6 참고 자료

11장 레드 팀 XGBoost
_11.1 개념 복습
_11.2 모델 훈련
_11.3 레드 팀 공격
_11.4 결론
_11.5 참고 자료

[3부_ 결론]

12장 고위험 머신러닝에서 성공하는 방법
_12.1 프로젝트 참여 대상
_12.2 과학 대 공학
_12.3 발표된 결과와 주장에 대한 평가
_12.4 외부 표준 적용하기
_12.5 상식적인 위험완화
_12.6 결론
_12.7 참고 자료

부록
찾아보기

  회원리뷰

리뷰쓰기

    이 분야의 신상품