추천 검색어

최근 검색어

도서 IT전문서/IT입문서 데이터베이스/데이터분석
머신 러닝, 딥러닝, 생성 AI, 자연어 처리, 컴퓨터 비전 등 AI에 관한 30가지 핵심 질문과 답변 머신 러닝 Q & AI
정 가
35,000원
출 간
2025-04-09
지 은 이
세바스찬 라시카
옮 긴 이
박해선
I S B N
9791140713073
분 량
344쪽
난 이 도
초급,중급

머신 러닝, 딥러닝, AI 전문가에게 묻다. “세바스찬 라시카, 이런 게 궁금해요!”

머신 러닝, 딥러닝, AI 전문가에게 묻다. “세바스찬 라시카, 이런 게 궁금해요!”

다양한 고급 주제와 최신 동향을, 쉬운 그림과 Q&A 구성으로, 간단명료하지만 쉽고 흥미롭게!


 

이 책은 인공지능 분야의 선두에 서 있는 세바스찬 라시카 박사가 자주 받는 질문에 대해, Q&A라는 독특한 스타일을 사용해 설명한 책이다. 신경망과 딥러닝, 컴퓨터 비전, 자연어 처리, 생성 AI, 예측 성능과 모델 평가 등 다양한 인공지능 분야를 저자의 깊이 있는 고찰과 논리적인 설명으로 더욱 심도 있게 이해할 수 있다. 기본적인 이론 설명을 넘어서 기술 관련 지식, 활용 방법, 실무적인 설명을 정리하고 최신 연구 동향을 소개하면서, 연습문제와 연습문제에 대한 해답, 참고하면 좋을 자료들도 함께 수록했다. 또한 마찬가지로 국내 인공지능 분야에서 활발히 활동하고 있는 박해선 역자 역시 이 책을 번역하면서 국내 독자들에게 자주 받은 질문 12개에 대한 Q&A를 권말부록으로 집필해 실었다. 전반적인 인공지능 분야의 지식을 한 단계 업그레이드하고자 하는 분들에게 도움이 되기를 바란다.

 

1부 | 신경망과 딥러닝


 

1장 임베딩, 잠재 공간, 표현

1.1 임베딩

1.2 잠재 공간

1.3 표현

1.4 연습문제

1.5 참고

 

 

2장 자기 지도 학습

2.1 자기 지도 학습 vs 전이 학습

2.2 레이블이 없는 데이터 활용하기

2.3 자기 예측 및 대조적 자기 지도 학습

2.4 연습문제

2.5 참고

 

 

3장 퓨-샷 학습

3.1 데이터셋과 용어

3.2 연습문제

 

 

4장 로터리 티켓 가설

4.1 로터리 티켓 훈련 과정

4.2 실제적 영향과 한계

4.3 연습문제

4.4 참고

 

 

5장 데이터로 과대적합 줄이기

5.1 대표적인 방법

__5.1.1 추가 데이터 수집

__5.1.2 데이터 증강

__5.1.3 사전 훈련

5.2 다른 방법

5.3 연습문제

5.4 참고

 

 

6장 모델을 변경하여 과대적합 줄이기

6.1 일반적인 방법

__6.1.1 규제

__6.1.2 작은 모델

__6.1.3 작은 모델에 대한 주의 사항

__6.1.4 앙상블 방법

6.2 다른 방법

6.3 규제 기법 선택하기

6.4 연습문제

6.5 참고

 

 

7장 다중 GPU 훈련 패러다임

7.1 훈련 패러다임

__7.1.1 모델 병렬화

__7.1.2 데이터 병렬화

__7.1.3 텐서 병렬화

__7.1.4 파이프라인 병렬화

__7.1.5 시퀀스 병렬화

7.2 추천

7.3 연습문제

7.4 참고

 

 

8장 트랜스포머의 성공

8.1 어텐션 메커니즘

8.2 자기 지도 학습을 통한 사전 훈련

8.3 많은 수의 파라미터

8.4 손쉬운 병렬화

8.5 연습문제

8.6 참고

 

 

9장 생성 AI 모델

9.1 생성 모델링 vs 판별 모델링

9.2 심층 생성 모델의 종류

__9.2.1 에너지 기반 모델

__9.2.2 변분 오토인코더

__9.2.3 생성적 적대 신경망

__9.2.4 흐름 기반 모델

__9.2.5 자기회귀 모델

__9.2.6 디퓨전 모델

__9.2.7 일관성 모델

9.3 추천

9.4 연습문제

9.5 참고

 

 

10장 무작위성의 원인

10.1 모델 가중치 초기화

10.2 데이터셋 샘플링과 셔플링

10.3 비결정론적인 알고리즘

10.4 여러 가지 런타임 알고리즘

10.5 하드웨어와 드라이버

10.6 무작위성과 생성 AI

10.7 연습문제

10.8 참고

 

 

2부 | 컴퓨터 비전


 

11장 파라미터 개수

11.1 파라미터 개수를 계산하는 방법

__11.1.1 합성곱 층

__11.1.2 완전 연결 층

11.2 현실적인 이유

11.3 연습문제

 

 

12장 완전 연결 층과 합성곱 층

12.1 커널 크기와 입력 크기가 같을 때

12.2 커널 크기가 1일 때

12.3 추천

12.4 연습문제

 

 

13장 비전 트랜스포머를 위한 대규모 훈련 세트

13.1 CNN의 귀납적 편향

13.2 CNN을 능가할 수 있는 ViT

13.3 ViT의 귀납적 편향

13.4 추천

13.5 연습문제

13.6 참고

 

3부 | 자연어 처리


 

14장 분포 가설

14.1 Word2vec, BERT, GPT

14.2 가설이 유효한가요?

14.3 연습문제

14.4 참고

 

 

15장 텍스트 데이터 증강

15.1 동의어 교체

15.2 단어 삭제

15.3 단어 위치 변경

15.4 문장 섞기

15.5 잡음 추가

15.6 역번역

15.7 합성 데이터

15.8 추천

15.9 연습문제

15.10 참고

 

 

16장 셀프 어텐션

16.1 RNN의 어텐션 메커니즘

16.2 셀프 어텐션 메커니즘

16.3 연습문제

16.4 참고

 

 

17장 인코더 기반 트랜스포머와 디코더 기반 트랜스포머

17.1 원본 트랜스포머

17.2 인코더

17.3 디코더

17.4 인코더-디코더

17.5 용어에 대한 주의 사항

17.6 최신 트랜스포머 모델

17.7 연습문제

17.8 참고

 

 

18장 사전 훈련된 트랜스포머 모델의 사용과 미세 튜닝 방법

18.1 분류 작업에 트랜스포머 사용하기

18.2 문맥 내 학습, 인덱싱, 프롬프트 튜닝

18.3 PEFT

18.4 RLHF

18.5 사전 훈련된 모델 적용하기

18.6 연습문제

18.7 참고

 

 

19장 생성형 대규모 언어 모델의 평가

19.1 LLM을 위한 평가 지표

19.2 혼잡도

19.3 BLEU 점수

19.4 ROUGE 점수

19.5 BERTScore

19.6 대리 평가 지표

19.7 연습문제

19.8 참고

 

 

4부 | 제품화와 배포


 

20장 상태 비저장 훈련과 상태 저장 훈련

20.1 상태 비저장 훈련

20.2 상태 저장 훈련

20.3 연습문제

 

 

21장 데이터 중심 AI

21.1 데이터 중심 AI vs 모델 중심 AI

21.2 추천

21.3 연습문제

21.4 참고

 

 

22장 추론 속도 높이기

22.1 병렬화

22.2 벡터화

22.3 루프 타일링

22.4 연산자 융합

22.5 양자화

22.6 연습문제

22.7 참고

 

 

23장 데이터 분포 변화

23.1 공변량 변화

23.2 레이블 변화

23.3 개념 변화

23.4 도메인 변화

23.5 데이터 분포 변화의 종류

23.6 연습문제

23.7 참고

 

 

5부 | 예측 성능과 모델 평가


 

24장 푸아송 회귀와 서열 회귀

24.1 연습문제

 

 

25장 신뢰 구간

25.1 신뢰 구간의 정의

25.2 방법

__25.2.1 방법 1: 정규 근사 구간

__25.2.2 방법 2: 훈련 세트 부트스트래핑하기

__25.2.3 방법 3: 테스트 세트 예측 부트스트래핑하기

__25.2.4 방법 4: 다른 랜덤 시드로 모델을 재훈련하기

25.3 추천

25.4 연습문제

25.5 참고

 

 

26장 신뢰 구간 vs 컨포멀 예측

26.1 신뢰 구간과 예측 구간

26.2 예측 구간과 컨포멀 예측

26.3 예측 영역, 예측 구간, 예측 집합

26.4 컨포멀 예측 계산하기

26.5 컨포멀 예측의 예시

26.6 컨포멀 예측의 장점

26.7 추천

26.8 연습문제

26.9 참고

 

 

27장 적절한 측정 지표

27.1 조건

27.2 평균 제곱 오차

27.3 크로스 엔트로피 손실

27.4 연습문제

 

 

28장 k-폴드 교차 검증의 k

28.1 k 값 선택의 트레이드오프

28.2 적절한 k 값 결정하기

28.3 연습문제

28.4 참고

 

 

29장 훈련 세트와 테스트 세트 불일치

29.1 연습문제

 

 

30장 제한적인 레이블 데이터

30.1 제한적인 레이블 데이터로 모델 성능 향상

__30.1.1 더 많은 데이터에 레이블 부여하기

__30.1.2 데이터 부트스트래핑

__30.1.3 전이 학습

__30.1.4 자기 지도 학습

__30.1.5 능동 학습

__30.1.6 퓨-샷 학습

__30.1.7 메타 학습

__30.1.8 약지도 학습

__30.1.9 준지도 학습

__30.1.10 자기 훈련

__30.1.11 다중 작업 학습

__30.1.12 멀티모달 학습

__30.1.13 귀납적 편향

30.2 추천

30.3 연습문제

30.4 참고

 

 

부록 연습문제 해답

 

 

찾아보기

 

ㆍ지은이 세바스찬 라시카
소개
교육에 열정이 많은 머신 러닝 및 AI 연구자이며, 라이트닝 AI(Lightning AI)의 수석 AI 교육자로서 AI와 딥러닝을 쉽게 배우고 활용하는 방법을 가르치는 데 열정적이다. 라이트닝 AI에 합류하기 전에 위스콘신 매디슨 대학(University of Wisconsin-Madison)의 통계학과에서 조교수로 딥러닝과 머신 러닝을 연구했다. 그의 웹 사이트(https://sebastianraschka.com)에서 자세한 연구 내용을 볼 수 있다. 또한 오픈 소스 소프트웨어를 사랑하고 10년 넘게 열정적인 기여자로 활동했다. 코딩 이외에도 글쓰기를 좋아하며 베스트셀러인 『머신 러닝 교과서 with 파이썬, 사이킷런, 텐서플로(Python Machine Learning)』(2021, 길벗)와 『머신 러닝 교과서: 파이토치 편(Machine Learning with PyTorch and Scikit-Learn)』(2023, 길벗)을 집필했다.

ㆍ옮긴이 박해선
소개
기계공학을 전공했지만 졸업 후엔 줄곧 코드를 읽고 쓰는 일을 했다. Microsoft AI MVP, Google AI/Cloud GDE이다. 텐서 플로우 블로그(tensorflow.blog)를 운영하고 있고, 머신 러닝과 딥러닝에 관한 책을 집필하고 번역하면서 소프트웨어와 과학의 경계를 흥미롭게 탐험하고 있다. 『챗GPT로 대화하는 기술』(한빛미디어, 2023), 『혼자 공부하는 데이터 분석 with 파이썬』(한빛미디어, 2023), 『혼자 공부하는 머신러닝+딥러닝』(한빛미디어, 2020), 『Do it! 딥러닝 입문』(이지스퍼블리싱, 2019)을 집필했다. 『개발자를 위한 필수 수학』(한빛미디어, 2024), 『실무로 통하는 ML 문제 해결 with 파이썬』(한빛미디어, 2024), 『머신러닝 교과서: 파이토치 편』(길벗, 2023), 『스티븐 울프럼의 챗GPT 강의』(한빛미디어, 2023), 『핸즈온 머신러닝 3판』(한빛미디어, 2023), 『만들면서 배우는 생성 딥러닝 2판』(한빛미디어, 2023), 『코딩 뇌를 깨우는 파이썬』(한빛미디어, 2023), 『트랜스포머를 활용한 자연어 처리』(한빛미디어, 2022), 『케라스 창시자에게 배우는 딥러닝 2판』(길벗, 2022), 『개발자를 위한 머신러닝&딥러닝』(한빛미디어, 2022), 『XGBoost와 사이킷런을 활용한 그레이디언트 부스팅』(한빛미디어, 2022), 『구글 브레인 팀에게 배우는 딥러닝 with TensorFlow.js』(길벗, 2022), 『(개정2판)파이썬 라이브러리를 활용한 머신러닝』(한빛미디어, 2022), 『머신러닝 파워드 애플리케이션』(한빛미디어, 2021), 『머신러닝 교과서 3판』(길벗, 2021)을 포함하여 여러 권의 책을 우리말로 옮겼다.

필요한 자료를 선택하세요.