AWS로 구현하는 생성형 AI

AWS로 구현하는 생성형 AI에 관련된

책을 소개해드릴게요.

http://app.ac/P3PyfeJ63

 

AWS로 구현하는 생성형 AI | 크리스 프레글리 - 교보문고

AWS로 구현하는 생성형 AI | 업계와 학계에서 다루는 가장 일반적인 생성형 AI 활용 사례와 작업을 이해할 수 있습니다! 오늘날 기업은 자사의 제품과 서비스에 생성형 AI를 빠르게 도입하고 있습

product.kyobobook.co.kr

업계와 학계에서 다루는 가장 일반적인 생성형 AI 활용 사례와 작업을 이해할 수 있습니다!

오늘날 기업은 자사의 제품과 서비스에 생성형 AI를 빠르게 도입하고 있습니다. 그러나 이 기술의 영향력과 잠재력에 대해 과장된 정보와 오해가 많이 존재합니다. AWS의 크리스 프레글리, 안체 바르트, 셸비 아이겐브로데는 이 책에서 CTO, 머신러닝 실무자, 애플리케이션 개발자, 비즈니스 분석가, 데이터 엔지니어, 데이터 사이언티스트가 이 흥미로운 신기술을 실용적으로 활용하는 방법을 찾도록 도와줍니다.

이 책을 통해 활용 사례 정의, 모델 선택, 모델 미세 조정, 검색 증강 생성, 인간 피드백을 통한 강화 학습, 모델 양자화, 최적화, 배포 등 생성형 AI 프로젝트의 생명 주기를 배울 수 있습니다. 또한 대규모 언어 모델(LLM), 이미지 생성을 위한 스테이블 디퓨전, 이미지 관련 질문에 답하는 Flamingo, IDEFICS 같은 멀티모달 모델 등 다양한 유형의 모델도 살펴봅니다.

★ 이 책에서 다루는 내용 ★



◎ 생성형 AI를 비즈니스 현장에 적용하는 방법

◎ 작업에 가장 적합한 생성형 AI 모델을 결정하는 방법

◎ 프롬프트 엔지니어링과 콘텍스트 내 학습을 수행하기

◎ 저순위 적응(LoRA)으로 데이터 세트에 맞게 생성형 AI 모델을 미세 조정하기

◎ 인간 피드백을 통한 강화 학습(RLHF)으로 생성형 AI 모델을 인간의 가치에 맞추는 방법

◎ 검색 증강 생성(RAG)으로 모델을 증강하기

◎ 랭체인, ReAct 같은 라이브러리를 활용해 에이전트와 액션을 개발하기

◎ 아마존 베드록으로 생성형 AI 애플리케이션을 만드는 방법



저자(글) 크리스 프레글리



인물정보

IT종사자

(Chris Fregly)

캘리포니아 샌프란시스코에 위치한 아마존 웹 서비스의 생성형 AI 부문 수석 솔루션 아키텍트입니다. 그는 모든 AWS 인증을 보유하고 있습니다. 글로벌 Generative AI on AWS 밋업의 공동 창립자이기도 하며, 전 세계 AI 및 머신러닝 밋업과 콘퍼런스에서 정기적으로 강연합니다. 이전에는 Databricks와 Netflix에서 엔지니어로 일하며, 확장성 있는 빅데이터 및 머신러닝 제품과 솔루션을 개발했습니다. 또한 《AWS 기반 데이터 과학》(한빛미디어, 2023)의 공동 저자이기도 합니다.



저자(글) 안체 바르트

(Antje Barth)

캘리포니아 샌프란시스코에 위치한 아마존 웹 서비스의 생성형 AI 부문 수석 개발자 애드보킷입니다. 그녀는 글로벌 Generative AI on AWS 밋업과 뒤셀도르프 Women in Big Data 지부의 공동 창립자입니다. 안체는 전 세계 AI 및 머신러닝 콘퍼런스와 밋업에서 자주 강연합니다. AWS에 합류하기 전에는 MapR과 Cisco에서 솔루션 엔지니어로 일하며, 개발자가 AI와 머신러닝 분야에서 빅데이터, 컨테이너, 쿠버네티스 플랫폼을 활용할 수 있도록 도왔습니다. 그녀 역시 《AWS 기반 데이터 과학》의 공동 저자입니다.



저자(글) 셸비 아이겐브로데

(Shelbee Eigenbrode)

콜로라도 덴버에 위치한 아마존 웹 서비스의 생성형 AI 부문 수석 솔루션 아키텍트입니다. 그녀는 덴버 Women in Big Data 지부의 공동 창립자입니다. 셸비는 6개의 AWS 인증을 보유하고 있으며, 23년 동안 여러 산업과 기술, 역할을 망라하는 기술 분야에서 일해 왔습니다. 그녀는 DevOps와 머신러닝 분야의 전문 지식을 활용해 대규모 머신러닝 작업 구현에 주력하고 있습니다. 다양한 기술 영역에서 35개 이상의 특허를 출원한 셸비는 지속적인 혁신과 데이터를 활용한 비즈니스 성과 창출에 열정을 가지고 있습니다.



번역 이승필

삼성SDS 협업솔루션 개발 관리자로서, 20여 년간 다양한 SI 프로젝트와 솔루션 개발 프로젝트에서 아키텍트, 프로그램 매니저로 활동 중이다. 현재 사내 생성형 AI 솔루션 개발을 리딩하고 있다.



번역 한우선

삼성SDS 수석 엔지니어로, 다양한 프로젝트와 솔루션 구축 업무를 수행했다. 현재 생성형 AI 솔루션 개발을 리딩하고 있으며, AI를 활용한 고객 경험 향상에 앞장서고 있다. 《엘라스틱서치를 활용한 벡터 검색 실무 가이드》(위키북스, 2024)를 번역했다.



번역 유태황

삼성SDS에서 소프트웨어 아키텍트 및 프로그래머로 일하고 있다. 스프링 부트, 카프카, 엘라스틱서치 등 다양한 백엔드 기술 스택 및 효율적인 아키텍처에 관심이 많다. 《엘라스틱서치를 활용한 벡터 검색 실무 가이드》를 번역했다.



번역 박주경

삼성SDS 소프트웨어 아키텍트로, 다양한 기술과 아키텍처를 활용해 솔루션 품질을 향상하는 데에 관심이 있다. AWS SAA 자격을 보유하고 있으며, AWS를 활용한 여러 프로젝트를 수행했다.



번역 정유석

삼성SDS에서 소프트웨어 개발자로 근무 중이다. NLP와 NLG 관련 일을 시작으로 현재는 AWS 기반의 프롬프트 엔지니어링 업무를 수행하며, 파인 튜닝, 모델 평가 등 생성형 AI 관련 기술에 관심이 많다.



목차

▣ 01장: 생성형 AI 활용 사례, 기본 사항 및 프로젝트 생명 주기

활용 사례 및 작업

파운데이션 모델 및 모델 허브

생성형 AI 프로젝트의 생명 주기

AWS에서의 생성형 AI

AWS에서 생성형 AI를 사용하는 이유

AWS에서 생성형 AI 애플리케이션 구축하기

요약



▣ 02장: 프롬프트 엔지니어링과 콘텍스트 내 학습

프롬프트와 컴플리션

토큰

프롬프트 엔지니어링

프롬프트 구조

___인스트럭션

___콘텍스트

퓨샷 추론으로 콘텍스트 내 학습

___제로샷 추론

___원샷 추론

___퓨샷 추론

___콘텍스트 내 학습이 잘못된 사례

___콘텍스트 내 학습 모범 사례

프롬프트 엔지니어링 모범 사례

추론 구성 매개변수

요약



▣ 03장: 대형 언어 파운데이션 모델

대형 언어 파운데이션 모델

토크나이저

임베딩 벡터

트랜스포머 아키텍처

___입력과 콘텍스트 윈도

___임베딩 레이어

___인코더

___셀프 어텐션

___디코더

___소프트맥스 출력

트랜스포머 기반 파운데이션 모델 유형

사전 학습 데이터 세트

스케일링 법칙

컴퓨팅 최적화 모델

요약



▣ 04장: 메모리와 연산 최적화

메모리 문제

데이터 유형 및 수치 정밀도

양자화

___fp16

___bfloat16

___fp8

___int8

셀프 어텐션 레이어 최적화

___플래시 어텐션

___그룹 쿼리 어텐션

분산 컴퓨팅

___분산 데이터 병렬 처리

___완전 샤드 데이터 병렬 처리

___DDP와 FSDP의 성능 비교

AWS 분산 컴퓨팅

___아마존 세이지메이커로 완전 샤드 데이터 병렬 처리

___AWS 뉴런 SDK 및 AWS 트레이니엄

요약



▣ 05장: 미세 조정 및 평가

인스트럭션 기반 미세 조정

___Llama 2-Chat

___Falcon-Chat

___FLAN-T5

인스트럭션 데이터 세트

___다중작업 인스트럭션 데이터 세트

___FLAN: 다중작업 인스트럭션 데이터 세트 예제

___프롬프트 템플릿

___사용자 정의 데이터 세트를 인스트럭션 데이터 세트로 변환하기

인스트럭션 기반 미세 조정

___아마존 세이지메이커 스튜디오

___아마존 세이지메이커 점프스타트

___허깅 페이스용 아마존 세이지메이커 Estimator

평가

___평가 지표

___벤치마크 및 데이터 세트

요약



▣ 06장: 효율적인 매개변수 미세 조정(PEFT)

완전 미세 조정과 PEFT 비교

LoRA와 QLoRA

___LoRA 기본 원리

___순위

___목표 모듈과 레이어

___LoRA 적용

___LoRA 어댑터와 원본 모델 병합

___LoRA 어댑터 테넌트별 유지

___완전 미세 조정과 LoRA 성능 비교

___QLoRA

프롬프트 튜닝과 소프트 프롬프트

요약



▣ 07장: 인간 피드백을 통한 강화 학습으로 미세 조정

인간 가치 정렬(Human Alignment): 유용성, 정직성, 무해성

강화 학습 개요

맞춤형 보상 모델 학습하기

___휴먼인더루프를 활용한 학습 데이터 수집

___레이블러를 위한 지침 예시

___인간이 단 주석을 수집하기 위한 아마존 세이지메이커 그라운드 트루스 활용하기

___보상 모델을 학습하기 위한 순위 데이터 준비

___보상 모델 학습하기

기존 보상 모델: 메타의 유해성 판독기

인간 피드백을 통한 강화 학습으로 미세 조정

___RLHF에서 보상 모델 활용

___근접 정책 최적화 강화 학습 알고리즘

___PPO로 RLHF 미세 조정 수행

___보상 해킹 완화

___RLHF에서 효율적인 매개변수 미세 조정(PEFT) 활용

RLHF로 미세 조정 모델 평가

___정성적 평가

___정량적 평가

___평가 모델 가져오기

___평가 지표 집계 함수 정의

___RLHF 적용 전과 후 평가 지표 비교

요약



▣ 08장: 모델 배포 최적화

모델 추론 최적화

___가지치기

___GPTQ 사후 학습 양자화

___증류

대규모 모델 추론 컨테이너

AWS 인퍼런시아: 추론 전용 하드웨어

모델 업데이트와 배포 전략

___A/B 테스트

___섀도 배포

지표와 모니터링

오토스케일링

___오토스케일링 정책

___오토스케일링 정책 정의

요약



▣ 09장: RAG와 에이전트를 활용한 맥락 인식 추론 애플리케이션

대규모 언어 모델의 한계

___환각

___지식 단절

RAG

___외부 지식 소스

___RAG 워크플로

___문서 로딩

___청킹

___문서 검색과 순위 재정렬

___프롬프트 증강

RAG 오케스트레이션과 구현

___문서 로딩과 청킹

___벡터 임베딩 저장소와 검색

___검색 체인

___최대 한계 관련성(MMR)을 활용한 순위 재정렬

에이전트

___ReAct 프레임워크

___프로그램 지원 언어 프레임워크

생성형 AI 애플리케이션

FMOps: 생성형 AI 프로젝트의 생명 주기 운영

___실험 단계 고려 사항

___개발 단계 고려 사항

___운영 배포 단계 고려 사항

요약



▣ 10장: 멀티모달 파운데이션 모델

활용 사례

멀티모달 프롬프트 엔지니어링 활용 예시

이미지 생성과 품질 향상

___이미지 생성

___이미지 편집 및 품질 향상

인페인팅, 아웃페인팅, 뎁스 투 이미지

___인페인팅

___아웃페인팅

___뎁스 투 이미지

이미지 캡셔닝과 시각적 질의응답

___이미지 캡셔닝

___콘텐츠 조정

___시각적 질의응답

모델 평가

___텍스트-이미지 생성형 작업

___이미지-텍스트 생성형 작업

___비언어적 추론

확산 아키텍처 기본 사항

___순방향 확산

___역방향 확산

___U-Net

스테이블 디퓨전 2 아키텍처

___텍스트 인코더

___U-Net과 확산 과정

___텍스트 컨디셔닝

___교차 어텐션

___스케줄러

___이미지 디코더

스테이블 디퓨전 XL 아키텍처

___U-Net과 교차 어텐션

___정제기

___컨디셔닝

요약



▣ 11장: 스테이블 디퓨전을 통한 생성 제어와 미세 조정

ControlNet

미세 조정

___드림부스

___드림부스와 PEFT-LoRA

___Textual Inversion

인간 피드백을 통한 강화 학습으로 인간 가치 정렬

요약



▣ 12장: 아마존 베드록 - 생성형 AI 관리형 서비스

베드록 파운데이션 모델

___아마존 타이탄 파운데이션 모델

___Stability AI의 스테이블 디퓨전 파운데이션 모델

베드록 추론 API

대규모 언어 모델

___SQL 코드 생성

___텍스트 요약

___임베딩

미세 조정

에이전트

멀티모달 모델

___텍스트로 이미지 생성

___이미지로 이미지 생성

데이터 프라이버시와 네트워크 보안

거버넌스와 모니터링

요약



그럼 이상으로 AWS로 구현하는 생성형 AI LLM에서 멀티모달 모델까지, RAG, LoRA, RLHF를 활용한 AWS 기반 생성형 AI 구축 가이드 책 포스팅을 마치겠습니다.

AWS로 구현하는 생성형 AI LLM에서 멀티모달 모델까지, RAG, LoRA, RLHF를 활용한 AWS 기반 생성형 AI 구축 가이드 책 포스팅은 제휴마케팅이 포함되어있습니다.

#AWS, #AI, #LLM, #책, #강의, #강좌

LLM을 활용한 실전 AI 애플리케이션

LLM을 활용한 실전 AI 애플리케이션을

개발할 수 있는 책을 소개해드릴게요.

http://app.ac/Sqpop6243

 

LLM을 활용한 실전 AI 애플리케이션 개발 | 허정준 - 교보문고

LLM을 활용한 실전 AI 애플리케이션 개발 | 트랜스포머 아키텍처부터 RAG 개발, 모델 학습, 배포, 최적화, 운영까지 라마인덱스와 LLM을 활용한 AI 애플리케이션 개발의 모든 것이 책에서는 LLM의 기

product.kyobobook.co.kr

트랜스포머 아키텍처부터 RAG 개발, 모델 학습, 배포, 최적화, 운영까지

라마인덱스와 LLM을 활용한 AI 애플리케이션 개발의 모든 것

이 책에서는 LLM의 기본 아키텍처에서 출발해 애플리케이션의 요구사항에 맞춰 LLM을 길들이고 제한된 컴퓨팅 환경에서 동작하게 경량화해서 원활하게 서빙하게끔 기초를 다진 다음에 RAG라는 LLM의 대표적인 애플리케이션을 만드는 방법을 차근차근 설명한다. 여기서 끝나지 않고 실제 운영과정에서 부딪히는 어려움을 해소하는 방법과 멀티 모달과 더불어 에이전트와 같은 고급 주제까지 다룬다.

LLM 시대를 맞이하여 필수적으로 갖춰야 하는 개발 지식을 이론과 실무 양쪽 관점에서 설명하고 있으므로, 새로운 패러다임에 적응하고자 하는 개발자들에게 가뭄의 단비처럼 다가올 것이다.

저자(글) 허정준

인물정보

컴퓨터공학자

서울대학교 기계항공공학부를 졸업하고 롯데면세점 빅데이터팀 데이터 분석가를 거쳐 현재는 프리랜서 마켓 크몽에서 AI 엔지니어로 일하고 있다. 『파이토치 라이트닝으로 시작하는 딥러닝』을 번역했으며, 최근에는 LLM을 활용한 어시스턴트(에이전트) 개발에 관심이 많다.

일러스트 정진호

인물정보

최고경영자(CEO) 컴퓨터그래픽전문가

개발자 출신 화가, 작가, 일러스트레이터, 비주얼씽킹 전문가. 글로벌 인터넷 기업에서 엔지니어로 일했고, 독학으로 12년째 그림을 그리고 있다. 25권의 저서와 역서를 출간하고 9권의 도서 일러스트를 담당했다. 기업, 학교, 공공기관 등에서 다양한 시각화 관련 강의와 프로젝트를 수행하며 아날로그와 디지털을 넘나드는 창작 활동을 즐기고 있다. 복잡한 것을 단순하게, 어려운 것을 쉽게 만드는 과정에서 즐거움을 느낀다. 국내 최고령 일러스트레이터가 되는 소박한 꿈을 품고 매일 작업하고 있다.

작가의 말

이 글을 작성하는 2024년 7월 현재, AI와 LLM 시장의 키워드는 ‘멀티 모달(multi-modal), 에이전트(agent), 온디바이스(AIon-device AI)’라고 할 수 있습니다. 멀티 모달은 AI 모델이 텍스트뿐만 아니라 이미지, 음성, 동영상 등 다양한 형식의 데이터를 처리하는 것을 말하고, 에이전트는 AI 모델이 장기 기억을 가지고 인터넷 검색, 코드 실행 등 다양한 도구를 활용해 사용자의 문제를 해결하는 더 발전된 시스템을 말합니다. 온디바이스 AI는 AI 모델이 클라우드나 고성능의 서버에서 실행되는 것이 아니라 사용자의 장비에서 직접 실행되는 것을 말합니다. 사용자의 정보가 장비 외부로 나가지 않기 때문에 사용자가 개인정보의 유출을 걱정하지 않고 AI 모델을 활용할 수 있다는 장점이 있습니다. 이런 LLM 시장의 큰 흐름은 최근 AI 선두 기업들이 공개한 모델이나 프로젝트를 통해 확인할 수 있습니다.

2024년 5월, OpenAI는 보고 듣고 말할 수 있는 새로운 언어 모델인 GPT-4o를 공개했습니다. 하루 뒤에 구글 딥마인드는 거의 동일한 기능을 하는 멀티 모달 에이전트인 프로젝트 아스트라(Astra)를 공개했습니다. 2024년 6월, 앤트로픽(Anthropic)은 OpenAI의 GPT-4o를 뛰어넘는 클로드 3.5 소넷(Sonnet) 모델을 공개했습니다. 소넷은 앤트로픽의 중간 레벨의 모델명입니다. 따라서 앞으로 나올 고성능 모델인 클로드 3.5 오퍼스Opus가 얼마나 뛰어날지 기대하게 만듭니다.

2024년 6월, 애플은 자신들의 디바이스에서 동작하는 AI 기능을 통칭해 애플 인텔리전스(Apple Intelligence)라는 이름으로 발표했습니다. 챗GPT 공개 이후 애플이 AI 연구와 개발에 뚜렷한 움직임을 보이지 않아 많은 사람이 애플이 AI 시대에 주도권을 잃는 것이 아닌가 생각했습니다. 하지만 애플은 인공지능을 의미하는 AI를 애플 인텔리전스로도 읽을 수 있다는 도발적인 이름을 사용하며 자신감을 드러냈고 시장도 많은 기대감을 보이고 있습니다.

지금까지 언급한 핵심 키워드를 이해하기 위해서는 대규모 언어 모델(Large Language Model)을 포함한 최신 AI 모델 자체를 이해하고 AI 모델을 활용하는 방법에 대해 알아야 합니다.

이 책에서는 독자들이 최근의 AI 시장 흐름을 따라갈 수 있도록 모델 자체와 모델의 활용, 두 가지 측면을 모두 다룹니다. 책의 앞부분인 1부와 2부(1장~8장)는 LLM의 원리와 모델을 학습하는 방법, 추론하는 방법 등 모델 자체를 깊이 이해할 수 있도록 소개합니다. 책의 3부(9장~13장)는 LLM을 활용해 애플리케이션을 개발할 때 필요한 구성요소와 검색 증강 생성(Retrieval Augmented Generation, RAG)에 대해 알아봅니다. 마지막으로 4부(14장~16장)에서는 멀티 모달과 에이전트 그리고 새롭게 연구되는 LLM 아키텍처를 소개하며 LLM의 가까운 미래를 살펴볼 수 있는 개념을 소개합니다.

목차

[1부] LLM의 기초 뼈대 세우기

1장 LLM 지도

1.1 딥러닝과 언어 모델링

__1.1.1 데이터의 특징을 스스로 추출하는 딥러닝

__1.1.2 임베딩: 딥러닝 모델이 데이터를 표현하는 방식

__1.1.3 언어 모델링: 딥러닝 모델의 언어 학습법

1.2 언어 모델이 챗GPT가 되기까지

__1.2.1 RNN에서 트랜스포머 아키텍처로

__1.2.2 GPT 시리즈로 보는 모델 크기와 성능의 관계

__1.2.3 챗GPT의 등장

1.3 LLM 애플리케이션의 시대가 열리다

__1.3.1 지식 사용법을 획기적으로 바꾼 LLM

__1.3.2 sLLM: 더 작고 효율적인 모델 만들기

__1.3.3 더 효율적인 학습과 추론을 위한 기술

__1.3.4 LLM의 환각 현상을 대처하는 검색 증강 생성(RAG) 기술

1.4 LLM의 미래: 인식과 행동의 확장

1.5 정리

2장 LLM의 중추, 트랜스포머 아키텍처 살펴보기

2.1 트랜스포머 아키텍처란

2.2 텍스트를 임베딩으로 변환하기

__2.2.1 토큰화

__2.2.2 토큰 임베딩으로 변환하기

__2.2.3 위치 인코딩

2.3 어텐션 이해하기

__2.3.1 사람이 글을 읽는 방법과 어텐션

__2.3.2 쿼리, 키, 값 이해하기

__2.3.3 코드로 보는 어텐션

__2.3.4 멀티 헤드 어텐션

2.4 정규화와 피드 포워드 층

__2.4.1 층 정규화 이해하기

__2.4.2 피드 포워드 층

2.5 인코더

2.6 디코더

2.7 BERT, GPT, T5 등 트랜스포머를 활용한 아키텍처

__2.7.1 인코더를 활용한 BERT

__2.7.2 디코더를 활용한 GPT

__2.7.3 인코더와 디코더를 모두 사용하는 BART, T5

2.8 주요 사전 학습 메커니즘

__2.8.1 인과적 언어 모델링

__2.8.2 마스크 언어 모델링

2.9 정리

3장 트랜스포머 모델을 다루기 위한 허깅페이스 트랜스포머 라이브러리

3.1 허깅페이스 트랜스포머란

3.2 허깅페이스 허브 탐색하기

__3.2.1 모델 허브

__3.2.2 데이터셋 허브

__3.2.3 모델 데모를 공개하고 사용할 수 있는 스페이스

3.3 허깅페이스 라이브러리 사용법 익히기

__3.3.1 모델 활용하기

__3.3.2 토크나이저 활용하기

__3.3.3 데이터셋 활용하기

3.4 모델 학습시키기

__3.4.1 데이터 준비

__3.4.2 트레이너 API를 사용해 학습하기

__3.4.3 트레이너 API를 사용하지 않고 학습하기

__3.4.4 학습한 모델 업로드하기

3.5 모델 추론하기

__3.5.1 파이프라인을 활용한 추론

__3.5.2 직접 추론하기

3.6 정리

4장 말 잘 듣는 모델 만들기

4.1 코딩 테스트 통과하기: 사전 학습과 지도 미세 조정

__4.1.1 코딩 개념 익히기: LLM의 사전 학습

__4.1.2 연습문제 풀어보기: 지도 미세 조정

__4.1.3 좋은 지시 데이터셋이 갖춰야 할 조건

4.2 채점 모델로 코드 가독성 높이기

__4.2.1 선호 데이터셋을 사용한 채점 모델 만들기

__4.2.2 강화 학습: 높은 코드 가독성 점수를 향해

__4.2.3 PPO: 보상 해킹 피하기

__4.2.4 RLHF: 멋지지만 피할 수 있다면…

4.3 강화 학습이 꼭 필요할까?

__4.3.1 기각 샘플링: 단순히 가장 점수가 높은 데이터를 사용한다면?

__4.3.2 DPO: 선호 데이터셋을 직접 학습하기

__4.3.3 DPO를 사용해 학습한 모델들

4.4 정리

[2부 LLM 길들이기]

5장 GPU 효율적인 학습

5.1 GPU에 올라가는 데이터 살펴보기

__5.1.1 딥러닝 모델의 데이터 타입

__5.1.2 양자화로 모델 용량 줄이기

__5.1.3 GPU 메모리 분해하기

5.2 단일 GPU 효율적으로 활용하기

__5.2.1 그레이디언트 누적

__5.2.2 그레이디언트 체크포인팅

5.3 분산 학습과 ZeRO

__5.3.1 분산 학습

__5.3.2 데이터 병렬화에서 중복 저장 줄이기(ZeRO)

5.4 효율적인 학습 방법(PEFT): LoRA

__5.4.1 모델 파라미터의 일부만 재구성해 학습하는 LoRA

__5.4.2 LoRA 설정 살펴보기

__5.4.3 코드로 LoRA 학습 사용하기

5.5 효율적인 학습 방법(PEFT): QLoRA

__5.5.1 4비트 양자화와 2차 양자화

__5.5.2 페이지 옵티마이저

__5.5.3 코드로 QLoRA 모델 활용하기

5.6 정리

6장 sLLM 학습하기

6.1 Text2SQL 데이터셋

__6.1.1 대표적인 Text2SQL 데이터셋

__6.1.2 한국어 데이터셋

__6.1.3 합성 데이터 활용

6.2 성능 평가 파이프라인 준비하기

__6.2.1 Text2SQL 평가 방식

__6.2.2 평가 데이터셋 구축

__6.2.3 SQL 생성 프롬프트

__6.2.4 GPT-4 평가 프롬프트와 코드 준비

6.3 실습: 미세 조정 수행하기

__6.3.1 기초 모델 평가하기

__6.3.2 미세 조정 수행

__6.3.3 학습 데이터 정제와 미세 조정

__6.3.4 기초 모델 변경

__6.3.5 모델 성능 비교

6.4 정리

7장 모델 가볍게 만들기

7.1 언어 모델 추론 이해하기

__7.1.1 언어 모델이 언어를 생성하는 방법

__7.1.2 중복 연산을 줄이는 KV 캐시

__7.1.3 GPU 구조와 최적의 배치 크기

__7.1.4 KV 캐시 메모리 줄이기

7.2 양자화로 모델 용량 줄이기

__7.2.1 비츠앤바이츠

__7.2.2 GPTQ

__7.2.3 AWQ

7.3 지식 증류 활용하기

7.4 정리

8장 sLLM 서빙하기

8.1 효율적인 배치 전략

__8.1.1 일반 배치(정적 배치)

__8.1.2 동적 배치

__8.1.3 연속 배치

8.2 효율적인 트랜스포머 연산

__8.2.1 플래시어텐션

__8.2.2 플래시어텐션 2

__8.2.3 상대적 위치 인코딩

8.3 효율적인 추론 전략

__8.3.1 커널 퓨전

__8.3.2 페이지어텐션

__8.3.3 추측 디코딩

8.4 실습: LLM 서빙 프레임워크

__8.4.1 오프라인 서빙

__8.4.2 온라인 서빙

8.5 정리

[3부] LLM을 활용한 실전 애플리케이션 개발

9장 LLM 애플리케이션 개발하기

9.1 검색 증강 생성(RAG)

__9.1.1 데이터 저장

__9.1.2 프롬프트에 검색 결과 통합

__9.1.3 실습: 라마인덱스로 RAG 구현하기

9.2 LLM 캐시

__9.2.1 LLM 캐시 작동 원리

__9.2.2 실습: OpenAI API 캐시 구현

9.3 데이터 검증

__9.3.1 데이터 검증 방식

__9.3.2 데이터 검증 실습

9.4 데이터 로깅

__9.4.1 OpenAI API 로깅

__9.4.2 라마인덱스 로깅

9.5 정리

10장 임베딩 모델로 데이터 의미 압축하기

10.1 텍스트 임베딩 이해하기

__10.1.1 문장 임베딩 방식의 장점

__10.1.2 원핫 인코딩

__10.1.3 백오브워즈

__10.1.4 TF-IDF

__10.1.5 워드투벡

10.2 문장 임베딩 방식

__10.2.1 문장 사이의 관계를 계산하는 두 가지 방법

__10.2.2 바이 인코더 모델 구조

__10.2.3 Sentence-Transformers로 텍스트와 이미지 임베딩 생성해 보기

__10.2.4 오픈소스와 상업용 임베딩 모델 비교하기

10.3 실습: 의미 검색 구현하기

__10.3.1 의미 검색 구현하기

__10.3.2 라마인덱스에서 Sentence-Transformers 모델 사용하기

10.4 검색 방식을 조합해 성능 높이기

__10.4.1 키워드 검색 방식: BM25

__10.4.2 상호 순위 조합 이해하기

10.5 실습: 하이브리드 검색 구현하기

__10.5.1 BM25 구현하기

__10.5.2 상호 순위 조합 구현하기

__10.5.3 하이브리드 검색 구현하기

10.6 정리

11장 자신의 데이터에 맞춘 임베딩 모델 만들기: RAG 개선하기

11.1 검색 성능을 높이기 위한 두 가지 방법

11.2 언어 모델을 임베딩 모델로 만들기

__11.2.1 대조 학습

__11.2.2 실습: 학습 준비하기

__11.2.3 실습: 유사한 문장 데이터로 임베딩 모델 학습하기

11.3 임베딩 모델 미세 조정하기

__11.3.1 실습: 학습 준비

__11.3.2 MNR 손실을 활용해 미세 조정하기

11.4 검색 품질을 높이는 순위 재정렬

11.5 바이 인코더와 교차 인코더로 개선된 RAG 구현하기

__11.5.1 기본 임베딩 모델로 검색하기

__11.5.2 미세 조정한 임베딩 모델로 검색하기

__11.5.3 미세 조정한 임베딩 모델과 교차 인코더 조합하기

11.6 정리

12장 벡터 데이터베이스로 확장하기: RAG 구현하기

12.1 벡터 데이터베이스란

__12.1.1 딥러닝과 벡터 데이터베이스

__12.1.2 벡터 데이터베이스 지형 파악하기

12.2 벡터 데이터베이스 작동 원리

__12.2.1 KNN 검색과 그 한계

__12.2.2 ANN 검색이란

__12.2.3 탐색 가능한 작은 세계(NSW)

__12.2.4 계층 구조

12.3 실습: HNSW 인덱스의 핵심 파라미터 이해하기

__12.3.1 파라미터 m 이해하기

__12.3.2 파라미터 ef_construction 이해하기

__12.3.3 파라미터 ef_search 이해하기

12.4 실습: 파인콘으로 벡터 검색 구현하기

__12.4.1 파인콘 클라이언트 사용법

__12.4.2 라마인덱스에서 벡터 데이터베이스 변경하기

12.5 실습: 파인콘을 활용해 멀티 모달 검색 구현하기

__12.5.1 데이터셋

__12.5.2 실습 흐름

__12.5.3 GPT-4o로 이미지 설명 생성하기

__12.5.4 프롬프트 저장

__12.5.5 이미지 임베딩 검색

__12.5.6 DALL-E 3로 이미지 생성

12.6 정리

13장 LLM 운영하기

13.1 MLOps

__13.1.1 데이터 관리

__13.1.2 실험 관리

__13.1.3 모델 저장소

__13.1.4 모델 모니터링

13.2 LLMOps는 무엇이 다를까?

__13.2.1 상업용 모델과 오픈소스 모델 선택하기

__13.2.2 모델 최적화 방법의 변화

__13.2.3 LLM 평가의 어려움

13.3 LLM 평가하기

__13.3.1 정량적 지표

__13.3.2 벤치마크 데이터셋을 활용한 평가

__13.3.3 사람이 직접 평가하는 방식

__13.3.4 LLM을 통한 평가

__13.3.4 RAG 평가

13.4 정리

[4부] 멀티 모달, 에이전트 그리고 LLM의 미래

14장 멀티 모달

LLM 14.1 멀티 모달 LLM이란

__14.1.1 멀티 모달 LLM의 구성요소

__14.1.2 멀티 모달 LLM 학습 과정

14.2 이미지와 텍스트를 연결하는 모델: CLIP

__14.2.1 CLIP 모델이란

__14.2.2 CLIP 모델의 학습 방법

__14.2.3 CLIP 모델의 활용과 뛰어난 성능

__14.2.4 CLIP 모델 직접 활용하기

14.3 텍스트로 이미지를 생성하는 모델: DALL-E

__14.3.1 디퓨전 모델 원리

__14.3.2 DALL-E 모델

14.4 LLaVA

__14.4.1 LLaVA의 학습 데이터

__14.4.2 LLaVA 모델 구조

__14.4.3 LLaVA 1.5

__14.4.4 LLaVA NeXT

14.5 정리

15장 LLM 에이전트

15.1 에이전트란

__15.1.1 에이전트의 구성요소

__15.1.2 에이전트의 두뇌

__15.1.3 에이전트의 감각

__15.1.4 에이전트의 행동

15.2 에이전트 시스템의 형태

__15.2.1 단일 에이전트

__15.2.2 사용자와 에이전트의 상호작용

__15.2.3 멀티 에이전트

15.3 에이전트 평가하기

15.4 실습: 에이전트 구현

__15.4.1 AutoGen 기본 사용법

__15.4.2 RAG 에이전트

__15.4.3 멀티 모달 에이전트

15.5 정리

16장 새로운 아키텍처

16.1 기존 아키텍처의 장단점

16.2 SSM

__16.2.1 S4

16.3 선택 메커니즘

16.4 맘바

__16.4.1 맘바의 성능

__16.4.2 기존 아키텍처와의 비교

16.5 코드로 보는 맘바

부록 | 실습을 위한 준비사항

A.1 구글 코랩 사용법

A.2 허깅페이스 토큰

A.3 OpenAI 토큰

그럼 이상으로 LLM을 활용한 실전 AI 애플리케이션 개발 책소개 포스팅을 마치겠습니다.

LLM을 활용한 실전 AI 애플리케이션 개발 책소개 포스팅은 제휴마케팅이 포함되어있습니다.

#LLM, #AI, #애플리케이션, #개발, #책, #강의, #강좌

+ Recent posts