셔터스톡(Shutterstock)은 2003년에 설립된 글로벌 스톡 이미지 및 디지털 콘텐츠 플랫폼입니다. 주로 사진, 벡터, 일러스트, 동영상, 음악 등을 제공하며, 저작권 걱정 없이 상업적 및 비상업적 목적으로 사용할 수 있는 다양한 콘텐츠를 제공합니다. 다음은 셔터스톡의 주요 특징과 세부 사항입니다:
1. 콘텐츠 유형
이미지: 사진, 일러스트레이션, 벡터 이미지 등 4억 장 이상의 다양한 이미지 콘텐츠가 제공됩니다.
동영상: 영화, 광고, 온라인 콘텐츠 등에 활용할 수 있는 HD 및 4K 비디오 클립을 제공합니다.
음악: 광고, 영화, 게임, 유튜브 영상 등에 사용할 수 있는 저작권이 보장된 음원 라이브러리가 있습니다.
템플릿: 웹디자인, 마케팅 콘텐츠, 소셜 미디어 포스트 등에 활용할 수 있는 그래픽 디자인 템플릿을 제공합니다.
2. 라이선스
셔터스톡은 로열티 프리(Royalty-Free) 라이선스를 제공합니다. 이는 한 번 구매한 콘텐츠를 여러 프로젝트에서 추가 비용 없이 사용할 수 있다는 뜻입니다. 그러나 여전히 콘텐츠를 사용하는 방식에 따라 사용 범위가 다를 수 있으므로, 사용 전에 라이선스 세부 내용을 확인하는 것이 중요합니다.
기본 라이선스: 대부분의 상업 및 비상업적 사용을 허용하지만, 인쇄물의 경우 50만 부 이상 사용 시 추가 비용이 발생할 수 있습니다.
확장 라이선스: 상품화나 대규모 배포 프로젝트에 필요한 경우 확장 라이선스를 구입할 수 있습니다.
3. 구독 및 결제 모델
이미지 패키지: 필요에 따라 일정 수의 이미지를 다운로드할 수 있는 패키지를 구입할 수 있습니다.
월간 구독: 매달 특정 수의 이미지나 동영상을 다운로드할 수 있는 구독 모델을 제공합니다. 주로 대규모의 콘텐츠가 필요한 사용자에게 적합합니다.
맞춤형 솔루션: 기업 고객을 위한 맞춤형 요금제가 있으며, 대규모로 콘텐츠를 사용하는 경우 적합합니다.
4. 콘텐츠 기여자
셔터스톡은 전 세계 수십만 명의 크리에이터들이 자신의 콘텐츠를 업로드하고 판매할 수 있는 플랫폼입니다. 기여자는 자신이 제공하는 콘텐츠에 대해 다운로드 및 판매 횟수에 따라 수익을 받습니다.
5. AI 및 검색 기능
셔터스톡은 사용자의 검색 경험을 개선하기 위해 AI 기반 검색 기능을 제공합니다. 이미지 업로드를 통해 비슷한 이미지를 찾거나, 키워드 검색을 통해 정확한 콘텐츠를 쉽게 찾을 수 있습니다.
6. 창작 도구
셔터스톡은 단순히 콘텐츠 제공에 그치지 않고, 셔터스톡 에디터라는 도구를 통해 사용자가 이미지를 편집하고 소셜 미디어, 마케팅 자료 등을 쉽게 제작할 수 있는 기능을 제공합니다.
7. 기타 서비스
셔터스톡 스튜디오: 브랜드 콘텐츠 제작, 촬영 관리 및 편집 서비스까지 제공하는 프리미엄 솔루션.
API: 셔터스톡 API를 통해 기업이 자신의 애플리케이션이나 웹사이트에 셔터스톡 콘텐츠를 통합할 수 있습니다.
셔터스톡은 크리에이티브 산업에서 전 세계적으로 많이 사용되는 플랫폼으로, 다양한 프로젝트에 필요한 고품질의 콘텐츠를 신속하게 확보할 수 있는 도구로서 큰 역할을 합니다.
그럼 이상으로 이미지 동영상 ShutterStock 셔터스톡 10월 할인쿠폰 코드 포스팅을 마치겠습니다.
이미지 동영상 ShutterStock 셔터스톡 10월 할인쿠폰 코드 포스팅은 제휴마케팅이 포함되어있습니다.
ThinkPad: 주로 비즈니스 사용자들을 위한 노트북 라인으로, 내구성과 성능이 뛰어나고, 고급 보안 기능을 제공합니다.
IdeaPad: 일반 소비자용 노트북으로, 다양한 가격대와 사양을 갖춘 모델이 있습니다.
Legion: 게이머를 위한 고성능 게이밍 노트북 및 데스크톱 브랜드입니다.
Yoga: 2-in-1 노트북으로, 노트북과 태블릿 모드를 함께 사용할 수 있는 다목적 제품입니다.
레노버 노트북은 다양한 사용자 층을 타겟으로 한 여러 제품군을 제공하며, 전반적으로 품질과 성능이 뛰어나다는 평가를 받고 있습니다. 특히 레노버의 ThinkPad 시리즈는 비즈니스 사용자들에게 매우 인기 있으며, 내구성, 보안, 키보드 품질 등에서 높은 평가를 받습니다. 이 시리즈는 전통적으로 IBM 시절부터 개발되어 신뢰성이 높고, 엔터프라이즈용 노트북의 대표적인 모델로 자리 잡고 있습니다.
레노버의 IdeaPad 시리즈는 일반 소비자와 학생을 대상으로 하는 제품군으로, 다양한 가격대와 사양을 제공하여 가성비가 좋다는 평가를 받습니다. 특히 일상적인 작업과 멀티미디어 소비에 적합한 모델들이 많습니다.
또한, Legion 시리즈는 게이밍에 특화된 노트북으로, 고성능 그래픽 카드와 프로세서를 갖추고 있어 게임 성능에서 좋은 평가를 받고 있습니다. 게임용뿐만 아니라 그래픽 작업이나 영상 편집에도 적합한 성능을 제공합니다.
레노버 노트북의 장점으로는:
내구성: 특히 ThinkPad 시리즈는 군사 규격 테스트를 통과할 정도로 튼튼합니다. 좋은 키보드: 레노버는 키보드 품질로 유명하며, 타이핑 감이 좋습니다. 가성비: 다양한 가격대의 제품을 제공하며, 성능 대비 가격이 합리적입니다. 그러나 단점으로는 일부 모델에서 디자인이 보수적이라는 평을 받기도 하고, 낮은 가격대 제품에서는 고급 모델에 비해 성능이나 마감이 떨어질 수 있다는 지적도 있습니다.
종합적으로 볼 때, 레노버 노트북은 다양한 용도에 맞춰 선택할 수 있는 신뢰성 높은 브랜드입니다.
그럼 이상으로 Lenovo 레노버 노트북 10월 중복 할인쿠폰 코드포스팅을 마치겠습니다.
Lenovo 레노버 노트북 10월 중복 할인쿠폰 코드 포스팅은 제휴마케팅이 포함되어있습니다.
4. 사용 방법: 체크아웃 페이지에서 코드 적용 / Airmoney 사용 클릭 후 할인코드 입력
에어알로는 전세계 200개이상의 국가와 지역에서
현지 데이터를 제공하는 세계 최초 글로벌 이심 플랫폼이에요.
이심은 물리적 심카드가 필요 없기 때문에 매우 편리하게 사용할 수가 있습니다.
유럽 여행을 가게되면 여러나라를 여행하게 되는 경우가 있어요.
이런 경우에는 개별 국가에서 사용이 가능한 이심을 구매하기보다는
여러나라에서 사용할 수 있는 유럽 이심을 구매하는 것을 추천드려요.
에어알로(Airalo)는 해외여행을 위한 eSIM(이심) 서비스로, 전 세계 200개 이상의 국가에서 사용할 수 있는 데이터 플랜을 제공합니다. 에어알로를 사용하면 기존 유심을 교체할 필요 없이 eSIM을 추가해 데이터를 사용할 수 있습니다.
에어알로의 사용법은 간단합니다. 앱에서 여행할 국가에 맞는 eSIM을 구매한 후, QR 코드를 통해 eSIM을 설치합니다. 설치가 완료되면 현지 네트워크에 연결해 데이터를 사용할 수 있으며, 앱을 통해 사용량을 확인하거나 추가 구매도 가능합니다. 플랜은 1GB부터 10GB까지 다양한 용량으로 제공되며, 대륙별이나 전 세계에서 사용할 수 있는 플랜도 있습니다.
설치 과정에서 중요한 점은 인터넷 연결이 원활해야 하며, eSIM은 한 번만 설치 가능하므로 삭제할 경우 복구가 불가능하다는 점입니다. 설치 후에는 데이터 로밍을 켜야 현지 네트워크에 연결됩니다
에어알로는 사용하기 간편하고, 한국에서 미리 구입해 두면 현지에서 즉시 데이터를 사용할 수 있어 여행자들에게 유용한 선택입니다
그럼 이상으로 airalo 글로벌 eSIM 이심 플랫폼 에어알로 10월 할인쿠폰 포스팅을 마치겠습니다.
airalo 글로벌 eSIM 이심 플랫폼 에어알로 10월 할인쿠폰 포스팅은 제휴마케팅이 포함되어있습니다.
이 책에서는 LLM의 기본 아키텍처에서 출발해 애플리케이션의 요구사항에 맞춰 LLM을 길들이고 제한된 컴퓨팅 환경에서 동작하게 경량화해서 원활하게 서빙하게끔 기초를 다진 다음에 RAG라는 LLM의 대표적인 애플리케이션을 만드는 방법을 차근차근 설명한다. 여기서 끝나지 않고 실제 운영과정에서 부딪히는 어려움을 해소하는 방법과 멀티 모달과 더불어 에이전트와 같은 고급 주제까지 다룬다.
LLM 시대를 맞이하여 필수적으로 갖춰야 하는 개발 지식을 이론과 실무 양쪽 관점에서 설명하고 있으므로, 새로운 패러다임에 적응하고자 하는 개발자들에게 가뭄의 단비처럼 다가올 것이다.
저자(글) 허정준
인물정보
컴퓨터공학자
서울대학교 기계항공공학부를 졸업하고 롯데면세점 빅데이터팀 데이터 분석가를 거쳐 현재는 프리랜서 마켓 크몽에서 AI 엔지니어로 일하고 있다. 『파이토치 라이트닝으로 시작하는 딥러닝』을 번역했으며, 최근에는 LLM을 활용한 어시스턴트(에이전트) 개발에 관심이 많다.
일러스트 정진호
인물정보
최고경영자(CEO) 컴퓨터그래픽전문가
개발자 출신 화가, 작가, 일러스트레이터, 비주얼씽킹 전문가. 글로벌 인터넷 기업에서 엔지니어로 일했고, 독학으로 12년째 그림을 그리고 있다. 25권의 저서와 역서를 출간하고 9권의 도서 일러스트를 담당했다. 기업, 학교, 공공기관 등에서 다양한 시각화 관련 강의와 프로젝트를 수행하며 아날로그와 디지털을 넘나드는 창작 활동을 즐기고 있다. 복잡한 것을 단순하게, 어려운 것을 쉽게 만드는 과정에서 즐거움을 느낀다. 국내 최고령 일러스트레이터가 되는 소박한 꿈을 품고 매일 작업하고 있다.
작가의 말
이 글을 작성하는 2024년 7월 현재, AI와 LLM 시장의 키워드는 ‘멀티 모달(multi-modal), 에이전트(agent), 온디바이스(AIon-device AI)’라고 할 수 있습니다. 멀티 모달은 AI 모델이 텍스트뿐만 아니라 이미지, 음성, 동영상 등 다양한 형식의 데이터를 처리하는 것을 말하고, 에이전트는 AI 모델이 장기 기억을 가지고 인터넷 검색, 코드 실행 등 다양한 도구를 활용해 사용자의 문제를 해결하는 더 발전된 시스템을 말합니다. 온디바이스 AI는 AI 모델이 클라우드나 고성능의 서버에서 실행되는 것이 아니라 사용자의 장비에서 직접 실행되는 것을 말합니다. 사용자의 정보가 장비 외부로 나가지 않기 때문에 사용자가 개인정보의 유출을 걱정하지 않고 AI 모델을 활용할 수 있다는 장점이 있습니다. 이런 LLM 시장의 큰 흐름은 최근 AI 선두 기업들이 공개한 모델이나 프로젝트를 통해 확인할 수 있습니다.
2024년 5월, OpenAI는 보고 듣고 말할 수 있는 새로운 언어 모델인 GPT-4o를 공개했습니다. 하루 뒤에 구글 딥마인드는 거의 동일한 기능을 하는 멀티 모달 에이전트인 프로젝트 아스트라(Astra)를 공개했습니다. 2024년 6월, 앤트로픽(Anthropic)은 OpenAI의 GPT-4o를 뛰어넘는 클로드 3.5 소넷(Sonnet) 모델을 공개했습니다. 소넷은 앤트로픽의 중간 레벨의 모델명입니다. 따라서 앞으로 나올 고성능 모델인 클로드 3.5 오퍼스Opus가 얼마나 뛰어날지 기대하게 만듭니다.
2024년 6월, 애플은 자신들의 디바이스에서 동작하는 AI 기능을 통칭해 애플 인텔리전스(Apple Intelligence)라는 이름으로 발표했습니다. 챗GPT 공개 이후 애플이 AI 연구와 개발에 뚜렷한 움직임을 보이지 않아 많은 사람이 애플이 AI 시대에 주도권을 잃는 것이 아닌가 생각했습니다. 하지만 애플은 인공지능을 의미하는 AI를 애플 인텔리전스로도 읽을 수 있다는 도발적인 이름을 사용하며 자신감을 드러냈고 시장도 많은 기대감을 보이고 있습니다.
지금까지 언급한 핵심 키워드를 이해하기 위해서는 대규모 언어 모델(Large Language Model)을 포함한 최신 AI 모델 자체를 이해하고 AI 모델을 활용하는 방법에 대해 알아야 합니다.
이 책에서는 독자들이 최근의 AI 시장 흐름을 따라갈 수 있도록 모델 자체와 모델의 활용, 두 가지 측면을 모두 다룹니다. 책의 앞부분인 1부와 2부(1장~8장)는 LLM의 원리와 모델을 학습하는 방법, 추론하는 방법 등 모델 자체를 깊이 이해할 수 있도록 소개합니다. 책의 3부(9장~13장)는 LLM을 활용해 애플리케이션을 개발할 때 필요한 구성요소와 검색 증강 생성(Retrieval Augmented Generation, RAG)에 대해 알아봅니다. 마지막으로 4부(14장~16장)에서는 멀티 모달과 에이전트 그리고 새롭게 연구되는 LLM 아키텍처를 소개하며 LLM의 가까운 미래를 살펴볼 수 있는 개념을 소개합니다.
목차
[1부] LLM의 기초 뼈대 세우기
1장 LLM 지도
1.1 딥러닝과 언어 모델링
__1.1.1 데이터의 특징을 스스로 추출하는 딥러닝
__1.1.2 임베딩: 딥러닝 모델이 데이터를 표현하는 방식
__1.1.3 언어 모델링: 딥러닝 모델의 언어 학습법
1.2 언어 모델이 챗GPT가 되기까지
__1.2.1 RNN에서 트랜스포머 아키텍처로
__1.2.2 GPT 시리즈로 보는 모델 크기와 성능의 관계
__1.2.3 챗GPT의 등장
1.3 LLM 애플리케이션의 시대가 열리다
__1.3.1 지식 사용법을 획기적으로 바꾼 LLM
__1.3.2 sLLM: 더 작고 효율적인 모델 만들기
__1.3.3 더 효율적인 학습과 추론을 위한 기술
__1.3.4 LLM의 환각 현상을 대처하는 검색 증강 생성(RAG) 기술
1.4 LLM의 미래: 인식과 행동의 확장
1.5 정리
2장 LLM의 중추, 트랜스포머 아키텍처 살펴보기
2.1 트랜스포머 아키텍처란
2.2 텍스트를 임베딩으로 변환하기
__2.2.1 토큰화
__2.2.2 토큰 임베딩으로 변환하기
__2.2.3 위치 인코딩
2.3 어텐션 이해하기
__2.3.1 사람이 글을 읽는 방법과 어텐션
__2.3.2 쿼리, 키, 값 이해하기
__2.3.3 코드로 보는 어텐션
__2.3.4 멀티 헤드 어텐션
2.4 정규화와 피드 포워드 층
__2.4.1 층 정규화 이해하기
__2.4.2 피드 포워드 층
2.5 인코더
2.6 디코더
2.7 BERT, GPT, T5 등 트랜스포머를 활용한 아키텍처
__2.7.1 인코더를 활용한 BERT
__2.7.2 디코더를 활용한 GPT
__2.7.3 인코더와 디코더를 모두 사용하는 BART, T5
2.8 주요 사전 학습 메커니즘
__2.8.1 인과적 언어 모델링
__2.8.2 마스크 언어 모델링
2.9 정리
3장 트랜스포머 모델을 다루기 위한 허깅페이스 트랜스포머 라이브러리
3.1 허깅페이스 트랜스포머란
3.2 허깅페이스 허브 탐색하기
__3.2.1 모델 허브
__3.2.2 데이터셋 허브
__3.2.3 모델 데모를 공개하고 사용할 수 있는 스페이스
3.3 허깅페이스 라이브러리 사용법 익히기
__3.3.1 모델 활용하기
__3.3.2 토크나이저 활용하기
__3.3.3 데이터셋 활용하기
3.4 모델 학습시키기
__3.4.1 데이터 준비
__3.4.2 트레이너 API를 사용해 학습하기
__3.4.3 트레이너 API를 사용하지 않고 학습하기
__3.4.4 학습한 모델 업로드하기
3.5 모델 추론하기
__3.5.1 파이프라인을 활용한 추론
__3.5.2 직접 추론하기
3.6 정리
4장 말 잘 듣는 모델 만들기
4.1 코딩 테스트 통과하기: 사전 학습과 지도 미세 조정
__4.1.1 코딩 개념 익히기: LLM의 사전 학습
__4.1.2 연습문제 풀어보기: 지도 미세 조정
__4.1.3 좋은 지시 데이터셋이 갖춰야 할 조건
4.2 채점 모델로 코드 가독성 높이기
__4.2.1 선호 데이터셋을 사용한 채점 모델 만들기
__4.2.2 강화 학습: 높은 코드 가독성 점수를 향해
__4.2.3 PPO: 보상 해킹 피하기
__4.2.4 RLHF: 멋지지만 피할 수 있다면…
4.3 강화 학습이 꼭 필요할까?
__4.3.1 기각 샘플링: 단순히 가장 점수가 높은 데이터를 사용한다면?
__4.3.2 DPO: 선호 데이터셋을 직접 학습하기
__4.3.3 DPO를 사용해 학습한 모델들
4.4 정리
[2부 LLM 길들이기]
5장 GPU 효율적인 학습
5.1 GPU에 올라가는 데이터 살펴보기
__5.1.1 딥러닝 모델의 데이터 타입
__5.1.2 양자화로 모델 용량 줄이기
__5.1.3 GPU 메모리 분해하기
5.2 단일 GPU 효율적으로 활용하기
__5.2.1 그레이디언트 누적
__5.2.2 그레이디언트 체크포인팅
5.3 분산 학습과 ZeRO
__5.3.1 분산 학습
__5.3.2 데이터 병렬화에서 중복 저장 줄이기(ZeRO)
5.4 효율적인 학습 방법(PEFT): LoRA
__5.4.1 모델 파라미터의 일부만 재구성해 학습하는 LoRA
__5.4.2 LoRA 설정 살펴보기
__5.4.3 코드로 LoRA 학습 사용하기
5.5 효율적인 학습 방법(PEFT): QLoRA
__5.5.1 4비트 양자화와 2차 양자화
__5.5.2 페이지 옵티마이저
__5.5.3 코드로 QLoRA 모델 활용하기
5.6 정리
6장 sLLM 학습하기
6.1 Text2SQL 데이터셋
__6.1.1 대표적인 Text2SQL 데이터셋
__6.1.2 한국어 데이터셋
__6.1.3 합성 데이터 활용
6.2 성능 평가 파이프라인 준비하기
__6.2.1 Text2SQL 평가 방식
__6.2.2 평가 데이터셋 구축
__6.2.3 SQL 생성 프롬프트
__6.2.4 GPT-4 평가 프롬프트와 코드 준비
6.3 실습: 미세 조정 수행하기
__6.3.1 기초 모델 평가하기
__6.3.2 미세 조정 수행
__6.3.3 학습 데이터 정제와 미세 조정
__6.3.4 기초 모델 변경
__6.3.5 모델 성능 비교
6.4 정리
7장 모델 가볍게 만들기
7.1 언어 모델 추론 이해하기
__7.1.1 언어 모델이 언어를 생성하는 방법
__7.1.2 중복 연산을 줄이는 KV 캐시
__7.1.3 GPU 구조와 최적의 배치 크기
__7.1.4 KV 캐시 메모리 줄이기
7.2 양자화로 모델 용량 줄이기
__7.2.1 비츠앤바이츠
__7.2.2 GPTQ
__7.2.3 AWQ
7.3 지식 증류 활용하기
7.4 정리
8장 sLLM 서빙하기
8.1 효율적인 배치 전략
__8.1.1 일반 배치(정적 배치)
__8.1.2 동적 배치
__8.1.3 연속 배치
8.2 효율적인 트랜스포머 연산
__8.2.1 플래시어텐션
__8.2.2 플래시어텐션 2
__8.2.3 상대적 위치 인코딩
8.3 효율적인 추론 전략
__8.3.1 커널 퓨전
__8.3.2 페이지어텐션
__8.3.3 추측 디코딩
8.4 실습: LLM 서빙 프레임워크
__8.4.1 오프라인 서빙
__8.4.2 온라인 서빙
8.5 정리
[3부] LLM을 활용한 실전 애플리케이션 개발
9장 LLM 애플리케이션 개발하기
9.1 검색 증강 생성(RAG)
__9.1.1 데이터 저장
__9.1.2 프롬프트에 검색 결과 통합
__9.1.3 실습: 라마인덱스로 RAG 구현하기
9.2 LLM 캐시
__9.2.1 LLM 캐시 작동 원리
__9.2.2 실습: OpenAI API 캐시 구현
9.3 데이터 검증
__9.3.1 데이터 검증 방식
__9.3.2 데이터 검증 실습
9.4 데이터 로깅
__9.4.1 OpenAI API 로깅
__9.4.2 라마인덱스 로깅
9.5 정리
10장 임베딩 모델로 데이터 의미 압축하기
10.1 텍스트 임베딩 이해하기
__10.1.1 문장 임베딩 방식의 장점
__10.1.2 원핫 인코딩
__10.1.3 백오브워즈
__10.1.4 TF-IDF
__10.1.5 워드투벡
10.2 문장 임베딩 방식
__10.2.1 문장 사이의 관계를 계산하는 두 가지 방법
__10.2.2 바이 인코더 모델 구조
__10.2.3 Sentence-Transformers로 텍스트와 이미지 임베딩 생성해 보기
__10.2.4 오픈소스와 상업용 임베딩 모델 비교하기
10.3 실습: 의미 검색 구현하기
__10.3.1 의미 검색 구현하기
__10.3.2 라마인덱스에서 Sentence-Transformers 모델 사용하기
10.4 검색 방식을 조합해 성능 높이기
__10.4.1 키워드 검색 방식: BM25
__10.4.2 상호 순위 조합 이해하기
10.5 실습: 하이브리드 검색 구현하기
__10.5.1 BM25 구현하기
__10.5.2 상호 순위 조합 구현하기
__10.5.3 하이브리드 검색 구현하기
10.6 정리
11장 자신의 데이터에 맞춘 임베딩 모델 만들기: RAG 개선하기
11.1 검색 성능을 높이기 위한 두 가지 방법
11.2 언어 모델을 임베딩 모델로 만들기
__11.2.1 대조 학습
__11.2.2 실습: 학습 준비하기
__11.2.3 실습: 유사한 문장 데이터로 임베딩 모델 학습하기
11.3 임베딩 모델 미세 조정하기
__11.3.1 실습: 학습 준비
__11.3.2 MNR 손실을 활용해 미세 조정하기
11.4 검색 품질을 높이는 순위 재정렬
11.5 바이 인코더와 교차 인코더로 개선된 RAG 구현하기
__11.5.1 기본 임베딩 모델로 검색하기
__11.5.2 미세 조정한 임베딩 모델로 검색하기
__11.5.3 미세 조정한 임베딩 모델과 교차 인코더 조합하기
11.6 정리
12장 벡터 데이터베이스로 확장하기: RAG 구현하기
12.1 벡터 데이터베이스란
__12.1.1 딥러닝과 벡터 데이터베이스
__12.1.2 벡터 데이터베이스 지형 파악하기
12.2 벡터 데이터베이스 작동 원리
__12.2.1 KNN 검색과 그 한계
__12.2.2 ANN 검색이란
__12.2.3 탐색 가능한 작은 세계(NSW)
__12.2.4 계층 구조
12.3 실습: HNSW 인덱스의 핵심 파라미터 이해하기
__12.3.1 파라미터 m 이해하기
__12.3.2 파라미터 ef_construction 이해하기
__12.3.3 파라미터 ef_search 이해하기
12.4 실습: 파인콘으로 벡터 검색 구현하기
__12.4.1 파인콘 클라이언트 사용법
__12.4.2 라마인덱스에서 벡터 데이터베이스 변경하기
12.5 실습: 파인콘을 활용해 멀티 모달 검색 구현하기
__12.5.1 데이터셋
__12.5.2 실습 흐름
__12.5.3 GPT-4o로 이미지 설명 생성하기
__12.5.4 프롬프트 저장
__12.5.5 이미지 임베딩 검색
__12.5.6 DALL-E 3로 이미지 생성
12.6 정리
13장 LLM 운영하기
13.1 MLOps
__13.1.1 데이터 관리
__13.1.2 실험 관리
__13.1.3 모델 저장소
__13.1.4 모델 모니터링
13.2 LLMOps는 무엇이 다를까?
__13.2.1 상업용 모델과 오픈소스 모델 선택하기
__13.2.2 모델 최적화 방법의 변화
__13.2.3 LLM 평가의 어려움
13.3 LLM 평가하기
__13.3.1 정량적 지표
__13.3.2 벤치마크 데이터셋을 활용한 평가
__13.3.3 사람이 직접 평가하는 방식
__13.3.4 LLM을 통한 평가
__13.3.4 RAG 평가
13.4 정리
[4부] 멀티 모달, 에이전트 그리고 LLM의 미래
14장 멀티 모달
LLM 14.1 멀티 모달 LLM이란
__14.1.1 멀티 모달 LLM의 구성요소
__14.1.2 멀티 모달 LLM 학습 과정
14.2 이미지와 텍스트를 연결하는 모델: CLIP
__14.2.1 CLIP 모델이란
__14.2.2 CLIP 모델의 학습 방법
__14.2.3 CLIP 모델의 활용과 뛰어난 성능
__14.2.4 CLIP 모델 직접 활용하기
14.3 텍스트로 이미지를 생성하는 모델: DALL-E
__14.3.1 디퓨전 모델 원리
__14.3.2 DALL-E 모델
14.4 LLaVA
__14.4.1 LLaVA의 학습 데이터
__14.4.2 LLaVA 모델 구조
__14.4.3 LLaVA 1.5
__14.4.4 LLaVA NeXT
14.5 정리
15장 LLM 에이전트
15.1 에이전트란
__15.1.1 에이전트의 구성요소
__15.1.2 에이전트의 두뇌
__15.1.3 에이전트의 감각
__15.1.4 에이전트의 행동
15.2 에이전트 시스템의 형태
__15.2.1 단일 에이전트
__15.2.2 사용자와 에이전트의 상호작용
__15.2.3 멀티 에이전트
15.3 에이전트 평가하기
15.4 실습: 에이전트 구현
__15.4.1 AutoGen 기본 사용법
__15.4.2 RAG 에이전트
__15.4.3 멀티 모달 에이전트
15.5 정리
16장 새로운 아키텍처
16.1 기존 아키텍처의 장단점
16.2 SSM
__16.2.1 S4
16.3 선택 메커니즘
16.4 맘바
__16.4.1 맘바의 성능
__16.4.2 기존 아키텍처와의 비교
16.5 코드로 보는 맘바
부록 | 실습을 위한 준비사항
A.1 구글 코랩 사용법
A.2 허깅페이스 토큰
A.3 OpenAI 토큰
그럼 이상으로 LLM을 활용한 실전 AI 애플리케이션 개발 책소개 포스팅을 마치겠습니다.
LLM을 활용한 실전 AI 애플리케이션 개발 책소개 포스팅은 제휴마케팅이 포함되어있습니다.
허깅페이스는 현대 딥러닝 분야, 특히 자연어 처리와 컴퓨터 비전 영역에서 널리 사용되는 강력한 도구입니다. 이 책은 허깅페이스를 활용하여 다양한 딥러닝 프로젝트를 구축하는 방법을 상세히 다룹니다. 트랜스포머 모델의 기본 개념부터 시작하여 자연어 처리, 컴퓨터비전, 멀티모달까지 폭넓은 주제를 다루며, 실제 프로젝트 구현을 통해 실용적인 지식을 제공합니다.
이 책은 허깅페이스를 활용해 모델 설정, 토크나이저 사용, 데이터세트 처리, 모델 학습 및 평가 등 프로젝트 전 과정을 상세히 다룹니다. 또한 최신 모델인 BERT, BART, RoBERTa, T5, LLaMA-3.1 등을 활용한 다양한 자연어 처리 모델과 CLIP, OWLv2, SAM 등을 이용한 컴퓨터 비전 모델, 그리고 BLIP-2, LayoutLM, ViLT, Stable-diffusion 등의 멀티모달 모델을 실습합니다.
허깅페이스를 이용해 최신 딥러닝 기술을 실제 프로젝트에 적용하고자 하는 개발자, 연구자, 그리고 데이터 사이언티스트 모두에게 강력하게 이 책을 추천합니다!
★ 이 책에서 다루는 내용 ★
◎ 허깅페이스 이해 및 활용 방법
◎ 트랜스포머 모델의 구조와 작동 원리 이해
◎ 허깅페이스 허브와 리포지터리를 활용한 모델 공유 및 관리
◎ 허깅페이스 트랜스포머 라이브러리를 이용한 모델 설정, 학습, 평가
◎ 자연어 처리 프로젝트(텍스트 분류, 요약, 질의 응답, 기계 번역, 텍스트 생성) 실습
◎ 컴퓨터비전 프로젝트(이미지 분류, 객체 검출, 이미지 세그먼테이션) 실습
◎ 멀티모달 프로젝트(이미지 캡셔닝, 문서 질의 응답, 시각적 질의 응답, 이미지 생성) 실습
◎ 고급 기능(이미지 매칭, 하이퍼파라미터 최적화, 모델 양자화, 분산 학습) 실습
작가정보
저자(글) 윤대희
카카오스타일의 데이터사이언스 팀 리더로 현재 데이터 리터러시, 데이터 패브릭, MLOps 프로젝트를 진행하고 있다. 이전에는 어반베이스의 머신러닝 팀 리더를 맡아 컴퓨터비전과 딥러닝을 활용해 2D 도면을 3D로 변환하는 프로젝트를 수행했다. 머신러닝·딥러닝을 비롯해 데이터 품질 관리, 데이터 통합, 비즈니스 인텔리전스 등 데이터 통합에 관심이 있으며, 기술 공유 및 확장 플러그인 배포 등으로 개인이나 조직이 기술을 보다 쉽게 이용하고 활용할 수 있도록 도움을 주고 있다.
저자(글) 김동화
고려대학교에서 산업경영공학 박사 학위를 취득했다. 데이터 기반으로 제조, IT, 금융 분야에서 발생하는 다양한 기술적 문제를 해결했으며, 머신러닝·딥러닝 분야에 총 6편의 SCI 논문을 게재했다. 카카오스타일에서 컴퓨터비전과 딥러닝을 담당했으며 패션 속성 추출, 유사 이미지 추천 및 코디 추천을 수행했다. 현재는 우아한형제들에서 다양한 푸드/이커머스 플랫폼 과제를 진행하고 있다. 컴퓨터비전, 자연어 처리, 멀티모달 학습을 연구하고 활용하는 데 관심이 있다.
목차
▣ 01장: 허깅페이스 알아보기
1.1 인공지능과 허깅페이스
___1.1.1 머신러닝과 딥러닝
___1.1.2 딥러닝을 위한 허깅페이스
1.2 트랜스포머
___1.2.1 트랜스포머 모델 구조
___1.2.2 멀티 헤드 어텐션
___1.2.3 마스크드 멀티 헤드 어텐션
1.3 파이토치 설치 및 환경 설정
___1.3.1 윈도우 / 리눅스
___1.3.2 리눅스(ROCm)
___1.3.3 맥
___1.3.4 구글 코랩
1.4 허깅페이스 허브
___1.4.1 허깅페이스 알아보기
___1.4.2 Models 페이지 알아보기
___1.4.3 사전 학습된 모델 다운로드
1.5 허깅페이스 리포지터리
___1.5.1 모델 리포지터리 생성
___1.5.2 모델 파일 업로드
___1.5.3 push_to_hub 메서드를 통한 업로드
___1.5.4 Git을 통한 업로드
▣ 02장: 허깅페이스 트랜스포머
2.1 라이브러리 소개
___2.1.1 트랜스포머
___2.1.2 토크나이저
___2.1.3 데이터세트
___2.1.4 디퓨저
___2.1.5 가속화
2.2 모델 설정
___2.2.1 PretrainedConfig 클래스
___2.2.2 ModelConfig 클래스
2.3 토크나이저
___2.3.1 PreTrainedTokenizer 클래스
___2.3.2 ModelTokenizer 클래스
2.4 모델
___2.4.1 PreTrainedModel 클래스
___2.4.2 ModelModel 클래스
2.5 특징 추출
___2.5.1 ImageFeatureExtractor 클래스
___2.5.2 AudioFeatureExtractor 클래스
2.6 이미지 프로세서
___2.6.1 ImageProcessor 클래스
2.7 오토 클래스
___2.7.1 주요 Auto 클래스
2.8 파이프라인
___2.8.1 파이프라인 종류와 예시
___2.8.2 pipeline 함수
2.9 데이터세트
___2.9.1 선택, 분리, 병합
___2.9.2 필터 및 맵
___2.9.3 기타 메서드
___2.9.4 데이터 업로드
2.10 트레이너
___2.10.1 트레이너 클래스
___2.10.2 트레이닝 아규먼트
___2.10.3 토큰 분류 - 개체명 인식
2.11 모델 평가
___2.11.1 평가 라이브러리
▣ 03장: 자연어 처리
3.1 텍스트 분류: BERT
___3.1.1 BERT
___3.1.2 BertTokenizer
___3.1.3 BertModel
___3.1.4 텍스트 분류 모델 학습
3.2 요약문 생성: BART
___3.2.1 BART
___3.2.2 BartTokenizer
___3.2.3 BartModel
___3.2.4 요약문 생성 모델 학습
3.3 질의 응답: RoBERTa
___3.3.1 RoBERTa
___3.3.2 추출 질의 응답 모델 학습
3.4 기계 번역: T5
___3.4.1 T5
___3.4.2 기계 번역 모델 학습
3.5 텍스트 생성: LLaMA-3.1
___3.5.1 LLaMA-3 시리즈
___3.5.2 텍스트 생성 모델 실습
___3.5.3 텍스트 생성 모델 학습
▣ 04장: 컴퓨터비전
4.1 제로샷 이미지 분류: CLIP
___4.1.1 CLIP
___4.1.2 제로샷 이미지 분류 수행
4.2 제로샷 객체 검출: OWLv2
___4.2.1 OWLv2
___4.2.2 제로샷 객체 검출 수행
4.3 이미지 세그먼테이션: SAM
___4.3.1 SAM
___4.3.2 이미지 세그먼테이션 수행
▣ 05장: 멀티모달
5.1 이미지 캡셔닝: BLIP-2
___5.1.1 BLIP
___5.1.2 이미지 캡셔닝 수행
5.2 문서 질의 응답: LayoutLM
___5.2.1 LayoutLM
___5.2.2 문서 시각 질의 응답 수행
5.3 시각적 질의 응답: ViLT
___5.3.1 ViLT
___5.3.2 시각적 질의 응답 수행
5.4 이미지 생성: Stable-Diffusion
___5.4.1 확산 모델
___5.4.2 Stable-Diffusion 3
___5.4.3 이미지 생성 수행
▣ 부록A: 이미지 매칭
A.1 이미지 특징 벡터
A.2 FAISS
A.3 인덱스 유형
▣ 부록B: 레이 튠
B.1 하이퍼파라미터 최적화 수행
B.2 하이퍼파라미터 최적화 결과 비교
B.3 하이퍼파라미터 검색 알고리즘
▣ 부록C: GPTQ
C.1 GPTQConfig 클래스
C.2 모델 양자화
▣ 부록D: 가속화
D.1 Accelerator 클래스
D.2 모델 분산 학습 수행
그럼 이상으로 딥러닝 프로젝트를 위한 허깅페이스 실전 가이드 책소개 포스팅을 마치겠습니다.
딥러닝 프로젝트를 위한 허깅페이스 실전 가이드 책소개 포스팅은 제휴마케팅이 포함되어있습니다.
2023년은 많은 이들에게 AI라는 거대한 가능성을 발견한 해였습니다. 예술과 디자인, 창작의 모든 영역에서 AI가 어떻게 활용될 수 있는지에 대한 탐구가 활발히 이루어졌고, 그 잠재력에 대한 기대가 어느 때보다도 높아졌습니다. 2024년은 그 가능성을 단순히 인식하는 단계를 넘어, 실제로 활용하여 창작의 새로운 지평을 열어가는 해가 되어야 합니다. AI는 이제 창작의 여정에서 필수적인 동반자로 자리잡았으며, 이를 어떻게 활용하느냐에 따라 창작의 결과물은 완전히 달라질 것입니다.
저자(글) 김성완
인물정보
게임기획자/게임프로그래머
게임인재원 외래교수
물리학을 전공했고, 한국 게임개발자 1세대로서 한국의 초창기 3D 게임 기술 개척에 일조했다. 부산게임아카데미와 여러 대학의 게임학과에서 게임 개발자 지망생들을 가르쳤다. 게임에 사실적인 자연 현상을 시뮬레이션하기 위해 지구과학 박사 과정을 수료했다. 인디게임 개발자 커뮤니티 ‘인디라!’를 운영하고 있고, 한국을 대표하는 국제 인디게임 페스티벌인 부산인디커넥트 페스티벌의 집행위원장이기도 하다. 게임회사 펄어비스의 R&D 팀에서 생성 AI를 연구했고 현재는 GenAI Korea를 운영하며 생성 AI 컨설팅을 하고 있다. 게임 인재원의 외래교수이기도 하다.
저자(글) 김한재
인물정보
대학/대학원 교수
강동대학교 만화애니메이션콘텐츠과 교수
2003년 뉴욕 School of Visual Arts에서 학사 학위를 취득한 후, [세종대학교 공연예술대학원]에서 멀티미디어애니메이션 석사를 마쳤다. 이후 [(사)한국만화애니메이션학회]와 [(사)한국애니메이션학회]에서 활동하며 [(사)한국여성캐릭터협회]의 이사 및 교육분과장을 맡았다. [(사)한국게임정책학회]에서는 컴퓨터그래픽분과 위원장으로, [(사)한국체육학회]에서는 E스포츠산업전문위원으로 활동했다. 영화진흥위원회 애니메이션소위원회 위원을 역임했으며, 현재는 노리토이의 대표이자, 강동대학교 만화애니메이션콘텐츠과 교수로 재직 중이다. 저서로 [생성형 AI로 웹툰 만화 제작하기]가 있다.
목차
[인터뷰] AI가 빚어낸 러블리한 매력, AI 인플루언서 오예린 제작기
윤석장 | 프로덕트 매니저 (PM)
[디자이너도 이해하는 이미지 생성 AI의 원리]
김성완 | 게임인재원 외래교수
1. 이미지 생성 모델이란?
2. 디퓨전 모델의 유래
3. 디퓨전 모델의 작동 원리
4. 스테이블 디퓨전 모델의 원리
5. CLIP 모듈과 텍스트 프롬프트
6. 텍스트 투 이미지 생성과 컨디셔닝
7. CFG(Classifier Free Guidance)란 무엇인가?
8. 이미지 투 이미지 생성
9. 모델 파인 튜닝과 LoRA
10. ControlNet이란?
[이미지와 영상으로 알아본 생성형 AI의 기술트렌드와 AI 영상제작기법]
류내원| 네오컨버전스㈜ 기술연구소 소장
1. 생성형 AI의 기술트렌드
- 최초의 AI 이미지 생성 VAE
- 생성형 AI를 크게 발전 시킨 Transformer
- AI 예술 출현의 기반이 된 DALL-E, CLIP, Stable Diffusion
- 최근 생성형 AI 현황 및 전망
2. AI Video 생성 방법
- 텍스트나 이미지로 AI 영상 만들기 : Runaway Gen, Pika, Stable Video Diffusion
- 시작 이미지와 끝 이미지로 영상 만들기 및 고화질 영상 만들기(Upscale Video) : Krea.ai
- 기존 동영상을 만화 스타일 등으로 변경하기 및 캐릭터 춤추게 하기 : DomoAI, deVut.ai, viggle.ai
- 향상된 AI Video 생성 모델 : Sora, Veo, Kling, Luma Dream Machine
- AI Video 생성 더 나아가기
[프리프로덕션 단계의 게임컨셉아트를 위한 미드저니, 스테이블 디퓨전의 이해와 활용]
박상준 | 컴투스 이사 / AL
1. 게임 컨셉 아트 프리 프로덕션이란?
- 게임 아트 컨셉 프리-프로덕션의 주요 요소
- 소규모 스튜디오와 스타트업에서의 프리-프로덕션
- AI를 활용한 게임 아트 컨셉 프리-프로덕션
2. 우리가 사용할 툴
- 미드저니
- 스테이블 디퓨전
- Magnific AI (매그니픽 AI)
3. 스테이블 디퓨전을 이용한 다양한 아이디어 스케치
4. 미드저니를 이용한 다양한 아이디어 스케치
5. 다양한 컨셉아트 제작하기(미드저니와 스테이블 디퓨전 사용)
- 실사 스타일 사이버펑크 스타일 기계소녀 제작하기
- 캐릭터 캐릭터 유화풍 스타일
- 실사스타일
- 2D 캐릭터 스타일
- 메카닉
6. 다양한 컨셉아트 제작하기 (미드저니와 매그니픽 AI)
- 사이보그 소녀
- 바이킹
- 사이버 여전사
- 궤도 엘리베이터
- 환타지 마을
- 우주전함 컨셉아트
7. 캐릭터 컨셉아트 디벨롭하기 (스테이블 디퓨전)
- 준비그림
- 스테이블 디퓨전 세팅
- 최종이미지
8. 게임 아트 컨셉“프리프로덕션(Pre-production)”을 위한 AI 활용을 마치며….
[스테이블 디퓨전으로 생성하는 로코코 양식의 스팀펑크 캐릭터 디자인]
이든 | 15년차 게임 캐릭터 컨셉 아티스트
1. 시안을 통한 스테이블 디퓨전의 작업 진행 방법.
- 시안을 그려 봅니다.
- 정면을 SD으로 완성해봅니다.
2. 스테이블 디퓨전으로 시트를 진행하는 방법.
- 스테이블 디퓨전 컨트롤넷으로 시트 만들기
- 미드저니와 comfyUI 의 턴테이블
3. 마치며
[ChatGPT, 미드저니, 스테이블디퓨전으로 구현하는 바로크 양식의 다크 환타지 컨셉아트]
오지훈 | 엔씨소프트 배경 컨셉아티스트
1. 왜 바로크인가
2. 레퍼런스 조사
3. Chat GPT와의 대화로 세계관 기획과 컨셉아트 초안 만들기
- Chat gpt 를 게임 기획자로 만들기
- ChatGPT 로 비쥬얼 방향성을 잡기
- Chat gpt 의 안을 비판적으로 피드백 하기
- Chat gpt 와 함께 컨셉아트 초안 만들기
4. 미드저니+스테이블디퓨전으로 고품질 이미지 만들기
- describe 기능을 활용하여 배경컨셉 시안 만들기
- describe 기능으로 만들어진 이미지 수정하기
- 포토샵과 stable dffusion을 활용한 업스케일링
- 전문 업스케일러를 활용한 업스케일링
- 미드저니로 주인공 캐릭터 만들기.
5. Blender를 활용한 한 실무용 컨셉 잡기
- 변경된 기획에 맞게 컨셉 수정하기.
- Blender용 텍스쳐 추출하기
- Blender로 구조를 만들기
- AI로 만든 텍스쳐 불러오기
- 게으르지만 효과적인 벽면장식 모델링
- 오브젝트 부수기
- 알파텍스쳐(Alpha Texture )를 활용하여 장면의 디테일 높이기
[Comfy UI로 구축해보는 웹툰 자동화 프로세스]
조지훈 | 웹툰 개발자 / 작가
1. 들어가며
- 웹툰. 세계로 뻗어나가는 새로운 예술
- 웹툰 제작과 AI
- 웹툰 에이전시가 주목해야 할 포인트
- 쉽게 끓이는 라면 vs 레스토랑의 고급 요리
- ComfyUI로 웹툰 제작에 도전!
2. 설치해야 할 커스텀 노드
- ComfyUI Manager
- Comfyroll Studio
- Efficiency-nodes-comfyui
- ComfyUI-Layer Diffuse
- IPAdapter-plus
- ComfyUI-Custom-Scripts
3. 웹툰 캐릭터를 만드는 두가지 방법
- 캐릭터 LoRA를 이용한 웹툰 캐릭터 생성하기
- InstantLoRA를 이용한 즉석 캐릭터 생성하기
4. 인물과 배경 레이어 분리하기
- 캐릭터와 배경 프롬프트 분리해 관리하기
- 레이어 디퓨전으로 투명 배경 캐릭터 만들기
- 하나의 레이어로 합치기
- 별개의 파일로 저장하기
- 마무리하며
5. 웹툰 컷선 작업하기
- 기존 노드 잠깐 멈춰두기
- 가로 세로 사이즈 세팅하기
- 컷 라인을 위한 입력 노드 설정하기
- 선 영역 계산하기
- 계산식 적용하기
- 컷 라인 영역 만들기
- 컷선 계산하기
- 컷선 만들기
- 컷선과 원고 이미지 크기 연동하기
- 흰색 테두리 합치기
- 컷선 추가하기
- 다양하게 테스트 해보기
6. 추가 웹툰 요소 더하기
- 집중선 추가하기
- 효과음 추가하기
[얼굴을 그리다 ; AI로 완성하는 책 표지 제작기]
김한재 | 강동대학교 만화애니메이션 콘텐츠학과 교수
0. 첫 만남: 미드저니와의 작업
1. 작품의 만남 : ‘진흙탕 출퇴근’
- 작품전달, 이미지 구상을 위한 첫 단추, 소설의 분석
- 첫 시안
- 이미지 보정과정
- 작업 결과 및 피드백
- 끝날 때까지 끝난 게 아니다
2. 그 외의 표지작업 과정들
- ‘살의의 형태’ (2023.12.8., 작가 홍정기)
- ‘수상한 델리고 마을에서 온 초대장’ (2024.03.29., 작가 이선희)
[생성형 AI와 함께 창작하기]
전혜정 | 청강문화산업대학교 교수
‘인간 고유의 창의성’이란 말은 환상일 지도 모릅니다
1. 생성형 인공지능은 외계인입니다
- 생성형 인공지능은 동물을 훈련시켜 인간의 과제를 달성하는 것과 비슷합니다
- 생성형 인공지능은 도구로만 남을 수 없습니다.
- 도구란 기본적으로 인간 신체의 확장으로 시작했거든요
- 생성형 인공지능은 고통스러운 수작업만 대신해주는 착한 도구가 아닙니다
- 통제 가능한 도구로 개발하는 것 외의 가능성을 생각해 봅시다
- 인공지능은 도구가 아니라 타자에 가깝습니다
- 외계인과 협업합시다
- 인공지능을 다룰 줄 아는 사람은 살아남는다는 구호가 가리고 있는 사실
2. 생성형 인공지능 예술의 가능성과 방향성
- 생성형 인공지능 예술의 가능성
- 작업의 숭고함
3. 생성형 인공지능과의 공진화
4. 그런데 좋은 그림이란 무엇일까요?
- 제가 생각하는 좋은 작품이란
- 생성형 인공지능이 말을 더 잘한다면, 지평 너머를 볼지도 모릅니다
[아티스트의 이미지를 예술로 바꾸는 AI 패션의 세계]
진수지 | 스토리홀딩즈 / 영상화 판권 프로젝트 매니저
1. 르네상스에서 로코코, 빅토리안까지
2. 시작은 르네상스가 좋겠네요.
3. 이번 여행지는 Victorian ERA 입니다.
4. 마지막 도착지는 예쁨 그 자체 Rococo 입니다.
5. [부록] 한복 이미지를 AI로 만든다는 것
[미드저니 스타일 어디까지 가봤니? Sref Seed Essential List]
조남경 | [미드저니 프롬프트 마스터 가이드] 저자
1. Style Reference (--sref)
2. Character Reference(--cref)
3. Style Reference Random (--sref random)
4. 모델 개인화 (Model Personalization) [ V 6.x only ]
5. 개인화 코드(Personalize Code) 와 Sref seed
6. Sref seed multiple blend
7. 개인화 코드(Personalize Code) multiple blend
8. 개인화 코드(Personalize Code)와 sref seed blend
[Comfy UI를 사용한 프로필 사진 만들기]
최돈현 | soy.lab 대표 / 스테이블 디퓨전 코리아 운영자
1. ComfyUI
- Node workflow
- 무한한 확장
- 강의 요약
- 권장사양
2. 준비하기
- ComfyUI 설치
- ComfyUI Manager 설치
- ComfyUI 실행하기
- ComfyUI Setting
- 해당 강의를 위한 Custom Node 설치
3. soy.lab 스타일 - Modularization
- 복잡해?
- 생각보다 쉬운 Modularization
- Set / Get NODE
- BasicPipe NODE
- 정리 끝!
4.구성하기
- Instant ID?
- 노드 살펴보기
- 한 장의 Face 이미지 사용하기
- 여러 각도의 Face 이미지 사용하기
- 참고 포즈 적용하기
5. Prompt 변경하기
- Chatgpt를 사용하여 복장 Prompt 만들기
- Midjourney /describe를 사용하여 Prompt 변경하기
- Prompt 입력 구조를 변경해 보자.
- Random Prompt 구조를 사용하여 생성하기
6.디테일
- 스타일 변경하기
- 업스케일(Upscale SUPIR) 적용하기
출판사 서평
[12명의 생성 AI 고수들이 공개하는 그래픽 노하우가 한 권에]
이 책은 바로 이러한 시점에서, AI를 어떻게 창의적으로 활용할 것인가에 대한 명확한 가이드를 제공하고자 합니다. 12명의 AI 아티스트들이 생성 AI를 활용하여 각자의 전문 분야에서 이룩한 혁신적인 사례들을 공유하며, 구체적인 활용법을 소개합니다. AI를 통해 캐릭터 디자인을 더욱 생동감 있게 만들고, 웹툰 제작을 자동화하며, 환상적인 세계관을 구현하는 등 창작분야에서 새로운 트렌드를 제시하는 방법들이 담겨 있습니다. AI는 이제 선택의 문제가 아닌, 창작의 필수적인 요소로 자리 잡고 있으며 이 책이 최고의 활용 가이드가 되어 줄 것입니다.
그럼 이상으로 the AI GRAPHICS: 인공지능, 캐릭터, 웹툰, 패션, 세계관, 디지털 디자인 책소개 포스팅을 마치겠습니다.
the AI GRAPHICS: 인공지능, 캐릭터, 웹툰, 패션, 세계관, 디지털 디자인 책소개 포스팅은 제휴마케팅이 포함되어있습니다.