SlideShare a Scribd company logo
김태훈
SYMBIOTE AI
상상을 현실로 만드는,
이미지 생성 모델을 위한 엔지니어링
김태훈 (carpedm20)
Devsisters
2016
김태훈 (carpedm20)
Devsisters
2016
GPT-3
2018
Reinforcement Learning Network sparsity
김태훈 (carpedm20)
Devsisters
2016 2021
2018
Generative AI for Creativity
이미지 생성 모델
무엇을 할 수 있는가?
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
https://www.facebook.com/groups/aiartuniverse/posts/740271721071398/
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
인물 사진을 디지털 아바타로 바꿔주는 앱
출시 후 한 달 매출 400억
인류의 창의성 폭발을 일으키고 있는
생성 모델의 이름
Diffusion model
1. Diffusion model은 무엇이 다른가?
Diffusion model의 정의
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
Image Generation model
StyleGAN2
2020
DALL·E 2
2022
BigGAN
2018
Image Generation model의 역사
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
Singlemodal Multimodal
Singlemodal
“말타는
우주 비행사”
Multimodal
Text
2개 이상의 다른 데이터
StyleGAN2
2020
Singlemodal
“말타는 우주 비행사”
“우주 수프를 담은 그릇”
“미친 과학자처럼
실험하고 있는 테디 베어” Multimodal
Diffusion model
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
GAN
Diffusion process
Diffusion process
생성할 땐 25 ~ 50 steps
학습시 1,000번 정도 반복
GAN
Diffusion process
× 50번 반복하기
때문에 느리다
단점
Diffusion Model
1. 생성이 느리다
= GPU 비용이 많이 든다
1. 생성이 느리다
= GPU 비용이 많이 든다
2. 학습에 리소스가 많이 든다
= GPU 비용이 많이 든다
2. 학습에 리소스가 많이 든다
= GPU 비용이 많이 든다
2. 학습에 리소스가 많이 든다
= GPU 비용이 많이 든다
2020 2022
2018
× 5,700배
× 200,000배 (2020)
70,000개의 이미지
2.5%
1,800개의 이미지 400,000,000개의 이미지
세상에 공짜 점심은 없다
No free lunch
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
그래서
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
Multimodal
Image Generation model
with diffusion process
Diffusion Model is
좋지만 비싼 Diffusion
어떻게 효율적으로 운용할 수 있을까?
먼저 Diffusion model은
그동안 어떻게 발전해 왔는가?
= 그 비용이 줄어왔는가?
지난 6개월 간의 발전
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
몇몇 연구자들 사이에서
Diffusion model이 엄청 좋아졌고
몇 억 정도면 만들 수 있겠다는
생각을 하게 되었다
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
몇몇 연구자들 사이에서
Diffusion model이 엄청 좋아졌고
몇 억 정도면 만들 수 있겠다는
생각을 하게 되었다
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
LAION
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
150,000 A100 GPU Hours
= $600,000
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
50 step
V100 기준 10초
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
Latency
(sec)
Latency
Vanila FP16
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
4억 개의 이미지 없이도
새로운 모델을 학습할 수 있을까?
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
5 ~ 20개의 학습 이미지
“로마에 간 강아지X”
“머리 깎는 강아지X”
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
“강아지X”
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.11
개발 기간 3개월
FlashAttention
Fast and Memory-Efficient Exact Attention with IO-Awareness
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
FlashAttention
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
GPU
Core
크지만 io가 느린 메모리
HBM
20GB
GPU 계산에 사용되는 메모리
SRAM
20MB
HBM
Core
SRAM
FlashAttention
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
다수의 I/O 과정을 없애는 방법
HBM
Core
SRAM
FlashAttention
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
Latency
(sec)
Latency
Vanila FlashAttention
FP16
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
Prompt-to-Prompt
Image Editing with Cross-Attention Control
“… 금발의 아이” “… 눈을 감는 아이”
“소파에 누워있는 노란 옷을 입은 아이”
“소파에 누워있는 아이”
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
학습 데이터를 만들 때도 사용 가능
기존의 Diffusion 모델
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
학습 데이터를 만들 때도 사용 가능
새로운 모델
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
2022.12
InstructPix2Pix
Learning to Follow Image Editing Instructions
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
2022.12
“소파에 누워있는 아이” “소파에 누워있는 금발 아이”
GPT와 대화하 듯 “금발로 만들어 줘”
라는 명령어로 수정하려면?
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
2022.12
“금발로 만들어 줘”
GPT3
“소파에 누워있는 아이” “소파에 누워있는 금발 아이”
“고양이” “썬글라쓰를 쓰고 있는 고양이”
“썬글라쓰를 씌워 줘”
“쿠키가 든 바구니” “사과가 든 바구니”
“사과로 바꿔줘”
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
2022.12
Prompt-to-Prompt로 데이터
“금발로 만들어 줘”
“서부 영화로 만들어 줘”
GPT-3로 만든 데이터
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
2022.12
“금발로 만들어 줘”
“서부 영화로 만들어 줘”
기존의 Diffusion 모델을 재학습
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
2022.12
“서부 영화로 만들어 줘“
대화형 수정 AI를 만들 수 있다
InstructPix2Pix
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
2022.12
2022.02
ControlNet
Adding Conditional Control to Text-to-Image Diffusion Models
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
2022.12
2022.02
기존의 방식과 다른점?
텍스트가 아닌 이미지로
생성과 수정을 할 수 있는 방식
Latency
(sec)
Latency
Vanila FlashAttention
FP16
학습 비용
DreamBooth
LoRA
이미지 수정
Prompt-to-Prompt
InstructPixPix
ControlNet
고작 6개월 만에 일어난 일
DreamBooth & LoRA
xformers
Prompt-to-Prompt
InstructPix2Pix
ControlNet
Stable Diffusion
2021.12 ~ 2022.08
2022.08
2022.09
2022.10
2022.12
2022.02
우리는 어떻게 비용을 줄였는가?
비용은
서비스 형태에 따라 다르다
저희가 만들었던 서비스
https://www.youtube.com/watch?v=vK68waYSIGk
생성 = 핵심 컨텐츠
생성 = 핵심 컨텐츠
Latency와 Scalability가 중요
Latency와 Scalability가 중요
Latency와 Scalability가 중요
Latency
Vanila FlashAttention
FP16 Distillation TensorRT
triton
1. Distillation
2. TensorRT & triton
1. Distillation by 이동익
2. Compiler
3. Misc.
https://github.com/bryandlee/DeepStudio
https://github.com/bryandlee/malnyun_faces
50 step
V100 기준 10초
추론 시간을
줄이려면?
Knowledge Distillation
Knowledge Distillation
Teacher Network
Teacher Network
Student Network
Teacher Network
Student Network
Teacher Network
Student Network
보통의 distillation
= 모델 사이즈를 줄여
추론 속도를 높이는 것
Teacher Network
Student Network
보통의 distillation
= 모델 사이즈를 줄여
추론 속도를 높이는 것
보통의 Knowledge Distillation
= 모델 다이어트
Diffusion 모델도
모델 크기를 줄일 수 있지만
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
Distillation을 할 때 마다 절반씩 줄이기
Distillation을 할 때 마다 절반씩 줄이기
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
Distillation of diffusion step
= 스텝 다이어트
× 70 × 35 × 15 × 3
× 3
× 35 10배 빨라짐
10초 → 1초
실험 결과
1. Image2Image 모델을 학습
2. 기존 모델이 학습한 데이터 셋에서 학습
3. 1번의 학습은 평균 1.5일 정도 걸림
4. 전체 학습 기간은 6일
Distillation 없이 3번
× 35
평범한 Diffusion Distillation 학습 후 3번
× 35
Distillation 학습 후 3번
Distillation 없이 3번
t = 35
t = 0
t = 15
t = 25
“일러스트화”
“인간화”
“꽃 추가”
“일러스트화”
“인간화”
“꽃 추가”
평범한 Diffusion Distillation 없이 3번 Distillation 학습 후 3번
× 3 × 35
Free Pro
완성도를 중요시 하는 유저
Latency
(sec)
Latency
Vanila FlashAttention
FP16 Distillation TensorRT
triton
1. Distillation
2. TensorRT & triton
1. Distillation by 이동익
2. TensorRT & triton
이전 슬라이드
GPU 하드웨어 구조
HBM
Core
Core
SRAM SRAM
느린 I/O
CUDA Cores
Core Core
CUDA Cores
A B
Core
Core
SRAM
torch.matmul(A, B)
Core
Core
torch.matmul(A, )
>
SRAM
Core
Core
SRAM
A = A.cos()
<
A = A.cos()
A.cuda()
Core
Core
A = A.cos().cos()
SRAM
A.cos().cos() A.cos_cos()
TensorRT를 쓰는 방법
model = Model()
model = Model()
onnx = Onnx.export(model)
model = Model()
onnx = Onnx.export(model)
new_model = trt.compile(onnx)
model = Model()
onnx = Onnx.export(model)
new_model = trt.compile(onnx)
y = new_model(x)
이것만 쓰면 되는 건가?
new_model = trt.compile(onnx)
Nope.
Static graph 만으론
모든걸 알 순 없음
Nope.
Static graph 만으론
모든걸 알 순 없음
class GEGLU(nn.Module):
def forward(self, x):
x, gate = x.chunk(2, dim=-1)
return x * F.gelu(gate)
https://github.com/CompVis/latent-diffusion/blob/main/ldm/modules/attention.py#L37-L44
split
gelu
mul
x
split
gelu
mul
Unary operation (단항 연산자)
𝐺𝐸𝐿𝑈 𝑥 ≅ 0.5𝑥(1 + tanh
2
𝜋
𝑥 + 0.4𝑥4
split
gelu
mul
Unary operation (단항 연산자)
HBM
Core
SRAM
𝐺𝐸𝐿𝑈 𝑥 ≅ 0.5𝑥(1 + tanh
2
𝜋
𝑥 + 0.4𝑥4
split
gelu
mul
Unary operation이기 때문에
HBM
Core
SRAM HBM
Core
SRAM
split
gelu
mul
Unary operation이기 때문에
HBM
Core
SRAM HBM
Core
SRAM
split
gelu
mul
split
gelu
mul
split
gelu
mul
HBM
split
gelu
mul
HBM
SRAM
gelu
CPU
split
gelu
mul
HBM
SRAM
CPU
gelu
copy
split
gelu
mul
HBM
SRAM
gelu
CPU
split
gelu
HBM
SRAM
gelu
CPU
copy
mul
mul
I/O가 7번 일어날 걸
1번으로 줄일 수 있다
I/O가 7번 일어날 걸
1번으로 줄일 수 있다
가 최적화 하지 못하는 코드를
triton
class GEGLU(nn.Module):
def forward(self, x):
x, gate = x.chunk(2, dim=-1)
return x * F.gelu(gate)
OpenAI가 만든 언어 및 컴파일러
I/O 최적화된 op을 만들어 최적화
OpenAI가 만든 언어 및 컴파일러
I/O 최적화된 CUDA 코드를 최적화
https://openai.com/blog/triton/
Triton으로 짠 torch.softmax의 퍼포먼스
swish, gelu
groupnorm
layernorm
cast
…
triton
Latency
(sec)
Latency
Vanila FlashAttention
FP16 Distillation TensorRT
triton
1. Distillation
2. TensorRT & triton
빨라진 Diffusion model
어떤 인프라로 서빙하고 있는가
인프라 구조
• Bare metal 서버를 사용 (임시)
• Kubespray로 self-hosted 클러스터 운영
• 2개의 서비스와 8개의 GPU 서버로 구성
Kubespray
서비스 #1 GPU 서버 #2
TRITON
GPU 서버 #1
TRITON
GPU 서버 #8
TRITON
서비스 #2
모델 서빙 관리 = TRITON Inference Server
TRITON 의 장점
• Ensemble Models, Scheduler 및 dlpack
• TensorRT
• GRPC
• Dynamic Batching
TRITON INFERNCE SERVER
TRITON 의 장점
• Ensemble Models, Scheduler 및 dlpack
• TensorRT
• GRPC
• Dynamic Batching
TRITON INFERNCE SERVER
Latency
Vanila FlashAttention
FP16 Distillation TensorRT
triton
Latency
(sec)
×3
×3
왜 이렇게까지..?
×3
“Text”
TRITON INFERNCE SERVER
실제로 사용하는 모델
1
2
1’
Diffusion
“Text”
×3
3
4
5
단순화를 위해
GPU 하나에 동시 실행 가능한 모델 = 2개
Inference Time
1
2
1’
Diffusion 3
4
5 1
2
1’
Diffusion 3
4
5
Diffusion
1
1
2
Inference Time
Inference Time w TRITON
1
2
1’
Diffusion 3
4
5 1
2
1’
Diffusion 3
4
5
3
2 Diffusion
4
5
1’
1’ 1
3
1
4
5
2
1
2
1’
Diffusion
1 Diffusion
2
https://openai.com/blog/techniques-for-training-large-neural-networks/
FYI
Diffusion 모델과 앞 뒤로 한 두 개의
pipeline만 있다면 필요하진 않다
그래서
값비싼 Diffusion model을
받드는 저비용 MLOps
Latency × Scalability
네
값비싼 Diffusion model를
받드는 저비용 MLOps
값비싼 Diffusion model를
받드는 저비용 MLOps
값비싼 Diffusion model를
받드는 저비용 MLOps
값비싼 Diffusion model를
받드는 저비용 MLOps
마지막으로
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
남들과 똑같은 정보만 보고 듣고 행동하면
그 어떠한 혁신도 만들어내지 못합니다
저는 AI에 대한 집념으로
2018년 로부터 합류 제의를 받았고
한국에서 학부를 마치고 미국으로가 2년 간
세계 최고의 인재들과 함께 AI 개발을 했습니다
2021년 Symbiote AI 기술로 만든 3D 모델들
3년 전 OpenAI를 퇴사하고
Generative AI로 어떤 가치와 시장을
혁신할 수 있을지 고민해 왔습니다
작년 1월부터 작고 뾰족한 시장에서 시작해
광고 없이 37만 명의 글로벌 유저를 모았고
유저와 끊임 없이 대화하며
타겟 시장과 심리를 깊게 이해해 왔습니다
https://bit.ly/retrospect-virtu
Symbiote AI는
Global, Technology, Service 기업을 지향하며
기술적 격차와 유저 중심의 제품으로
Day 1부터 글로벌 서비스로
저희 자신의 가치를 증명하고자 합니다
자신의 가치를 역사에 증명하기 위해 살아가는 분들과
불가능을 이뤄내고 싶습니다.
관심 있는 분은 편하게 연락주세요!
Mail: taehoon@symbiote-ai.com
지난 3년간 저희가 밟아 왔던 발자취는
https://bit.ly/retrospect-virtu
에서 보실 수 있습니다
symbiote-ai.com
감사합니다

More Related Content

PDF
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
PDF
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
PDF
파이썬으로 나만의 강화학습 환경 만들기
PDF
딥러닝 자연어처리 - RNN에서 BERT까지
PDF
LLM에서 배우는 이미지 생성 모델 ZERO부터 학습하기 Training Large-Scale Diffusion Model from Scr...
PPTX
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
PDF
머신러닝 해외 취업 준비: 닳고 닳은 이력서와 고통스러웠던 면접을 돌아보며 SNU 2018
PPTX
Ai 그까이거
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
파이썬으로 나만의 강화학습 환경 만들기
딥러닝 자연어처리 - RNN에서 BERT까지
LLM에서 배우는 이미지 생성 모델 ZERO부터 학습하기 Training Large-Scale Diffusion Model from Scr...
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
머신러닝 해외 취업 준비: 닳고 닳은 이력서와 고통스러웠던 면접을 돌아보며 SNU 2018
Ai 그까이거

What's hot (20)

PDF
Random Thoughts on Paper Implementations [KAIST 2018]
PDF
고려대학교 컴퓨터학과 특강 - 대학생 때 알았더라면 좋았을 것들
PDF
게임 개발에 자주 사용되는 디자인 패턴
PDF
실시간 게임 서버 최적화 전략
PDF
소프트웨어 부트캠프 설계 및 운영사례(42Seoul)
PDF
코딩 테스트 및 알고리즘 문제해결 공부 방법 (고려대학교 KUCC, 2022년 4월)
PDF
그림 그리는 AI
PDF
テスト文字列に「うんこ」と入れるな
PDF
개발을잘하고싶어요-네이버랩스 송기선님
PDF
[NDC18] 야생의 땅 듀랑고의 데이터 엔지니어링 이야기: 로그 시스템 구축 경험 공유
PDF
(文献紹介)Depth Completionの最新動向
PDF
LiDAR点群と画像とのマッピング
PDF
MLOps に基づく AI/ML 実運用最前線 ~画像、動画データにおける MLOps 事例のご紹介~(映像情報メディア学会2021年冬季大会企画セッショ...
PDF
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
PDF
개발자를 위한 (블로그) 글쓰기 intro
PDF
오토인코더의 모든 것
PDF
[MLOps KR 행사] MLOps 춘추 전국 시대 정리(210605)
PDF
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [MarketIN팀] : 디지털 마케팅 헬스체킹 서비스
PDF
심성환 개발자 포트폴리오
PPTX
DockerコンテナでGitを使う
Random Thoughts on Paper Implementations [KAIST 2018]
고려대학교 컴퓨터학과 특강 - 대학생 때 알았더라면 좋았을 것들
게임 개발에 자주 사용되는 디자인 패턴
실시간 게임 서버 최적화 전략
소프트웨어 부트캠프 설계 및 운영사례(42Seoul)
코딩 테스트 및 알고리즘 문제해결 공부 방법 (고려대학교 KUCC, 2022년 4월)
그림 그리는 AI
テスト文字列に「うんこ」と入れるな
개발을잘하고싶어요-네이버랩스 송기선님
[NDC18] 야생의 땅 듀랑고의 데이터 엔지니어링 이야기: 로그 시스템 구축 경험 공유
(文献紹介)Depth Completionの最新動向
LiDAR点群と画像とのマッピング
MLOps に基づく AI/ML 実運用最前線 ~画像、動画データにおける MLOps 事例のご紹介~(映像情報メディア学会2021年冬季大会企画セッショ...
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
개발자를 위한 (블로그) 글쓰기 intro
오토인코더의 모든 것
[MLOps KR 행사] MLOps 춘추 전국 시대 정리(210605)
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [MarketIN팀] : 디지털 마케팅 헬스체킹 서비스
심성환 개발자 포트폴리오
DockerコンテナでGitを使う
Ad

Similar to 상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링 (20)

PDF
딥러닝 세계에 입문하기 위반 분투
PDF
Tensorflow for Deep Learning(SK Planet)
PPTX
Apache MXNet으로 배워보는 딥러닝(Deep Learning) - 김무현 (AWS 솔루션즈아키텍트)
PDF
딥러닝을 위한 Tensor flow(skt academy)
PDF
Enhanced ai platform
PDF
Deep learning framework 제작
PDF
AWS의 비용 효율적 고성능기계학습(ML) 플랫폼 뛰어들기 - 윤석찬 수석 테크 에반젤리스트, AWS :: AWS Innovate 2019
PDF
[AWS Innovate 온라인 컨퍼런스] 수백만 사용자 대상 기계 학습 서비스를 위한 확장 비법 - 윤석찬, AWS 테크 에반젤리스트
PDF
2021-11-16 모두콘 딥러닝 경량화 발표
PDF
Exploring Deep Learning Acceleration Technology Embedded in LLMs
PPTX
랩탑으로 tensorflow 도전하기 - tutorial
PDF
Create a solution including deep learning models
PDF
텐서플로로 OCR 개발해보기: 문제점과 문제점과 문제점
PDF
[AWS Innovate 온라인 컨퍼런스] Amazon SageMaker 신규 기능을 활용한 다양한 ML 모델 실험해 보기 - 서지혜, A...
PDF
Infra as a model service
PDF
Amazon SageMaker 오버뷰 - 강성문, AWS AI/ML 스페셜리스트 :: AIML 특집 웨비나
PPTX
[3장] 딥러닝을 위한 환경 구축하기 | 수학 통계를 몰라도 이해할 수 있는 쉬운 딥러닝 | 반병현
PDF
모두의 클라우드 딥러닝
PDF
2017 tensor flow dev summit
PDF
13. Application - Tensorflow Autoencoder
딥러닝 세계에 입문하기 위반 분투
Tensorflow for Deep Learning(SK Planet)
Apache MXNet으로 배워보는 딥러닝(Deep Learning) - 김무현 (AWS 솔루션즈아키텍트)
딥러닝을 위한 Tensor flow(skt academy)
Enhanced ai platform
Deep learning framework 제작
AWS의 비용 효율적 고성능기계학습(ML) 플랫폼 뛰어들기 - 윤석찬 수석 테크 에반젤리스트, AWS :: AWS Innovate 2019
[AWS Innovate 온라인 컨퍼런스] 수백만 사용자 대상 기계 학습 서비스를 위한 확장 비법 - 윤석찬, AWS 테크 에반젤리스트
2021-11-16 모두콘 딥러닝 경량화 발표
Exploring Deep Learning Acceleration Technology Embedded in LLMs
랩탑으로 tensorflow 도전하기 - tutorial
Create a solution including deep learning models
텐서플로로 OCR 개발해보기: 문제점과 문제점과 문제점
[AWS Innovate 온라인 컨퍼런스] Amazon SageMaker 신규 기능을 활용한 다양한 ML 모델 실험해 보기 - 서지혜, A...
Infra as a model service
Amazon SageMaker 오버뷰 - 강성문, AWS AI/ML 스페셜리스트 :: AIML 특집 웨비나
[3장] 딥러닝을 위한 환경 구축하기 | 수학 통계를 몰라도 이해할 수 있는 쉬운 딥러닝 | 반병현
모두의 클라우드 딥러닝
2017 tensor flow dev summit
13. Application - Tensorflow Autoencoder
Ad

More from Taehoon Kim (11)

PDF
알아두면 쓸데있는 신기한 강화학습 NAVER 2017
PDF
카카오톡으로 여친 만들기 2013.06.29
PDF
Differentiable Neural Computer
PDF
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
PDF
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
PDF
강화 학습 기초 Reinforcement Learning an introduction
PDF
Continuous control with deep reinforcement learning (DDPG)
PDF
Dueling network architectures for deep reinforcement learning
PDF
Deep Reasoning
PDF
쉽게 쓰여진 Django
PDF
영화 서비스에 대한 생각
알아두면 쓸데있는 신기한 강화학습 NAVER 2017
카카오톡으로 여친 만들기 2013.06.29
Differentiable Neural Computer
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
강화 학습 기초 Reinforcement Learning an introduction
Continuous control with deep reinforcement learning (DDPG)
Dueling network architectures for deep reinforcement learning
Deep Reasoning
쉽게 쓰여진 Django
영화 서비스에 대한 생각

상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링