-
Notifications
You must be signed in to change notification settings - Fork 19
Open
Description
"Deep Dive into LLMs like ChatGPT"의 17~20챕터 영문 스크립트 파일들의 챕터 번호와 실제 내용이 일치하지 않습니다.
18챕터(DeepSeek-R1)부터 시점이 밀려 있으며, 이로 인해 영문 스크립트 각 파일에 이전 챕터의 내용이 섞여 들어가 있고, 한국어 번역 자료도 동일하게 챕터와 내용의 불일치가 발생합니다.
다음은 원본 유튜브 영상의 챕터 목록입니다.
00:00:00 introduction
00:01:00 pretraining data (internet)
00:07:47 tokenization
00:14:27 neural network I/O
00:20:11 neural network internals
00:26:01 inference
00:31:09 GPT-2: training and inference
00:42:52 Llama 3.1 base model inference
00:59:23 pretraining to post-training
01:01:06 post-training data (conversations)
01:20:32 hallucinations, tool use, knowledge/working memory
01:41:46 knowledge of self
01:46:56 models need tokens to think
02:01:11 tokenization revisited: models struggle with spelling
02:04:53 jagged intelligence
02:07:28 supervised finetuning to reinforcement learning
02:14:42 reinforcement learning
02:27:47 DeepSeek-R1
02:42:07 AlphaGo
02:48:26 reinforcement learning from human feedback (RLHF)
03:09:39 preview of things to come
03:15:15 keeping track of LLMs
03:18:34 where to find LLMs
03:21:46 grand summary
아래는 각 파일의 스크립트 시작 시점과 원본 영상의 실제 챕터 시작 시점 비교입니다.
- reinforcement-learning.md: 17. 강화학습
- 챕터 시작: 2:14:42 / 파일 시작: 2:15:00
- deepseek-r1.md: 18. DeepSeek-R1
- 챕터 시작: 2:27:47 / 파일 시작: 2:38:00
- alphago.md: 19. AlphaGo
- 챕터 시작: 2:42:07 / 파일 시작: 2:49:00
- rlhf.md: 20. 인간 피드백 강화학습 (RLHF)
- 챕터 시작: 2:48:26 / 파일 시작: 3:02:00
Reactions are currently unavailable
Metadata
Metadata
Assignees
Labels
No labels