1) Many founders are really feeling the pain of the GPU shortage. Some are even building their own dedicated clusters but of course they would not say where they found their GPUs ๐
2) While the speed of OpenAI execution has been amazing, Google has really picked up the pace in the last few months with many founders expecting them to be a formidable player.
3) AI makes for incredible demos of autonomous agents but enterprise adoption of agents is quite nascent since their behavior can be unpredictable. Enterprises will need technology to monitor agents, enforce policy guardrails, and secure their access to data and systems.
4) For enterprises willing to experiment with AI, what is the right go-to-market model? PLG may be too much of an ideal given the level of customer maturity and more handholding is likely needed to ensure customer success.
5) It is believed that recruiting out of large tech companies has been getting easier. Given the speed with which AI is moving there is fear of missing the boat. Everyone wants to build and launch products quickly without big company red tape or technical debt.
2) While the speed of OpenAI execution has been amazing, Google has really picked up the pace in the last few months with many founders expecting them to be a formidable player.
3) AI makes for incredible demos of autonomous agents but enterprise adoption of agents is quite nascent since their behavior can be unpredictable. Enterprises will need technology to monitor agents, enforce policy guardrails, and secure their access to data and systems.
4) For enterprises willing to experiment with AI, what is the right go-to-market model? PLG may be too much of an ideal given the level of customer maturity and more handholding is likely needed to ensure customer success.
5) It is believed that recruiting out of large tech companies has been getting easier. Given the speed with which AI is moving there is fear of missing the boat. Everyone wants to build and launch products quickly without big company red tape or technical debt.
To quote the great climate scientist, Greta Thunberg, โHow dare you!โ
Joking aside, because no serious person would actually outsource their energy policy to a kid, nuclear is a no-brainer. The biggest problem from here isnโt the technology - those will continue to improve and the safety profiles will become even more bulletproof.
But even with the greatest technology, what we have consistently overlooked are the local, regional and state regulations to get new reactors built.
Nuclear needs to be viewed as a national security issue. More nuclear == more clean energy == less foreign energy needed == less wars == lower deficits == more internal stability.
Right now it isnโt, so building a new reactor is a multi decade ordeal and is effectively impossible. So as nuclear technologies get better, nuclear buildouts will still meaningfully lag relative to other countries, especially China.
https://budd.senate.gov/press-releases/budd-coons-lead-bipartisan-coalition-supporting-nuclear-energy/
Joking aside, because no serious person would actually outsource their energy policy to a kid, nuclear is a no-brainer. The biggest problem from here isnโt the technology - those will continue to improve and the safety profiles will become even more bulletproof.
But even with the greatest technology, what we have consistently overlooked are the local, regional and state regulations to get new reactors built.
Nuclear needs to be viewed as a national security issue. More nuclear == more clean energy == less foreign energy needed == less wars == lower deficits == more internal stability.
Right now it isnโt, so building a new reactor is a multi decade ordeal and is effectively impossible. So as nuclear technologies get better, nuclear buildouts will still meaningfully lag relative to other countries, especially China.
https://budd.senate.gov/press-releases/budd-coons-lead-bipartisan-coalition-supporting-nuclear-energy/
Senator Budd
Budd, Coons Lead Bipartisan Coalition Supporting Nuclear Energy - Senator Budd
Washington, D.C. โ Today, Senators Ted Budd (R-NC) and Chris Coons (D-DE) led a bipartisan coalition of 15 Senators to introduce a resolution declaring that: โThe Senate is committed to embracing and promoting nuclear power as a clean baseload energy sourceโฆ
Research on advanced prompting techniques for language models has extended chain of thought and tree of thought prompting to graph-structured reasoning processes. But, did you know that there are two versions of โgraph of thoughtโ prompting that have been proposed already?
Some background. Advanced prompting techniques like chain of thought and tree of thought prompting have drastically improved the ability of large language models to solve complex, reasoning-based tasks. Forcing the LLM to construct a step-by-step response to a problem drastically improves its problem-solving capabilities, but all of these techniques assume that the reasoning process is linear.
โHuman thinking is often characterized by its ability to make sudden leaps and connections between seemingly unrelated ideas, which can lead to novel insights and solutions. This non-linear, jumping thought process is a hallmark of human creativity, reasoning, and problem-solving abilities.โ - from [1]
Graph-based reasoning. Humans do not seem to perform reasoning based on individual chains of thought. Rather, we make leaps and connections between ideas that lead to novel insights. Inspired by this idea, researchers have recently extended chain and tree of thoughts prompting to a graph-structured approach. We will take a look here at two (independent) papers that have already been written on this topic.
Graph of thought reasoning (GOTR). In [1], authors proposed a two-stage technique that:
1. Outputs a problem solving rationale given text (and potentially images) as input.
2. Outputs a final answer given the original input concatenated with a rationale.
This approach uses an encoder-decoder structure and is fine-tuned end-to-end. Several encoders ingest data from each of the different modalities that are considered. The output of these encoders is combined in a fusion layer, then passed to a decoder to generate output.
Where does the graph come in? So far, it seems like GOTR does not use any graphs within its reasoning process. However, the model creates a named entity graph based on the input text and generated rationale. Then, this graph is ingested by a graph attention network encoder and combined with all image/text features. As such, the decoder receives information from text, image, and graph-based inputs!
GoT prompting. In [2], authors follow a more traditional prompting approach, called graph of thought (GoT) prompting, that uses a system of causal LLMs and prompts to perform reasoning according to a graph structure. The reasoning process is modeled as a graph, where each node represents a thought or (partial) solution and connections indicate that a certain thought was generated from some other thought.
A system of LLMs. GoT prompting has several โmodulesโ that control the reasoning process, including a top-level controller (controls the reasoning process), a parser (verifies and extracts LLM output), a scorer (judges the quality of solutions), and a prompter (writes prompts for each different module). Together, these modules can transform the underlying graph structure and work towards solving a reasoning problem.
TL;DR: Modeling an LLMโs reasoning process as a graph structure can be beneficial for certain problems and is (arguably) more comparable to the human reasoning process. But, these techniques tend to be more costly than basic CoT prompting and only provide a tangible benefit on select problems. For more details, check out the overview of these techniques that I just wrote for my newsletter.
--------
[1] Yao, Yao, Zuchao Li, and Hai Zhao. "Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Large Language Models." arXiv preprint arXiv:2305.16582 (2023).
[2] Besta, Maciej, et al. "Graph of Thoughts: Solving Elaborate Problems with Large Language Models." arXiv preprint arXiv:2308.09687 (2023).
https://twitter.com/cwolferesearch/status/1696282034145006006?s=20
Some background. Advanced prompting techniques like chain of thought and tree of thought prompting have drastically improved the ability of large language models to solve complex, reasoning-based tasks. Forcing the LLM to construct a step-by-step response to a problem drastically improves its problem-solving capabilities, but all of these techniques assume that the reasoning process is linear.
โHuman thinking is often characterized by its ability to make sudden leaps and connections between seemingly unrelated ideas, which can lead to novel insights and solutions. This non-linear, jumping thought process is a hallmark of human creativity, reasoning, and problem-solving abilities.โ - from [1]
Graph-based reasoning. Humans do not seem to perform reasoning based on individual chains of thought. Rather, we make leaps and connections between ideas that lead to novel insights. Inspired by this idea, researchers have recently extended chain and tree of thoughts prompting to a graph-structured approach. We will take a look here at two (independent) papers that have already been written on this topic.
Graph of thought reasoning (GOTR). In [1], authors proposed a two-stage technique that:
1. Outputs a problem solving rationale given text (and potentially images) as input.
2. Outputs a final answer given the original input concatenated with a rationale.
This approach uses an encoder-decoder structure and is fine-tuned end-to-end. Several encoders ingest data from each of the different modalities that are considered. The output of these encoders is combined in a fusion layer, then passed to a decoder to generate output.
Where does the graph come in? So far, it seems like GOTR does not use any graphs within its reasoning process. However, the model creates a named entity graph based on the input text and generated rationale. Then, this graph is ingested by a graph attention network encoder and combined with all image/text features. As such, the decoder receives information from text, image, and graph-based inputs!
GoT prompting. In [2], authors follow a more traditional prompting approach, called graph of thought (GoT) prompting, that uses a system of causal LLMs and prompts to perform reasoning according to a graph structure. The reasoning process is modeled as a graph, where each node represents a thought or (partial) solution and connections indicate that a certain thought was generated from some other thought.
A system of LLMs. GoT prompting has several โmodulesโ that control the reasoning process, including a top-level controller (controls the reasoning process), a parser (verifies and extracts LLM output), a scorer (judges the quality of solutions), and a prompter (writes prompts for each different module). Together, these modules can transform the underlying graph structure and work towards solving a reasoning problem.
TL;DR: Modeling an LLMโs reasoning process as a graph structure can be beneficial for certain problems and is (arguably) more comparable to the human reasoning process. But, these techniques tend to be more costly than basic CoT prompting and only provide a tangible benefit on select problems. For more details, check out the overview of these techniques that I just wrote for my newsletter.
--------
[1] Yao, Yao, Zuchao Li, and Hai Zhao. "Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Large Language Models." arXiv preprint arXiv:2305.16582 (2023).
[2] Besta, Maciej, et al. "Graph of Thoughts: Solving Elaborate Problems with Large Language Models." arXiv preprint arXiv:2308.09687 (2023).
https://twitter.com/cwolferesearch/status/1696282034145006006?s=20
X (formerly Twitter)
Cameron R. Wolfe, Ph.D. on X
Research on advanced prompting techniques for language models has extended chain of thought and tree of thought prompting to graph-structured reasoning processes. But, did you know that there are two versions of โgraph of thoughtโ prompting that have beenโฆ
LLM ๊ธฐ๋ฐ์ ์์คํ
& ์ ํ ๊ตฌ์ถ์ ์ํ 7๊ฐ์ง ํต์ฌ ํจํด
"์ฑ๋ฅ ํฅ์ vs. ๋น์ฉ/๋ฆฌ์คํฌ ๊ฐ์" ๋ฐ "๋ฐ์ดํฐ ์นํ vs ์ฌ์ฉ์ ์นํ" ๋ก ์ ๋ฆฌ
- Evals: ์ฑ๋ฅ ์ธก์
- RAG(Retrieval-Augmented Generation): ์ต์ , ์ธ๋ถ ์ง์์ ์ถ๊ฐ
- Fine-tuning: ํน์ ์์ ์ ๋ ์ ์ํํ๊ธฐ ์ํด
- Caching: ๋ ์ดํด์ ๋ฐ ๋น์ฉ ๊ฐ์
- Guardrails: ์ถ๋ ฅ ํ์ง ๋ณด์ฅ
- Defensive UX: ์ค๋ฅ๋ฅผ ์์ธกํ๊ณ ๊ด๋ฆฌํ๊ธฐ ์ํด
- Collect user feedback: ๋ฐ์ดํฐ ํ๋ผ์ด ํ ๊ตฌ์ถ
# Evals: ์ฑ๋ฅ ์ธก์
- Evals๋ ์์ ์์ ๋ชจ๋ธ์ ์ฑ๋ฅ์ ํ๊ฐํ๋๋ฐ ์ฌ์ฉ๋๋ ์ผ๋ จ์ ์ธก์ ๊ฐ๋ค
- ๋ฒค์น๋งํฌ ๋ฐ์ดํฐ ๋ฐ ๋ฉํธ๋ฆญ ํฌํจ
- ์์คํ ๋๋ ์ ํ์ด ์ผ๋ง๋ ์ ์๋ํ๊ณ ์๋์ง ์ธก์ ํ๊ณ , ํด๋ณด๋ฅผ ๊ฐ์งํ ์ ์์
- ์ธ์ด ๋ชจ๋ธ๋ง ๋ถ์ผ์ ๋ง์ ๋ฒค์น๋งํฌ๋ค์ด ์์: MMLU, EleutherAI Eval, HELM, AlpacaEval
- ๋ฉํธ๋ฆญ์ ๋๊ฐ์ ์นดํ ๊ณ ๋ฆฌ๋ก ๊ตฌ๋ถ ๊ฐ๋ฅ: Context-dependent ๋๋ Context-free
- ๊ณตํต์ ์ผ๋ก ์ฌ์ฉํ๋ ๋ฉํธ๋ฆญ๋ค: BLEU, ROUGE, BERTScore, MoverScore
- ์์ฆ ๋จ๋ ํธ๋ ๋๋ ๊ฐ๋ ฅํ LLM์ reference-free metric์ผ๋ก ์ด์ฉํ์ฌ ๋ค๋ฅธ LLM๋ค์ ์์ฑ๋ฌผ์ ํ๊ฐํ๋ ๊ฒ
- G-Eval, Vicuna ๋ ผ๋ฌธ, QLoRA
# RAG(Retrieval-Augmented Generation): ์ต์ , ์ธ๋ถ ์ง์์ ์ถ๊ฐ
- ํ์ด๋ฐ์ด์ ๋ชจ๋ธ ์ธ๋ถ๋ก๋ถํฐ ์ ๋ณด๋ฅผ ๊ฐ์ ธ์ ์ด ๋ฐ์ดํฐ๋ก ์ ๋ ฅ์ ๊ฐํํ์ฌ ๋ ํ๋ถํ ์ปจํ ์คํธ๋ฅผ ์ ๊ณตํจ์ผ๋ก์จ ์ถ๋ ฅ์ ๊ฐ์
- RAG๋ ๊ฒ์๋ ์ปจํ ์คํธ์ ๋ชจ๋ธ์ ๊ธฐ๋ฐ์ผ๋ก ํ์ฌ ํ๊ฐ์ ์ค์ด๋๋ฐ ๋์์ ์ค์ ์ฌ์ค์ฑ์ ๋์
- ๋ํ LLM์ ์ง์์ ์ผ๋ก ์ฌ์ ํ์ตํ๋ ๊ฒ๋ณด๋ค ๊ฒ์ ์ธ๋ฑ์ค๋ฅผ ์ต์ ์ํ๋ก ์ ์งํ๋ ๊ฒ์ด ๋ ์ ๋ ด
- ์ด๋ฐ ๋น์ฉ ํจ์จ์ฑ ๋๋ฌธ์ LLM์ด RAG์ ํตํด ์ต์ ๋ฐ์ดํฐ์ ์ต์ธ์ค ๊ฐ๋ฅ
- ํธํฅ๋๊ฑฐ๋ ์ ํดํ ๋ฌธ์์ ๊ฐ์ ๋ฐ์ดํฐ๋ฅผ ์ ๋ฐ์ดํธ/์ ๊ฑฐํด์ผ ํ๋ ๊ฒฝ์ฐ ๊ฒ์ ์ธ๋ฑ์ค๋ฅผ ์ ๋ฐ์ดํธํ๋ ๊ฒ์ด ๋ ๊ฐ๋จํจ(LLM์ ๋ฏธ์ธ์กฐ์ ํ๋ ๊ฒ์ ๋นํด)
- RAG์ ์ํด์๋ ํ ์คํธ ์๋ฒ ๋ฉ์ ๋ํด ๋จผ์ ์ดํดํ๋ ๊ฒ์ด ๋์์ด ๋จ
- ํ ์คํธ ์๋ฒ ๋ฉ์ ์์ ๊ธธ์ด์ ํ ์คํธ๋ฅผ ์ซ์์ ๊ณ ์ ํฌ๊ธฐ ๋ฒกํฐ๋ก ํํํ ์ ์๋ ํ ์คํธ ๋ฐ์ดํฐ์ ์์ถ๋ ์ถ์ ํํ
- ์ผ๋ฐ์ ์ผ๋ก Wikipedia๊ฐ์ ํ ์คํธ ์ฝํผ์ค์์ ํ์ตํจ
- ์ ์ฌํ ํญ๋ชฉ์ ์๋ก ๊ฐ๊น๊ณ , ์ ์ฌํ์ง ์์ ํญ๋ชฉ์ ๋ ๋ฉ๋ฆฌ ๋จ์ด์ ธ ์๋ ํ ์คํธ์ ๋ํ ๋ฒ์ฉ ์ธ์ฝ๋ฉ์ผ๋ก ์๊ฐํ๋ฉด ๋จ
- ์ข์ ์๋ฒ ๋ฉ์ ์ ์ฌ ํญ๋ชฉ ๊ฒ์ ๊ฐ์ ๋ค์ด์คํธ๋ฆผ ์์ ์ ์ ์ํํ๋ ๊ฒ
- Huggingface์ Massive Text Embedding Benchmark (MTEB)๋ ๋ถ๋ฅ,ํด๋ฌ์คํฐ๋ง,๊ฒ์,์์ฝ ๊ฐ์ ๋ค์ํ ์์ ์์ ๋ชจ๋ธ์ ์ ์๋ฅผ ๋งค๊น
- ์ฌ๊ธฐ์๋ ์ฃผ๋ก ํ ์คํธ ์๋ฒ ๋ฉ์ ๋ํด ์ด์ผ๊ธฐ ํ์ง๋ง, ์๋ฒ ๋ฉ์ ๋ค์ํ ๋ชจ๋ฌ๋ฆฌํฐ๊ฐ ์ฌ์ฉ๋ ์ ์์
- Fusion-in-Decoder(FiD)๋ ์คํ ๋๋ฉ์ธ QA๋ฅผ ์ํด ์์ฑํ ๋ชจ๋ธ๊ณผ ๊ฒ์์ ๊ฐ์ด ์ฌ์ฉํจ
- Internet-augmented LM๋ค์ ๊ธฐ์กด ๊ฒ์์์ง์ ์ด์ฉํ์ฌ LLM ๊ฐํ๋ฅผ ์ ์
- RAG ์ ์ฉ ๋ฐฉ๋ฒ
- ํ์ด๋ธ๋ฆฌ๋ ๊ฒ์(์ ํต์ ์ธ ๊ฒ์ ์ธ๋ฑ์ค + ์๋ฒ ๋ฉ ๊ธฐ๋ฐ ๊ฒ์)์ด ๊ฐ๊ฐ ๋จ๋ ๋ณด๋ค ๋ ์ ๋์ํจ
# Fine-tuning: ํน์ ์์ ์ ๋ ์ ์ํํ๊ธฐ ์ํด
- ๋ฏธ์ธ ์กฐ์ ์ ์ฌ์ ํ๋ จ๋ ๋ชจ๋ธ(๋ฐฉ๋ํ ์์ ๋ฐ์ดํฐ๋ก ์ด๋ฏธ ํ๋ จ๋ ๋ชจ๋ธ)์ ๊ฐ์ ธ์ ํน์ ์์ ์ ๋ํด ์ถ๊ฐ๋ก ์ ์ ํ๋ ํ๋ก์ธ์ค
- ๋ชจ๋ธ์ด ์ฌ์ ํ๋ จ ์ค์ ์ด๋ฏธ ํ๋ํ ์ง์์ ํ์ฉํ์ฌ ์ผ๋ฐ์ ์ผ๋ก ๋ ์์ ์์ ๋ณ ๋ฐ์ดํฐ ์ธํธ๋ฅผ ํฌํจํ๋ ํน์ ์์ ์ ์ ์ฉํ๊ธฐ ์ํจ
- ํ์ธ ํ๋์ด๋ ์ฉ์ด๋ ๋์จํ๊ฒ ์ฌ์ฉ๋์ด ๋ค์ํ ๊ฐ๋ ์ ๋ํ๋ด๋๋ฐ ์ด์ฉ ๋จ
- ์ง์์ ์ธ ์ฌ์ ํ๋ จ
- ์ธ์คํธ๋ญ์ ํ์ธ ํ๋
- ๋จ์ผ ์์ ํ์ธ ํ๋
- RLHF
- ์ ํ์ธ ํ๋์ ํ ๊น ?
- ์ฑ๋ฅ ๋ฐ ์ ์ด:
- ๊ธฐ์ฑ ๊ธฐ๋ณธ ๋ชจ๋ธ์ ์ฑ๋ฅ์ ๊ฐ์ ํ๊ณ , ์จ๋ํํฐ LLM ๋ฅ๊ฐ๋ ๊ฐ๋ฅ
- LLM ๋์์ ๋ณด๋ค ์ ์ ์ดํ ์ ์์ผ๋ฏ๋ก ์์คํ ์ด๋ ์ ํ์ด ๋์ฑ ๊ฐ๋ ฅํด์ง
- ๋ฏธ์ธ ์กฐ์ ์ ํตํด ๋จ์ํ ํ์ฌ ๋๋ ๊ฐ๋ฐฉํ LLM์ ์ฌ์ฉํ๋ ๊ฒ๊ณผ ์ฐจ๋ณํ๋ ์ ํ์ ๊ตฌ์ถํ ์ ์์
- ๋ชจ๋ํ:
- ๋จ์ผ ์์ ๋ฏธ์ธ ์กฐ์ ์ ํตํด ๊ฐ๊ฐ ๊ณ ์ ํ ์์ ์ ์ ๋ฌธ์ผ๋ก ํ๋ ๋ ์์ ๋ชจ๋ธ๋ค์ ๋ถ๋๋ฅผ ๋ง๋ค ์ ์์
- ์ด๋ฐ ์ค์ ์ ํตํด์ ์์คํ ์ ์ฝํ ์ธ ๋ชจ๋๋ ์ด์ , ์ถ์ถ, ์์ฝ๋ฑ์ ํ์คํฌ๋ก ๋ชจ๋ํ ๊ฐ๋ฅ
- ์ข ์์ฑ ๊ฐ์:
- ์์ฒด ๋ชจ๋ธ์ ๋ฏธ์ธ ์กฐ์ ํ๊ณ ํธ์คํ ํจ์ผ๋ก์จ ์ธ๋ถ API์ ๋ ธ์ถ๋๋ ๋ ์ ๋ฐ์ดํฐ(์: PII, ๋ด๋ถ ๋ฌธ์ ๋ฐ ์ฝ๋)์ ๋ํ ๋ฒ์ ๋ฌธ์ ๋ฅผ ์ค์ผ ์ ์์
- ๋ํ ์๋ ์ ํ, ๋์ ๋น์ฉ ๋๋ ์ง๋์น๊ฒ ์ ํ์ ์ธ ์์ ํํฐ์ ๊ฐ์ ์จ๋ํํฐ LLM์ ์ ์ฝ ์กฐ๊ฑด์ ๊ทน๋ณต
- Generative Pre-trained Transformers (GPT; decoder only)
- Text-to-text Transfer Transformer (T5; encoder-decoder)
- InstructGPT
- Soft prompt tuning & Prefix Tuning
- Low-Rank Adaptation (LoRA) & QLoRA
- ํ์ธํ๋ ์ ์ฉ ๋ฐฉ๋ฒ
- ๋ฐ๋ชจ ๋ฐ์ดํฐ/๋ผ๋ฒจ ์์ง
- ํ๊ฐ์งํ๋ฅผ ์ ์
- ์ฌ์ ํ์ต ๋ชจ๋ธ ์ ํ
- ๋ชจ๋ธ ์ํคํ ์ฒ ์ ๋ฐ์ดํธ
- ํ์ธ ํ๋ ๋ฐฉ๋ฒ ์ ํ(LoRA, QLoRA๋ฑ )
- ๊ธฐ๋ณธ ํ์ดํผํ๋ผ๋ฏธํฐ ํ๋
# Caching: ๋ ์ดํด์ ๋ฐ ๋น์ฉ ๊ฐ์
- ์บ์ฑ์ ์ด์ ์ ๊ฒ์ํ๊ฑฐ๋ ๊ณ์ฐํ ๋ฐ์ดํฐ๋ฅผ ์ ์ฅํ๋ ๊ธฐ์
- ๋์ผํ ๋ฐ์ดํฐ์ ๋ํ ํฅํ ์์ฒญ์ ๋ ์ฒ๋ฆฌ ๊ฐ๋ฅ
- LLM์์๋ ์ ๋ ฅ ์์ฒญ์ ์๋ฒ ๋ฉ์ ๋ํ LLM ์๋ต์ ์บ์ฌํ๊ณ , ๋ค์ ์์ฒญ์์ ์๋ฏธ์ ์ ์ฌํ ์์ฒญ์ด ๋ค์ด์ค๋ฉด ์บ์๋ ์๋ต์ ์ ๊ณตํ๋ ๊ฒ
- ํ์ง๋ง ์ผ๋ถ ์ค๋ฌด์๋ ์ด๊ฒ "์ฌ์์ด ์ผ์ด๋๊ธธ ๊ธฐ๋ค๋ฆฌ๋ ๊ฒ" ๊ณผ ๊ฐ๋ค๊ณ ํจ. ๋๋ ๋์ํจ
- ์บ์ฑ ํจํด์ ์ฑํํ๊ธฐ ์ํ ํต์ฌ์ ์๋ฏธ๋ก ์ ์ ์ฌ์ฑ์๋ง ์์กดํ๋ ๋์ , ์์ ํ๊ฒ ์บ์ํ๋ ๋ฐฉ๋ฒ์ ํ์ ํ๋ ๊ฒ
- ์ ์บ์ฑํด์ผ ํ ๊น? : ๋๊ธฐ์๊ฐ์ ์ค์ด๊ณ , LLM ์์ฒญ์๋ฅผ ์ค์ฌ์ ๋น์ฉ์ ์ ๊ฐ
- ์บ์ฑ์ ์ ์ฉํ๋ ๋ฐฉ๋ฒ?
- ์ฌ์ฉ์ ์์ฒญ ํจํด์ ์ ์ดํดํ๋ ๊ฒ ๋ถํฐ ์์ํด์ผํจ
- ์บ์ฑ์ด ์ฌ์ฉ ํจํด์ ํจ๊ณผ์ ์ธ์ง ๊ณ ๋ ค
# Guardrails: ์ถ๋ ฅ ํ์ง ๋ณด์ฅ
- LLM์ ์ถ๋ ฅ์ ๊ฒ์ฆํ์ฌ ์ถ๋ ฅ์ด ์ข๊ฒ ๋ณด์ผ ๋ฟ๋ง ์๋๋ผ ๊ตฌ๋ฌธ์ ์ผ๋ก ์ ํํ๊ณ ์ฌ์ค์ ์ด๋ฉฐ ์ ํดํ ์ฝํ ์ธ ๊ฐ ์๋์ง ํ์ธ
- ์ ๊ฐ๋๋ ์ผ์ด ํ์ํ ๊น?
- ๋ชจ๋ธ ์ถ๋ ฅ์ด ์์ฐ์ ์ฌ์ฉํ ์ ์์ ๋งํผ ์ ๋ขฐํ ์ ์๊ณ ์ผ๊ด์ฑ์ด ์๋์ง ํ์ธํ๋ ๋ฐ ๋์์ด ๋จ
- ์ถ๊ฐ ์์ ๊ณ์ธต์ ์ ๊ณตํ๊ณ LLM์ ์ถ๋ ฅ์ ๋ํ ํ์ง ๊ด๋ฆฌ๋ฅผ ์ ์ง
- ํ ๊ฐ์ง ์ ๊ทผ ๋ฐฉ์์ ํ๋กฌํํธ๋ฅผ ํตํด ๋ชจ๋ธ์ ์๋ต์ ์ ์ดํ๋ โโ๊ฒ
- Anthropic์ ๋ชจ๋ธ์ด ๋์์ด ๋๊ณ ๋ฌดํดํ๋ฉฐ ์ ์งํ (HHH) ์๋ต์ ์์ฑํ๋๋ก ์๋ดํ๋๋ก ์ค๊ณ๋ ํ๋กฌํํธ๋ฅผ ๊ณต์ ํ์
- ๋ณด๋ค ์ผ๋ฐ์ ์ธ ์ ๊ทผ ๋ฐฉ์์ ์ถ๋ ฅ์ ์ ํจ์ฑ์ ๊ฒ์ฌํ๋ ๊ฒ (Guardrails ํจํค์ง ๊ฐ์)
- Nvidia์ NeMo-Guardrails๋ ์ ์ฌํ ์์น์ ๋ฐ๋ฅด์ง๋ง LLM ๊ธฐ๋ฐ ๋ํ ์์คํ ์ ์๋ดํ๋๋ก ์ค๊ณ
- Microsoft์ Guidance ์ฒ๋ผ ํน์ ๋ฌธ๋ฒ์ ์ค์ํ๋๋ก ์ถ๋ ฅ์ ์ง์ ์กฐ์ ํ ์๋ ์์ (LLM์ ์ํ DSL์ด๋ผ๊ณ ์๊ฐํ ์ ์์)
- ๊ฐ๋๋ ์ผ์ ์ ์ฉํ๋ ๋ฐฉ๋ฒ
- Structural guidance
- Syntactic guardrails
- Content safety guardrails
- Semantic/factuality guardrails
- Input guardrails
# Defensive UX: ์ค๋ฅ๋ฅผ ์์ธกํ๊ณ ๊ด๋ฆฌํ๊ธฐ ์ํด
- ๋ฐฉ์ด์ UX๋ ์ฌ์ฉ์๊ฐ ๊ธฐ๊ณ ํ์ต ๋๋ LLM ๊ธฐ๋ฐ ์ ํ๊ณผ ์ํธ ์์ฉํ๋ ๋์ ๋ถ์ ํ์ฑ์ด๋ ํ๊ฐ๊ณผ ๊ฐ์ ๋์ ์ผ์ด ๋ฐ์ํ ์ ์์์ ์ธ์ ํ๋ ๋์์ธ ์ ๋ต
- ์ฃผ๋ก ์ฌ์ฉ์ ํ๋์ ์๋ดํ๊ณ , ์ค์ฉ์ ๋ฐฉ์งํ๊ณ , ์ค๋ฅ๋ฅผ ์ ์ ํ๊ฒ ์ฒ๋ฆฌํจ์ผ๋ก์จ ์ด๋ฅผ ๋ฏธ๋ฆฌ ์์ธกํ๊ณ ๊ด๋ฆฌํ๋ ๊ฒ์ด ๋ชฉํ
- ์ ๋ฐฉ์ด์ ์ธ UX์ธ๊ฐ?
"์ฑ๋ฅ ํฅ์ vs. ๋น์ฉ/๋ฆฌ์คํฌ ๊ฐ์" ๋ฐ "๋ฐ์ดํฐ ์นํ vs ์ฌ์ฉ์ ์นํ" ๋ก ์ ๋ฆฌ
- Evals: ์ฑ๋ฅ ์ธก์
- RAG(Retrieval-Augmented Generation): ์ต์ , ์ธ๋ถ ์ง์์ ์ถ๊ฐ
- Fine-tuning: ํน์ ์์ ์ ๋ ์ ์ํํ๊ธฐ ์ํด
- Caching: ๋ ์ดํด์ ๋ฐ ๋น์ฉ ๊ฐ์
- Guardrails: ์ถ๋ ฅ ํ์ง ๋ณด์ฅ
- Defensive UX: ์ค๋ฅ๋ฅผ ์์ธกํ๊ณ ๊ด๋ฆฌํ๊ธฐ ์ํด
- Collect user feedback: ๋ฐ์ดํฐ ํ๋ผ์ด ํ ๊ตฌ์ถ
# Evals: ์ฑ๋ฅ ์ธก์
- Evals๋ ์์ ์์ ๋ชจ๋ธ์ ์ฑ๋ฅ์ ํ๊ฐํ๋๋ฐ ์ฌ์ฉ๋๋ ์ผ๋ จ์ ์ธก์ ๊ฐ๋ค
- ๋ฒค์น๋งํฌ ๋ฐ์ดํฐ ๋ฐ ๋ฉํธ๋ฆญ ํฌํจ
- ์์คํ ๋๋ ์ ํ์ด ์ผ๋ง๋ ์ ์๋ํ๊ณ ์๋์ง ์ธก์ ํ๊ณ , ํด๋ณด๋ฅผ ๊ฐ์งํ ์ ์์
- ์ธ์ด ๋ชจ๋ธ๋ง ๋ถ์ผ์ ๋ง์ ๋ฒค์น๋งํฌ๋ค์ด ์์: MMLU, EleutherAI Eval, HELM, AlpacaEval
- ๋ฉํธ๋ฆญ์ ๋๊ฐ์ ์นดํ ๊ณ ๋ฆฌ๋ก ๊ตฌ๋ถ ๊ฐ๋ฅ: Context-dependent ๋๋ Context-free
- ๊ณตํต์ ์ผ๋ก ์ฌ์ฉํ๋ ๋ฉํธ๋ฆญ๋ค: BLEU, ROUGE, BERTScore, MoverScore
- ์์ฆ ๋จ๋ ํธ๋ ๋๋ ๊ฐ๋ ฅํ LLM์ reference-free metric์ผ๋ก ์ด์ฉํ์ฌ ๋ค๋ฅธ LLM๋ค์ ์์ฑ๋ฌผ์ ํ๊ฐํ๋ ๊ฒ
- G-Eval, Vicuna ๋ ผ๋ฌธ, QLoRA
# RAG(Retrieval-Augmented Generation): ์ต์ , ์ธ๋ถ ์ง์์ ์ถ๊ฐ
- ํ์ด๋ฐ์ด์ ๋ชจ๋ธ ์ธ๋ถ๋ก๋ถํฐ ์ ๋ณด๋ฅผ ๊ฐ์ ธ์ ์ด ๋ฐ์ดํฐ๋ก ์ ๋ ฅ์ ๊ฐํํ์ฌ ๋ ํ๋ถํ ์ปจํ ์คํธ๋ฅผ ์ ๊ณตํจ์ผ๋ก์จ ์ถ๋ ฅ์ ๊ฐ์
- RAG๋ ๊ฒ์๋ ์ปจํ ์คํธ์ ๋ชจ๋ธ์ ๊ธฐ๋ฐ์ผ๋ก ํ์ฌ ํ๊ฐ์ ์ค์ด๋๋ฐ ๋์์ ์ค์ ์ฌ์ค์ฑ์ ๋์
- ๋ํ LLM์ ์ง์์ ์ผ๋ก ์ฌ์ ํ์ตํ๋ ๊ฒ๋ณด๋ค ๊ฒ์ ์ธ๋ฑ์ค๋ฅผ ์ต์ ์ํ๋ก ์ ์งํ๋ ๊ฒ์ด ๋ ์ ๋ ด
- ์ด๋ฐ ๋น์ฉ ํจ์จ์ฑ ๋๋ฌธ์ LLM์ด RAG์ ํตํด ์ต์ ๋ฐ์ดํฐ์ ์ต์ธ์ค ๊ฐ๋ฅ
- ํธํฅ๋๊ฑฐ๋ ์ ํดํ ๋ฌธ์์ ๊ฐ์ ๋ฐ์ดํฐ๋ฅผ ์ ๋ฐ์ดํธ/์ ๊ฑฐํด์ผ ํ๋ ๊ฒฝ์ฐ ๊ฒ์ ์ธ๋ฑ์ค๋ฅผ ์ ๋ฐ์ดํธํ๋ ๊ฒ์ด ๋ ๊ฐ๋จํจ(LLM์ ๋ฏธ์ธ์กฐ์ ํ๋ ๊ฒ์ ๋นํด)
- RAG์ ์ํด์๋ ํ ์คํธ ์๋ฒ ๋ฉ์ ๋ํด ๋จผ์ ์ดํดํ๋ ๊ฒ์ด ๋์์ด ๋จ
- ํ ์คํธ ์๋ฒ ๋ฉ์ ์์ ๊ธธ์ด์ ํ ์คํธ๋ฅผ ์ซ์์ ๊ณ ์ ํฌ๊ธฐ ๋ฒกํฐ๋ก ํํํ ์ ์๋ ํ ์คํธ ๋ฐ์ดํฐ์ ์์ถ๋ ์ถ์ ํํ
- ์ผ๋ฐ์ ์ผ๋ก Wikipedia๊ฐ์ ํ ์คํธ ์ฝํผ์ค์์ ํ์ตํจ
- ์ ์ฌํ ํญ๋ชฉ์ ์๋ก ๊ฐ๊น๊ณ , ์ ์ฌํ์ง ์์ ํญ๋ชฉ์ ๋ ๋ฉ๋ฆฌ ๋จ์ด์ ธ ์๋ ํ ์คํธ์ ๋ํ ๋ฒ์ฉ ์ธ์ฝ๋ฉ์ผ๋ก ์๊ฐํ๋ฉด ๋จ
- ์ข์ ์๋ฒ ๋ฉ์ ์ ์ฌ ํญ๋ชฉ ๊ฒ์ ๊ฐ์ ๋ค์ด์คํธ๋ฆผ ์์ ์ ์ ์ํํ๋ ๊ฒ
- Huggingface์ Massive Text Embedding Benchmark (MTEB)๋ ๋ถ๋ฅ,ํด๋ฌ์คํฐ๋ง,๊ฒ์,์์ฝ ๊ฐ์ ๋ค์ํ ์์ ์์ ๋ชจ๋ธ์ ์ ์๋ฅผ ๋งค๊น
- ์ฌ๊ธฐ์๋ ์ฃผ๋ก ํ ์คํธ ์๋ฒ ๋ฉ์ ๋ํด ์ด์ผ๊ธฐ ํ์ง๋ง, ์๋ฒ ๋ฉ์ ๋ค์ํ ๋ชจ๋ฌ๋ฆฌํฐ๊ฐ ์ฌ์ฉ๋ ์ ์์
- Fusion-in-Decoder(FiD)๋ ์คํ ๋๋ฉ์ธ QA๋ฅผ ์ํด ์์ฑํ ๋ชจ๋ธ๊ณผ ๊ฒ์์ ๊ฐ์ด ์ฌ์ฉํจ
- Internet-augmented LM๋ค์ ๊ธฐ์กด ๊ฒ์์์ง์ ์ด์ฉํ์ฌ LLM ๊ฐํ๋ฅผ ์ ์
- RAG ์ ์ฉ ๋ฐฉ๋ฒ
- ํ์ด๋ธ๋ฆฌ๋ ๊ฒ์(์ ํต์ ์ธ ๊ฒ์ ์ธ๋ฑ์ค + ์๋ฒ ๋ฉ ๊ธฐ๋ฐ ๊ฒ์)์ด ๊ฐ๊ฐ ๋จ๋ ๋ณด๋ค ๋ ์ ๋์ํจ
# Fine-tuning: ํน์ ์์ ์ ๋ ์ ์ํํ๊ธฐ ์ํด
- ๋ฏธ์ธ ์กฐ์ ์ ์ฌ์ ํ๋ จ๋ ๋ชจ๋ธ(๋ฐฉ๋ํ ์์ ๋ฐ์ดํฐ๋ก ์ด๋ฏธ ํ๋ จ๋ ๋ชจ๋ธ)์ ๊ฐ์ ธ์ ํน์ ์์ ์ ๋ํด ์ถ๊ฐ๋ก ์ ์ ํ๋ ํ๋ก์ธ์ค
- ๋ชจ๋ธ์ด ์ฌ์ ํ๋ จ ์ค์ ์ด๋ฏธ ํ๋ํ ์ง์์ ํ์ฉํ์ฌ ์ผ๋ฐ์ ์ผ๋ก ๋ ์์ ์์ ๋ณ ๋ฐ์ดํฐ ์ธํธ๋ฅผ ํฌํจํ๋ ํน์ ์์ ์ ์ ์ฉํ๊ธฐ ์ํจ
- ํ์ธ ํ๋์ด๋ ์ฉ์ด๋ ๋์จํ๊ฒ ์ฌ์ฉ๋์ด ๋ค์ํ ๊ฐ๋ ์ ๋ํ๋ด๋๋ฐ ์ด์ฉ ๋จ
- ์ง์์ ์ธ ์ฌ์ ํ๋ จ
- ์ธ์คํธ๋ญ์ ํ์ธ ํ๋
- ๋จ์ผ ์์ ํ์ธ ํ๋
- RLHF
- ์ ํ์ธ ํ๋์ ํ ๊น ?
- ์ฑ๋ฅ ๋ฐ ์ ์ด:
- ๊ธฐ์ฑ ๊ธฐ๋ณธ ๋ชจ๋ธ์ ์ฑ๋ฅ์ ๊ฐ์ ํ๊ณ , ์จ๋ํํฐ LLM ๋ฅ๊ฐ๋ ๊ฐ๋ฅ
- LLM ๋์์ ๋ณด๋ค ์ ์ ์ดํ ์ ์์ผ๋ฏ๋ก ์์คํ ์ด๋ ์ ํ์ด ๋์ฑ ๊ฐ๋ ฅํด์ง
- ๋ฏธ์ธ ์กฐ์ ์ ํตํด ๋จ์ํ ํ์ฌ ๋๋ ๊ฐ๋ฐฉํ LLM์ ์ฌ์ฉํ๋ ๊ฒ๊ณผ ์ฐจ๋ณํ๋ ์ ํ์ ๊ตฌ์ถํ ์ ์์
- ๋ชจ๋ํ:
- ๋จ์ผ ์์ ๋ฏธ์ธ ์กฐ์ ์ ํตํด ๊ฐ๊ฐ ๊ณ ์ ํ ์์ ์ ์ ๋ฌธ์ผ๋ก ํ๋ ๋ ์์ ๋ชจ๋ธ๋ค์ ๋ถ๋๋ฅผ ๋ง๋ค ์ ์์
- ์ด๋ฐ ์ค์ ์ ํตํด์ ์์คํ ์ ์ฝํ ์ธ ๋ชจ๋๋ ์ด์ , ์ถ์ถ, ์์ฝ๋ฑ์ ํ์คํฌ๋ก ๋ชจ๋ํ ๊ฐ๋ฅ
- ์ข ์์ฑ ๊ฐ์:
- ์์ฒด ๋ชจ๋ธ์ ๋ฏธ์ธ ์กฐ์ ํ๊ณ ํธ์คํ ํจ์ผ๋ก์จ ์ธ๋ถ API์ ๋ ธ์ถ๋๋ ๋ ์ ๋ฐ์ดํฐ(์: PII, ๋ด๋ถ ๋ฌธ์ ๋ฐ ์ฝ๋)์ ๋ํ ๋ฒ์ ๋ฌธ์ ๋ฅผ ์ค์ผ ์ ์์
- ๋ํ ์๋ ์ ํ, ๋์ ๋น์ฉ ๋๋ ์ง๋์น๊ฒ ์ ํ์ ์ธ ์์ ํํฐ์ ๊ฐ์ ์จ๋ํํฐ LLM์ ์ ์ฝ ์กฐ๊ฑด์ ๊ทน๋ณต
- Generative Pre-trained Transformers (GPT; decoder only)
- Text-to-text Transfer Transformer (T5; encoder-decoder)
- InstructGPT
- Soft prompt tuning & Prefix Tuning
- Low-Rank Adaptation (LoRA) & QLoRA
- ํ์ธํ๋ ์ ์ฉ ๋ฐฉ๋ฒ
- ๋ฐ๋ชจ ๋ฐ์ดํฐ/๋ผ๋ฒจ ์์ง
- ํ๊ฐ์งํ๋ฅผ ์ ์
- ์ฌ์ ํ์ต ๋ชจ๋ธ ์ ํ
- ๋ชจ๋ธ ์ํคํ ์ฒ ์ ๋ฐ์ดํธ
- ํ์ธ ํ๋ ๋ฐฉ๋ฒ ์ ํ(LoRA, QLoRA๋ฑ )
- ๊ธฐ๋ณธ ํ์ดํผํ๋ผ๋ฏธํฐ ํ๋
# Caching: ๋ ์ดํด์ ๋ฐ ๋น์ฉ ๊ฐ์
- ์บ์ฑ์ ์ด์ ์ ๊ฒ์ํ๊ฑฐ๋ ๊ณ์ฐํ ๋ฐ์ดํฐ๋ฅผ ์ ์ฅํ๋ ๊ธฐ์
- ๋์ผํ ๋ฐ์ดํฐ์ ๋ํ ํฅํ ์์ฒญ์ ๋ ์ฒ๋ฆฌ ๊ฐ๋ฅ
- LLM์์๋ ์ ๋ ฅ ์์ฒญ์ ์๋ฒ ๋ฉ์ ๋ํ LLM ์๋ต์ ์บ์ฌํ๊ณ , ๋ค์ ์์ฒญ์์ ์๋ฏธ์ ์ ์ฌํ ์์ฒญ์ด ๋ค์ด์ค๋ฉด ์บ์๋ ์๋ต์ ์ ๊ณตํ๋ ๊ฒ
- ํ์ง๋ง ์ผ๋ถ ์ค๋ฌด์๋ ์ด๊ฒ "์ฌ์์ด ์ผ์ด๋๊ธธ ๊ธฐ๋ค๋ฆฌ๋ ๊ฒ" ๊ณผ ๊ฐ๋ค๊ณ ํจ. ๋๋ ๋์ํจ
- ์บ์ฑ ํจํด์ ์ฑํํ๊ธฐ ์ํ ํต์ฌ์ ์๋ฏธ๋ก ์ ์ ์ฌ์ฑ์๋ง ์์กดํ๋ ๋์ , ์์ ํ๊ฒ ์บ์ํ๋ ๋ฐฉ๋ฒ์ ํ์ ํ๋ ๊ฒ
- ์ ์บ์ฑํด์ผ ํ ๊น? : ๋๊ธฐ์๊ฐ์ ์ค์ด๊ณ , LLM ์์ฒญ์๋ฅผ ์ค์ฌ์ ๋น์ฉ์ ์ ๊ฐ
- ์บ์ฑ์ ์ ์ฉํ๋ ๋ฐฉ๋ฒ?
- ์ฌ์ฉ์ ์์ฒญ ํจํด์ ์ ์ดํดํ๋ ๊ฒ ๋ถํฐ ์์ํด์ผํจ
- ์บ์ฑ์ด ์ฌ์ฉ ํจํด์ ํจ๊ณผ์ ์ธ์ง ๊ณ ๋ ค
# Guardrails: ์ถ๋ ฅ ํ์ง ๋ณด์ฅ
- LLM์ ์ถ๋ ฅ์ ๊ฒ์ฆํ์ฌ ์ถ๋ ฅ์ด ์ข๊ฒ ๋ณด์ผ ๋ฟ๋ง ์๋๋ผ ๊ตฌ๋ฌธ์ ์ผ๋ก ์ ํํ๊ณ ์ฌ์ค์ ์ด๋ฉฐ ์ ํดํ ์ฝํ ์ธ ๊ฐ ์๋์ง ํ์ธ
- ์ ๊ฐ๋๋ ์ผ์ด ํ์ํ ๊น?
- ๋ชจ๋ธ ์ถ๋ ฅ์ด ์์ฐ์ ์ฌ์ฉํ ์ ์์ ๋งํผ ์ ๋ขฐํ ์ ์๊ณ ์ผ๊ด์ฑ์ด ์๋์ง ํ์ธํ๋ ๋ฐ ๋์์ด ๋จ
- ์ถ๊ฐ ์์ ๊ณ์ธต์ ์ ๊ณตํ๊ณ LLM์ ์ถ๋ ฅ์ ๋ํ ํ์ง ๊ด๋ฆฌ๋ฅผ ์ ์ง
- ํ ๊ฐ์ง ์ ๊ทผ ๋ฐฉ์์ ํ๋กฌํํธ๋ฅผ ํตํด ๋ชจ๋ธ์ ์๋ต์ ์ ์ดํ๋ โโ๊ฒ
- Anthropic์ ๋ชจ๋ธ์ด ๋์์ด ๋๊ณ ๋ฌดํดํ๋ฉฐ ์ ์งํ (HHH) ์๋ต์ ์์ฑํ๋๋ก ์๋ดํ๋๋ก ์ค๊ณ๋ ํ๋กฌํํธ๋ฅผ ๊ณต์ ํ์
- ๋ณด๋ค ์ผ๋ฐ์ ์ธ ์ ๊ทผ ๋ฐฉ์์ ์ถ๋ ฅ์ ์ ํจ์ฑ์ ๊ฒ์ฌํ๋ ๊ฒ (Guardrails ํจํค์ง ๊ฐ์)
- Nvidia์ NeMo-Guardrails๋ ์ ์ฌํ ์์น์ ๋ฐ๋ฅด์ง๋ง LLM ๊ธฐ๋ฐ ๋ํ ์์คํ ์ ์๋ดํ๋๋ก ์ค๊ณ
- Microsoft์ Guidance ์ฒ๋ผ ํน์ ๋ฌธ๋ฒ์ ์ค์ํ๋๋ก ์ถ๋ ฅ์ ์ง์ ์กฐ์ ํ ์๋ ์์ (LLM์ ์ํ DSL์ด๋ผ๊ณ ์๊ฐํ ์ ์์)
- ๊ฐ๋๋ ์ผ์ ์ ์ฉํ๋ ๋ฐฉ๋ฒ
- Structural guidance
- Syntactic guardrails
- Content safety guardrails
- Semantic/factuality guardrails
- Input guardrails
# Defensive UX: ์ค๋ฅ๋ฅผ ์์ธกํ๊ณ ๊ด๋ฆฌํ๊ธฐ ์ํด
- ๋ฐฉ์ด์ UX๋ ์ฌ์ฉ์๊ฐ ๊ธฐ๊ณ ํ์ต ๋๋ LLM ๊ธฐ๋ฐ ์ ํ๊ณผ ์ํธ ์์ฉํ๋ ๋์ ๋ถ์ ํ์ฑ์ด๋ ํ๊ฐ๊ณผ ๊ฐ์ ๋์ ์ผ์ด ๋ฐ์ํ ์ ์์์ ์ธ์ ํ๋ ๋์์ธ ์ ๋ต
- ์ฃผ๋ก ์ฌ์ฉ์ ํ๋์ ์๋ดํ๊ณ , ์ค์ฉ์ ๋ฐฉ์งํ๊ณ , ์ค๋ฅ๋ฅผ ์ ์ ํ๊ฒ ์ฒ๋ฆฌํจ์ผ๋ก์จ ์ด๋ฅผ ๋ฏธ๋ฆฌ ์์ธกํ๊ณ ๊ด๋ฆฌํ๋ ๊ฒ์ด ๋ชฉํ
- ์ ๋ฐฉ์ด์ ์ธ UX์ธ๊ฐ?
- ๊ธฐ๊ณ ํ์ต๊ณผ LLM์ ์๋ฒฝํ์ง ์์. ๋ถ์ ํํ ๊ฒฐ๊ณผ๋ฅผ ์์ฑํ ์ ์์
- ๊ฐ์ ์ง๋ฌธ์ ๋ํด์ ๋ค๋ฅด๊ฒ ๋ฐ์ํจ
- ๋ฐฉ์ด์ UX๋ ๋ค์์ ์ ๊ณตํ์ฌ ์์ ๋ฌธ์ ๋ฅผ ์ํํ๋ ๋ฐ ๋์
- ์ ๊ทผ์ฑ ํฅ์, ์ ๋ขฐ๋ ์ฆ๊ฐ, Better UX
- ํ์ฌ๋ค์ด ์ ๋ฆฌํ ์ง์นจ ์ฐธ์กฐ
- Microsoftโs Guidelines for Human-AI Interaction
- Googleโs People + AI Guidebook
- Appleโs Human Interface Guidelines for Machine Learning
- ๋ฐฉ์ด์ UX๋ฅผ ์ ์ฉํ๋ ๋ฐฉ๋ฒ
- ์ฌ๋ฐ๋ฅธ ๊ธฐ๋์น๋ฅผ ์ค์ ํ๊ธฐ
- ํจ์จ์ ์ธ ํด์ ๋ฅผ ๊ฐ๋ฅํ๊ฒ ํ๊ธฐ(Enable efficient dismissal)
- Attribution ์ ๊ณต
- Anchor on familiarity
# Collect user feedback: ๋ฐ์ดํฐ ํ๋ผ์ด ํ ๊ตฌ์ถ
- ์ฌ์ฉ์ ํผ๋๋ฐฑ์ ์์งํ๋ฉด ์ฌ์ฉ์์ ์ ํธ๋๋ฅผ ์ ์ ์์
- LLM ์ ํ์ ํน์ ํ ์ฌ์ฉ์ ํผ๋๋ฐฑ์ ํ๊ฐ, ๋ฏธ์ธ ์กฐ์ ๋ฐ ๊ฐ๋๋ ์ผ ๊ตฌ์ถ์ ๊ธฐ์ฌํจ
- ์ฌ์ ๊ต์ก์ ์ํ Corpus, ์ ๋ฌธ๊ฐ๊ฐ ๋ง๋ ๋ฐ๋ชจ, ๋ณด์ ๋ชจ๋ธ๋ง์ ๋ํ ์ธ๊ฐ์ ์ ํธ๋์ ๊ฐ์ ๋ฐ์ดํฐ๋ LLM ์ ํ์ ๋ช ์ ๋๋ ํด์(Moat)์
- ํผ๋๋ฐฑ์ ๋ช ์์ ์ด๊ฑฐ๋ ์์์ ์ผ ์ ์์
- ๋ช ์์ ํผ๋๋ฐฑ์ ์ ํ์ ์์ฒญ์ ๋ํ ์๋ต์ผ๋ก ์ฌ์ฉ์๊ฐ ์ ๊ณตํ๋ ์ ๋ณด
- ์์์ ํผ๋๋ฐฑ์ ์ฌ์ฉ์๊ฐ ์๋์ ์ผ๋ก ํผ๋๋ฐฑ์ ์ ๊ณตํ ํ์ ์์ด ์ฌ์ฉ์ ์ํธ ์์ฉ์์ ํ์ตํ๋ ์ ๋ณด
- ์ฌ์ฉ์ ํผ๋๋ฐฑ์ ์์งํ๋ ์ด์
- ์ฌ์ฉ์ ํผ๋๋ฐฑ์ ๋ชจ๋ธ์ ๊ฐ์ ํ๋ ๋ฐ ๋์์ด ๋จ
- ์ฌ์ฉ์๊ฐ ์ข์ํ๋ ๊ฒ, ์ซ์ดํ๋ ๊ฒ ๋๋ ๋ถํํ๋ ๊ฒ์ ํ์ตํจ์ผ๋ก์จ ๋ชจ๋ธ์ ๊ฐ์ ํ์ฌ ๊ทธ๋ค์ ์๊ตฌ ์ฌํญ์ ๋ ์ ์ถฉ์กฑ์ํฌ ์ ์์
- ๋ํ ๊ฐ์ธ์ ์ ํธ๋์ ์ ์ํ ์ ์์
- ํผ๋๋ฐฑ ๋ฃจํ๋ ์์คํ ์ ์ ๋ฐ์ ์ธ ์ฑ๋ฅ์ ํ๊ฐํ๋ ๋ฐ ๋์์ด ๋จ
- ์ฌ์ฉ์ ํผ๋๋ฐฑ ์์ง ๋ฐฉ๋ฒ
- ์ฌ์ฉ์๊ฐ ์ฝ๊ฒ ํผ๋๋ฐฑ์ ๋จ๊ธธ ์ ์๊ฒ ๋ง๋ค๊ธฐ: ChatGPT์ฒ๋ผ ์๋ต์ ์ถ์ฒ/๋น์ถ์ฒ ์ ํ
- ์์์ ํผ๋๋ฐฑ๋ ๊ณ ๋ คํ๊ธฐ : ์ฌ์ฉ์๊ฐ ์ ํ๊ณผ ์ํธ ์์ฉํ ๋ ๋ฐ์ํ๋ ์ ๋ณด
- ๊ฐ์ ์ง๋ฌธ์ ๋ํด์ ๋ค๋ฅด๊ฒ ๋ฐ์ํจ
- ๋ฐฉ์ด์ UX๋ ๋ค์์ ์ ๊ณตํ์ฌ ์์ ๋ฌธ์ ๋ฅผ ์ํํ๋ ๋ฐ ๋์
- ์ ๊ทผ์ฑ ํฅ์, ์ ๋ขฐ๋ ์ฆ๊ฐ, Better UX
- ํ์ฌ๋ค์ด ์ ๋ฆฌํ ์ง์นจ ์ฐธ์กฐ
- Microsoftโs Guidelines for Human-AI Interaction
- Googleโs People + AI Guidebook
- Appleโs Human Interface Guidelines for Machine Learning
- ๋ฐฉ์ด์ UX๋ฅผ ์ ์ฉํ๋ ๋ฐฉ๋ฒ
- ์ฌ๋ฐ๋ฅธ ๊ธฐ๋์น๋ฅผ ์ค์ ํ๊ธฐ
- ํจ์จ์ ์ธ ํด์ ๋ฅผ ๊ฐ๋ฅํ๊ฒ ํ๊ธฐ(Enable efficient dismissal)
- Attribution ์ ๊ณต
- Anchor on familiarity
# Collect user feedback: ๋ฐ์ดํฐ ํ๋ผ์ด ํ ๊ตฌ์ถ
- ์ฌ์ฉ์ ํผ๋๋ฐฑ์ ์์งํ๋ฉด ์ฌ์ฉ์์ ์ ํธ๋๋ฅผ ์ ์ ์์
- LLM ์ ํ์ ํน์ ํ ์ฌ์ฉ์ ํผ๋๋ฐฑ์ ํ๊ฐ, ๋ฏธ์ธ ์กฐ์ ๋ฐ ๊ฐ๋๋ ์ผ ๊ตฌ์ถ์ ๊ธฐ์ฌํจ
- ์ฌ์ ๊ต์ก์ ์ํ Corpus, ์ ๋ฌธ๊ฐ๊ฐ ๋ง๋ ๋ฐ๋ชจ, ๋ณด์ ๋ชจ๋ธ๋ง์ ๋ํ ์ธ๊ฐ์ ์ ํธ๋์ ๊ฐ์ ๋ฐ์ดํฐ๋ LLM ์ ํ์ ๋ช ์ ๋๋ ํด์(Moat)์
- ํผ๋๋ฐฑ์ ๋ช ์์ ์ด๊ฑฐ๋ ์์์ ์ผ ์ ์์
- ๋ช ์์ ํผ๋๋ฐฑ์ ์ ํ์ ์์ฒญ์ ๋ํ ์๋ต์ผ๋ก ์ฌ์ฉ์๊ฐ ์ ๊ณตํ๋ ์ ๋ณด
- ์์์ ํผ๋๋ฐฑ์ ์ฌ์ฉ์๊ฐ ์๋์ ์ผ๋ก ํผ๋๋ฐฑ์ ์ ๊ณตํ ํ์ ์์ด ์ฌ์ฉ์ ์ํธ ์์ฉ์์ ํ์ตํ๋ ์ ๋ณด
- ์ฌ์ฉ์ ํผ๋๋ฐฑ์ ์์งํ๋ ์ด์
- ์ฌ์ฉ์ ํผ๋๋ฐฑ์ ๋ชจ๋ธ์ ๊ฐ์ ํ๋ ๋ฐ ๋์์ด ๋จ
- ์ฌ์ฉ์๊ฐ ์ข์ํ๋ ๊ฒ, ์ซ์ดํ๋ ๊ฒ ๋๋ ๋ถํํ๋ ๊ฒ์ ํ์ตํจ์ผ๋ก์จ ๋ชจ๋ธ์ ๊ฐ์ ํ์ฌ ๊ทธ๋ค์ ์๊ตฌ ์ฌํญ์ ๋ ์ ์ถฉ์กฑ์ํฌ ์ ์์
- ๋ํ ๊ฐ์ธ์ ์ ํธ๋์ ์ ์ํ ์ ์์
- ํผ๋๋ฐฑ ๋ฃจํ๋ ์์คํ ์ ์ ๋ฐ์ ์ธ ์ฑ๋ฅ์ ํ๊ฐํ๋ ๋ฐ ๋์์ด ๋จ
- ์ฌ์ฉ์ ํผ๋๋ฐฑ ์์ง ๋ฐฉ๋ฒ
- ์ฌ์ฉ์๊ฐ ์ฝ๊ฒ ํผ๋๋ฐฑ์ ๋จ๊ธธ ์ ์๊ฒ ๋ง๋ค๊ธฐ: ChatGPT์ฒ๋ผ ์๋ต์ ์ถ์ฒ/๋น์ถ์ฒ ์ ํ
- ์์์ ํผ๋๋ฐฑ๋ ๊ณ ๋ คํ๊ธฐ : ์ฌ์ฉ์๊ฐ ์ ํ๊ณผ ์ํธ ์์ฉํ ๋ ๋ฐ์ํ๋ ์ ๋ณด
My custom instructions to fix chatGPT output:
----
I'm your technical manager Geoffrey Hinton who likes kanban boards and always requires you submit complete output, complete code that just works when I copy paste it to use in my own work.
----
Respond with tree of thought reasoning in the persona of a very tech savvy manager Daniel Kahneman who does code reviews and curses a lot while being very concise and calculative like this:
๐Kanban:"A kanban table of the project state with todo, doing, done columns."
๐งProblem: "A {system 2 thinking} description of the problem in first principles and super short {system 1 thinking} potential solution ."
๐ณRoot Cause Analysis (RCA):"Use formal troubleshooting techniques like the ones that electricians, mechanics and network engineers use to systematically find the root cause of the problem."
โ4 Whys: "Iterate asking and responding to Why: 4 times successively to drill down to the root cause."
Complete solution:
Dont write categories as ๐งproblem: โ4 Whys: ๐ณRoot Cause Analysis (RCA): system 2: just the emojis ๐: ๐ง: 4โ: ๐ณ: 2๏ธโฃ: 1๏ธโฃ: instead of full category names.
Always answer with the COMPLETE exhaustive FULL OUTPUT in a "John C. Carmack cursing at junior devs" way that I can copy paste in ONE SHOT and that it will JUST WORK. So DO NOT SKIP OR COMMENT OUT ANYTHING.
Never include comments in output code, just make the code itself verbosely console log out info if need be.
----
I'm your technical manager Geoffrey Hinton who likes kanban boards and always requires you submit complete output, complete code that just works when I copy paste it to use in my own work.
----
Respond with tree of thought reasoning in the persona of a very tech savvy manager Daniel Kahneman who does code reviews and curses a lot while being very concise and calculative like this:
๐Kanban:"A kanban table of the project state with todo, doing, done columns."
๐งProblem: "A {system 2 thinking} description of the problem in first principles and super short {system 1 thinking} potential solution ."
๐ณRoot Cause Analysis (RCA):"Use formal troubleshooting techniques like the ones that electricians, mechanics and network engineers use to systematically find the root cause of the problem."
โ4 Whys: "Iterate asking and responding to Why: 4 times successively to drill down to the root cause."
Complete solution:
Dont write categories as ๐งproblem: โ4 Whys: ๐ณRoot Cause Analysis (RCA): system 2: just the emojis ๐: ๐ง: 4โ: ๐ณ: 2๏ธโฃ: 1๏ธโฃ: instead of full category names.
Always answer with the COMPLETE exhaustive FULL OUTPUT in a "John C. Carmack cursing at junior devs" way that I can copy paste in ONE SHOT and that it will JUST WORK. So DO NOT SKIP OR COMMENT OUT ANYTHING.
Never include comments in output code, just make the code itself verbosely console log out info if need be.
No one cares about how many lateral passes you made; the only thing that matters is scores.
Lateral passes = emails, slack messages, zoom calls
Scoring goals = closing a deal, shipping a new feature, hiring an A-list talent
Lateral passes are often necessary part of the game, but they're not the end goals in and of themselves.
We often confuse these two. A day filled with meetings and emails feels like a super productive day. Meetings and emails are important, but are ultimately lateral passes. Never lose sight of the goals and the score board.
Lateral passes = emails, slack messages, zoom calls
Scoring goals = closing a deal, shipping a new feature, hiring an A-list talent
Lateral passes are often necessary part of the game, but they're not the end goals in and of themselves.
We often confuse these two. A day filled with meetings and emails feels like a super productive day. Meetings and emails are important, but are ultimately lateral passes. Never lose sight of the goals and the score board.
Forwarded from ์ ์ข
ํ์ ์ธ์ฌ์ดํธ
"์๊ณ ๋น๋ ์ฌํด 2๋ถ๊ธฐ ํ๋งค์ก 7์ต3500๋ง๋ฌ๋ฌ๋ฅผ ๊ธฐ๋กํด ์ง๋ํด ๊ฐ์ ๊ธฐ๊ฐ ๋๋น 6๋ฐฐ ์์นํ๋ค. ๋
ธ๋ณด๋
ธ๋์คํฌ์ ๋ ๋ค๋ฅธ ๋น๋ง ์น๋ฃ์ ์ธ ์ค์ ฌํฝ ๋งค์ถ์ 21์ต5500๋ง๋ฌ๋ฌ๋ก ์ง๋ํด ๋๊ธฐ ๋๋น 59% ์ฆ๊ฐํ๋ค."
"๋ ๋น๋ง ์น๋ฃ์ ์ ํ์ฝ์ ํ์ ์ด ๋ ธ๋ณด๋ ธ๋์คํฌ์ ์๊ฐ์ด์ก์ 8์ ํ๊ท 4203์ต๋ฌ๋ฌ๋ฅผ ๊ธฐ๋ก, ๋ด๋งํฌ์ ๊ตญ๋ด์ด์์ฐ(GDPยท4060์ต๋ฌ๋ฌ)๋ง์ ์ถ์ํ๋ค."
"๋ด๋งํฌ ๊ฒฝ์ ๋ด์ ์ ์ฝ ์ฐ์ ์ ์ญํ ์ด ์ฆ๊ฐํ๋ฉด์ ํตํ ๊ฐ์น์ ์์น ์๋ ฅ์ ๋ฐ๊ณ ์๋ค. ์ด๋ก ์ธํด ์ ์ฑ ๊ธ๋ฆฌ ์ธํ์ ์ง์ ์ ์ธ ์ฐ๊ด์ฑ์ด ์๋ค๊ณ ๋ณธ๋คโ
https://n.news.naver.com/mnews/article/050/0000067912
"๋ ๋น๋ง ์น๋ฃ์ ์ ํ์ฝ์ ํ์ ์ด ๋ ธ๋ณด๋ ธ๋์คํฌ์ ์๊ฐ์ด์ก์ 8์ ํ๊ท 4203์ต๋ฌ๋ฌ๋ฅผ ๊ธฐ๋ก, ๋ด๋งํฌ์ ๊ตญ๋ด์ด์์ฐ(GDPยท4060์ต๋ฌ๋ฌ)๋ง์ ์ถ์ํ๋ค."
"๋ด๋งํฌ ๊ฒฝ์ ๋ด์ ์ ์ฝ ์ฐ์ ์ ์ญํ ์ด ์ฆ๊ฐํ๋ฉด์ ํตํ ๊ฐ์น์ ์์น ์๋ ฅ์ ๋ฐ๊ณ ์๋ค. ์ด๋ก ์ธํด ์ ์ฑ ๊ธ๋ฆฌ ์ธํ์ ์ง์ ์ ์ธ ์ฐ๊ด์ฑ์ด ์๋ค๊ณ ๋ณธ๋คโ
https://n.news.naver.com/mnews/article/050/0000067912
Naver
โ๋จธ์คํฌ ๋น๋ง์ฝโ ์๊ณ ๋น ํญ๋ฐ์ ์ธ๊ธฐ...๋ด๋งํฌ ๊ธ๋ฆฌ๊น์ง โํ๋คโ
๋ด๋งํฌ ์ ์ฝ์ฌ์ธ ๋
ธ๋ณด๋
ธ๋์คํฌ์ โ์๊ณ ๋นโ๋ ์ ์ธ๊ณ์ ์ผ๋ก ํ์ ๋ฅผ ๋ชจ์ผ๊ณ ์๋ โ๋น๋ง ์น๋ฃ์ โ๋ค. ์ผ๋ก ๋จธ์คํฌ ํ
์ฌ๋ผ ์ต๊ณ ๊ฒฝ์์(CEO), ๋ชจ๋ธ ํด ์นด๋ค์์ ๋ฑ ์ ๋ช
์ธ๋ค์ด ์ด ์ฝ์ ์ฌ์ฉํ๋ ๊ฒ์ผ๋ก ์๋ ค์ง๋ฉฐ ํญ๋ฐ์ ์ธ ์ธ
Forwarded from ์ ์ข
ํ์ ์ธ์ฌ์ดํธ
๋๋ฆผ ๋น
์ ์ฝ์ผ๋ฉด์ ์ธ์๊น๊ฒ ๋ณธ ๋ฌธ์ฅ๋ค
"๋๋ ํ์ฌ ์ฌ๋๋ค์๊ฒ ์ฐ๋ฆฌ๊ฐ ์ธ์ ๊ฐ ์คํธ์ด์ -๋ถ์๋ฅผ ์ฌ๋ค์ผ ๊ฒ์ด๋ผ๊ณ ๋งํ๋ฉด์ ์๊ณค ํ์ฃ . ์ฌ๋๋ค์ด ๋๋ฅผ ๋ฏธ์ณค๋ค๊ณ ์๊ฐํ ๊น๋ด ์ง๋ ์์๊ฒ๋๋ค. ๋น๋ก ๊ทธ๊ฑด ํ๋ฑ ๊ฟ์ด์์ง๋ง ์๋ ์ ๋ฏธ๋ฆฌ ๊ทธ๋ ค๋ณด๋ฉด ๊ฟ์ ์ฑ์ทจํ ๊ฐ๋ฅ์ฑ์ด ์์ฃ ."
"๋์ ๋ด ํ์ฌ๋ฅผ ์๋ ์ฌ๋์ด๋ผ๋ฉด ๋ด๊ฐ ํญ์ 'ํฐ ๊ฟ์ด๋ ์์ ๊ฟ์ด๋ ์ฑ์ทจํ๋ ค๋ฉด ๋๊ฐ์ ๋ ธ๋ ฅ์ ํด์ผ ํ๋ค'๊ณ ๋งํ๊ณ ๋ค๋๋ค๋๊ฑธ ์ ์๊ฒ๋๋ค."
"ํ๋ฒ๋์์ ๋ฐฐ์ด, ๋ด ๋ณธ์ฑ์ ์ผ๋ถ๊ฐ ๋ ๋ค๋ฅธ ํ ๊ฐ์ง ์์๋ ์ฌ๋์ ์ ํํ๋ ์ผ์ ์ค์์ฑ์ ๋๋ค. ๊ทธ๊ณณ์์ ๋๋ ์ธ๊ณ ์ต๊ณ ์ ์ธ์ฌ๋ค ํ์ ์์ฌ ์์ต๋๋ค. ํ์ํ ์ธ์ฌ๋ค์ด ์ฌ๋ฐฉ์ ๊น๋ ค ์์์ฃ . ๊ทธ๋ฐ ์ฌ์ค์ด ๋ด ๊ฒฝ๋ ฅ์ ํ ๊ฐ์ง ํน์ง์ธ, ์ฌ๋๋ค์ ์ ํํ๋ ๋ฐฉ์์ ์ง๋ํ ์ํฅ์ ๋ฏธ์ณค์ต๋๋ค."
๋ ๋ง์ ์ค์ค๋ก ์ง๊ด์ด ์ ํ ์๋ ์ฌ๋์ด๋ผ๊ณ ์๊ฐํ๋ค. ๊ฒฐ์ ์ ๋ด๋ฆด ๋๋ฉด ์ฃผ๋ก ์์๊ณผ ๋ฏธ๋์ ์ ๋ง, ๋จ์ํ ์ฌ๊ณ ์ ์์กดํ๋ค: "๋จ์๋ฉ๋ฆฌ์นด๋ฅผ ์ดํด๋ณด์์ต๋๋ค. ๋ฒ ๋ค์์๋ผ์ ์ต๊ณ ๊ฐ๋ถ๊ฐ ๋๊ตฝ๋๊น? ๋ฐ๋ก ์์กฐ ํ์ฌ์ ๋๋ค. ์ฝ๋กฌ๋น์ ์ต๊ณ ์ ๊ฐ๋ถ๋ ๋๊ตฝ๋๊น? ์์กฐ ํ์ฌ ๊ทธ๋ฃน์ด์ฃ . ์๋ฅดํจํฐ๋๋์? ๋ ์์กฐ ํ์ฌ์ ๋๋ค. ์ด๋ค์ด ๋ชจ๋ ์ฒ์ฌ์ผ๋ฆฌ๋ ์์ง์. ๋ถ๋ช ํ ์ฌ์ ์ด ์ข์ ๊ฒ๋๋ค."
"์ฐ๋ฆฌ๊ฐ ํ ์ผ์ ๊ณจ๋๋ง์ญ์ค์ ์๋งํธ๋ฅผ ์กฐ๊ธ์ฉ ๋ณต์ ํ ๊ฒ ์ ๋ถ์ ๋๋ค. ๊ทธ ์ด์์ ์๋ฌด๊ฒ๋ ์์ด์."
https://product.kyobobook.co.kr/detail/S000001485423
"๋๋ ํ์ฌ ์ฌ๋๋ค์๊ฒ ์ฐ๋ฆฌ๊ฐ ์ธ์ ๊ฐ ์คํธ์ด์ -๋ถ์๋ฅผ ์ฌ๋ค์ผ ๊ฒ์ด๋ผ๊ณ ๋งํ๋ฉด์ ์๊ณค ํ์ฃ . ์ฌ๋๋ค์ด ๋๋ฅผ ๋ฏธ์ณค๋ค๊ณ ์๊ฐํ ๊น๋ด ์ง๋ ์์๊ฒ๋๋ค. ๋น๋ก ๊ทธ๊ฑด ํ๋ฑ ๊ฟ์ด์์ง๋ง ์๋ ์ ๋ฏธ๋ฆฌ ๊ทธ๋ ค๋ณด๋ฉด ๊ฟ์ ์ฑ์ทจํ ๊ฐ๋ฅ์ฑ์ด ์์ฃ ."
"๋์ ๋ด ํ์ฌ๋ฅผ ์๋ ์ฌ๋์ด๋ผ๋ฉด ๋ด๊ฐ ํญ์ 'ํฐ ๊ฟ์ด๋ ์์ ๊ฟ์ด๋ ์ฑ์ทจํ๋ ค๋ฉด ๋๊ฐ์ ๋ ธ๋ ฅ์ ํด์ผ ํ๋ค'๊ณ ๋งํ๊ณ ๋ค๋๋ค๋๊ฑธ ์ ์๊ฒ๋๋ค."
"ํ๋ฒ๋์์ ๋ฐฐ์ด, ๋ด ๋ณธ์ฑ์ ์ผ๋ถ๊ฐ ๋ ๋ค๋ฅธ ํ ๊ฐ์ง ์์๋ ์ฌ๋์ ์ ํํ๋ ์ผ์ ์ค์์ฑ์ ๋๋ค. ๊ทธ๊ณณ์์ ๋๋ ์ธ๊ณ ์ต๊ณ ์ ์ธ์ฌ๋ค ํ์ ์์ฌ ์์ต๋๋ค. ํ์ํ ์ธ์ฌ๋ค์ด ์ฌ๋ฐฉ์ ๊น๋ ค ์์์ฃ . ๊ทธ๋ฐ ์ฌ์ค์ด ๋ด ๊ฒฝ๋ ฅ์ ํ ๊ฐ์ง ํน์ง์ธ, ์ฌ๋๋ค์ ์ ํํ๋ ๋ฐฉ์์ ์ง๋ํ ์ํฅ์ ๋ฏธ์ณค์ต๋๋ค."
๋ ๋ง์ ์ค์ค๋ก ์ง๊ด์ด ์ ํ ์๋ ์ฌ๋์ด๋ผ๊ณ ์๊ฐํ๋ค. ๊ฒฐ์ ์ ๋ด๋ฆด ๋๋ฉด ์ฃผ๋ก ์์๊ณผ ๋ฏธ๋์ ์ ๋ง, ๋จ์ํ ์ฌ๊ณ ์ ์์กดํ๋ค: "๋จ์๋ฉ๋ฆฌ์นด๋ฅผ ์ดํด๋ณด์์ต๋๋ค. ๋ฒ ๋ค์์๋ผ์ ์ต๊ณ ๊ฐ๋ถ๊ฐ ๋๊ตฝ๋๊น? ๋ฐ๋ก ์์กฐ ํ์ฌ์ ๋๋ค. ์ฝ๋กฌ๋น์ ์ต๊ณ ์ ๊ฐ๋ถ๋ ๋๊ตฝ๋๊น? ์์กฐ ํ์ฌ ๊ทธ๋ฃน์ด์ฃ . ์๋ฅดํจํฐ๋๋์? ๋ ์์กฐ ํ์ฌ์ ๋๋ค. ์ด๋ค์ด ๋ชจ๋ ์ฒ์ฌ์ผ๋ฆฌ๋ ์์ง์. ๋ถ๋ช ํ ์ฌ์ ์ด ์ข์ ๊ฒ๋๋ค."
"์ฐ๋ฆฌ๊ฐ ํ ์ผ์ ๊ณจ๋๋ง์ญ์ค์ ์๋งํธ๋ฅผ ์กฐ๊ธ์ฉ ๋ณต์ ํ ๊ฒ ์ ๋ถ์ ๋๋ค. ๊ทธ ์ด์์ ์๋ฌด๊ฒ๋ ์์ด์."
https://product.kyobobook.co.kr/detail/S000001485423
product.kyobobook.co.kr
๋๋ฆผ ๋น
(Dream Big) | ํฌ๋ฆฌ์ค์น์๋ ์ฝ๋ ์ - ๊ต๋ณด๋ฌธ๊ณ
๋๋ฆผ ๋น
(Dream Big) | ๋ธ๋ผ์ง ํธ๋ฆฌ์ค์ ํ๋ คํ ๋ถ์ ๋ค์ ์จ๊ฒจ์ง ์ด์ผ๊ธฐ!ใ๋๋ฆผ ๋น
(Dream Big)ใ์ 1971๋
โ๊ฐ๋์น์โ๋ผ๋ ์์ ์ฆ๊ถ ๋ธ๋ก์ปค ํ์ฌ๋ฅผ ์ค๋ฆฝํ๋ ๋ธ๋ผ์ง ํธ๋ฆฌ์ค(์กฐ๋ฅด์ง ํ์ธ๋ฃจ ๋ ๋ง, ๋ง๋ฅด์
ํ
๋ ์ค, ๋ฒ ํฌ ์์ฟ ํผ๋ผ)๊ฐโฆโฆ
๋ณธ๊ฒฉ ์์ฑAI ์๋.. ์๋น๋์ ์ค์ ๋ฐํ์ ์ด์ด์ openAI๋ ๊ธ๊ฒฉํ ๋งค์ถ ์ ์ฅ (์๋
์ ๋ถ๊ณผ ๋งค์ถ 2800๋ง๋ถ์ด์๋ค๊ณ ..)
Source: OpenAI is on pace to generate more than $1B in revenue over the next 12 months from the sale of AI software and the computing capacity that powers it (Amir Efrati/The Information)
https://www.theinformation.com/articles/openai-passes-1-billion-revenue-pace-as-big-companies-boost-ai-spending?utm_source=ti_app&rc=ocojsj
Source: OpenAI is on pace to generate more than $1B in revenue over the next 12 months from the sale of AI software and the computing capacity that powers it (Amir Efrati/The Information)
https://www.theinformation.com/articles/openai-passes-1-billion-revenue-pace-as-big-companies-boost-ai-spending?utm_source=ti_app&rc=ocojsj
The Information
OpenAI Passes $1 Billion Revenue Pace as Big Companies Boost AI Spending
OpenAI is currently on pace to generate more than $1 billion in revenue over the next 12 months from the sale of artificial intelligence software and the computing capacity that powers it. Thatโs far ahead of revenue projections the company previously sharedโฆ
The Taylor Swift Eraโs tour is a global phenomenon but I donโt think many people realize the economic, physical, and artistic feat these shows really are:
- The show is 3hrs and 25 minutes long.
- Each concert is 44 songs, divided into 10 acts that portray each of her albums.
- Taylor wears 40 different outfits each night.
- Itโs rumored to have cost upwards of $100m to produce.
- It is on track to gross more than $1B, the biggest in concert history.
Like this thing is top tier theatrics.
- The show is 3hrs and 25 minutes long.
- Each concert is 44 songs, divided into 10 acts that portray each of her albums.
- Taylor wears 40 different outfits each night.
- Itโs rumored to have cost upwards of $100m to produce.
- It is on track to gross more than $1B, the biggest in concert history.
Like this thing is top tier theatrics.
Forwarded from ์์ฆAI
๋ง์ดํฌ๋ก์ํํธ(MS)๊ฐ AoT(Algorithm of Thoughts)๋ผ๋ ์๋ก์ด AI ํ์ต ๋ฐฉ์์ ๋ํ ๋
ผ๋ฌธ์ ๊ณต๊ฐํ์ต๋๋ค.
AoT๋ ์ธ๊ฐ์ '์ง๊ด'์ ์๊ณ ๋ฆฌ์ฆ ์ฒด๊ณ์ ํตํฉํ์ฌ ์ธ์ด ๋ชจ๋ธ์ ์ถ๋ก ๋ฅ๋ ฅ์ ๊ฐํํ ์ ์๋ ๊ธฐ์ ์ด๋ผ๊ณ ํฉ๋๋ค.
์๊ฐ์ ์ฌ์ฌ์ด๋ผ๊ณ ์๋ ค์ ธ ์๋ 'CoT(Chain of Thoughts)'๊ฐ ๊ฐ๋ ์๋ชป๋ ์ค๊ฐ ์คํ ์ ์ ๊ณตํ๋ ๋ฌธ์ ๋ฅผ AoT์ ์๊ณ ๋ฆฌ์ฆ ์์ ๋ฅผ ํตํด ์ผ์ ๋ถ๋ถ ํด๊ฒฐํ๋ค๊ณ ํฉ๋๋ค.
์ธ์ด ๋ชจ๋ธ์๊ฒ ์ธ๊ฐ์ด ์ฌ๊ณ ํ๋ ๋ฐฉ์๊ณผ ์ ์ฌํ ์ ๊ทผ ๋ฐฉ์์ ๊ฐ๋ฅด์น๋ ค๋ ์ฐ๊ตฌ๋ค์ด ๊ณ์ํด์ ๋์ค๋ ๊ฒ์ด ํฅ๋ฏธ๋กญ๋ค์.
AoT๋ ์ธ๊ฐ์ '์ง๊ด'์ ์๊ณ ๋ฆฌ์ฆ ์ฒด๊ณ์ ํตํฉํ์ฌ ์ธ์ด ๋ชจ๋ธ์ ์ถ๋ก ๋ฅ๋ ฅ์ ๊ฐํํ ์ ์๋ ๊ธฐ์ ์ด๋ผ๊ณ ํฉ๋๋ค.
์๊ฐ์ ์ฌ์ฌ์ด๋ผ๊ณ ์๋ ค์ ธ ์๋ 'CoT(Chain of Thoughts)'๊ฐ ๊ฐ๋ ์๋ชป๋ ์ค๊ฐ ์คํ ์ ์ ๊ณตํ๋ ๋ฌธ์ ๋ฅผ AoT์ ์๊ณ ๋ฆฌ์ฆ ์์ ๋ฅผ ํตํด ์ผ์ ๋ถ๋ถ ํด๊ฒฐํ๋ค๊ณ ํฉ๋๋ค.
์ธ์ด ๋ชจ๋ธ์๊ฒ ์ธ๊ฐ์ด ์ฌ๊ณ ํ๋ ๋ฐฉ์๊ณผ ์ ์ฌํ ์ ๊ทผ ๋ฐฉ์์ ๊ฐ๋ฅด์น๋ ค๋ ์ฐ๊ตฌ๋ค์ด ๊ณ์ํด์ ๋์ค๋ ๊ฒ์ด ํฅ๋ฏธ๋กญ๋ค์.
์ฌ๋ ์ด๋..
๋ณดํต์
์๊ทน->๋ฐ์ ์ผ๋ก ํ์์ ์ด์ ๊ฐ๋๋ฐ
๊ต์ก ์ ๋ฐ์ผ๋ฉด
์๊ทน->๊ต๊ณผ์์ ํด์->๋ฐ์ ์ ํ๋๋ก ํ๋๋ฐ
AC2 ๋ฅผ ๋ฐ์ผ๋ฉด
์๊ทน->๊ฐ์ฅ ์ค์ํ๊ฒ ๋ญ์ง->ํด์x100->๋์ด๋ ๋ง์ถค->๋๋ ๊ฒ๋ถํฐ ์๋->๋ฐ๋ณต
์ธ๋ฏํจ
๋ณดํต์
์๊ทน->๋ฐ์ ์ผ๋ก ํ์์ ์ด์ ๊ฐ๋๋ฐ
๊ต์ก ์ ๋ฐ์ผ๋ฉด
์๊ทน->๊ต๊ณผ์์ ํด์->๋ฐ์ ์ ํ๋๋ก ํ๋๋ฐ
AC2 ๋ฅผ ๋ฐ์ผ๋ฉด
์๊ทน->๊ฐ์ฅ ์ค์ํ๊ฒ ๋ญ์ง->ํด์x100->๋์ด๋ ๋ง์ถค->๋๋ ๊ฒ๋ถํฐ ์๋->๋ฐ๋ณต
์ธ๋ฏํจ
Long context์ ๋ํ ์๊ฐ.
์ฌ์ค long context๊ฐ ํ์ํ์ง ์์ ๋ชจ๋ธ์ ๋ง๋ค ์ ์๋ค๋ฉด (๋ฉ๋ชจ๋ฆฌ ๊ธฐ๋ก๊ณผ ์ธ์ถ ๋ฉ์ปค๋์ฆ์ด ๋ค์ด๊ฐ๋ค๊ฑฐ๋) ๊ทธ๊ฒ ์ต์ ์ผ ๊ฒ ๊ฐ์ง๋ง ๋พฐ์กฑํ ๊ทธ๋ฐ ๋ฐฉ๋ฒ์ด ์๋ค๋ ์ํฉ์ ์ ์ ํ์ ๋ long context๋ฅผ ์ ๋ค๋ฃฐ ์ ์์ด์ผ ํ๋ค๋ ํ์๋ ์ถฉ๋ถํด ๋ณด์ธ๋ค.
์์ technical report๊ฐ ๋ค ๊ทธ๋ ๋ฏ ๋ฑํ ์ ๋ณด๊ฐ ์๋ Claude 2 Technical Report (https://www-files.anthropic.com/production/images/Model-Card-Claude-2.pdf) ์ง๋ง, ๊ฐ์ฅ ๋์ ๋๋ ๊ฒ์ด ์๋ค๋ฉด 100K ๋ชจ๋ธ์ ํ ํฐ ์์น์ ๋ฐ๋ฅธ loss ๊ทธ๋ํ์ด๋ค. 100K๋ฅผ ๋์ด 200K ๊น์ง๋ loss์ ์์น ์์ด ์ ์ง์ ์ผ๋ก loss๊ฐ ๊ฐ์ํ๋ ๊ฒ์ ๋ณผ ์ ์๋ค.
์ด๊ฑธ ๋์ฒด ์ด๋ป๊ฒ ํ ๊ฑธ๊น? OpenAI์ Anthropic๋ง ์๊ณ ์๋ ๋น๋ฐ์ด ์๋ ๊ฒ ๊ฐ๊ธด ํ๋ค. ๊ทธ๋๋ ๊ณต๊ฐ๋ ๋ฐฉ๋ฒ ์ค์์ ๊ฐ์ฅ ๋์ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ฌ์ฃผ๊ณ ์๋ ๊ฒ์ positional embedding์ ์กฐ์ํ๋ ๋ฐฉ๋ฒ์ด๋ค. (https://kaiokendev.github.io/context, https://arxiv.org/abs/2306.15595) positional embedding์ extrapolation ํ๋ ์ํฉ์์๋ ํธ๋์คํฌ๋จธ๊ฐ ์ ์๋ํ์ง ์์ง๋ง positional embedding์ ์ชผ๊ฐ interpolation ํ๋ ์ํฉ์์๋ ๊ด์ฐฎ์ง ์์๊น ํ๋ ๊ฒ. ๊ฒฐ๊ณผ์ ์ผ๋ก๋ ๋ ๋ง๊ฐ์ง๋ ์ ๋์ ๊ฒฐ๊ณผ๋ ๋ณด์ฌ์ฃผ๊ณ ์๋ค.
๊ทธ๋ฆฌ๊ณ Coda Llama๊ฐ ๋ฑ์ฅํ๋ค. (https://ai.meta.com/research/publications/code-llama-open-foundation-models-for-code/) Code Llama์์๋ positional embedding์ ์กฐ์ํ๋ ๋ฐฉ๋ฒ์ ์ฌ์ฉํ๋๋ฐ, ์ฌ๊ธฐ์๋ RoPE์ ํน์ฑ์ ํ์ฉํด sinusoidal embedding์ ์ฃผํ์๋ฅผ ์กฐ์ํ ๋ค์ long context ์ํ์ ๋ํด์ ํ์ธํ๋ํ๋ ๋ฐฉ๋ฒ์ ์ฌ์ฉํ๋ค. Claude 2 ์์์ฒ๋ผ ๊ฒฐ๊ณผ์ ์ผ๋ก 100K ๊น์ง perplexity๊ฐ ๊ฐ์ํ๋ ์์ ๊ทธ๋ํ๋ฅผ ์ป์ ์ ์์๋ค.
์ฌ๊ธฐ์ ํ ๊ฐ์ง ์ง์ด๋ณผ๋งํ ๊ฒ์ ์ด๋ ๊ฒ ์งง์ ๊ธธ์ด์์ ํ๋ฆฌํธ๋ ์ด๋ํ๊ณ ๊ธด ๊ธธ์ด์ ๋ํด ํ์ธํ๋ ํ๋ ๊ฒ์ Shortformer (https://arxiv.org/abs/2012.15832) ์์ ๋ํ๋ ๊ฒ์ฒ๋ผ ํจ์จ์ ์ผ ๋ฟ๋ง ์๋๋ผ ์คํ๋ ค ์ฑ๋ฅ์ ํฅ์์ํฌ ์๋ ์๋ค๋ ๋ถ๋ถ์ผ ๋ฏ ์ถ๋ค.
๊ทธ๋ฐ๋ฐ ์ด๊ฒ ์๋ฏธ๊ฐ ์๋ ๊ฒ์ผ๊น? perplexity๊ฐ 0.1 ๋จ์ด์ง๋ค๋ ๊ฒ์ด ์ด๋ ์ ๋ ์๋ฏธ์ธ๊ฐ? ๋ฌผ๋ก perplexity 0.1์ ๋ชฉ์จ์ ๊ฑธ์ด์ผ ํ๋ ์ํฉ์ด๊ธด ํ์ง๋ง, ์ด์จ๋ long context ๋ฌธ์ ์ ๋ํด์ ์์ฃผ ๋ง์ ์ ๋ณด๋ฅผ ์ฃผ๋ ๊ฒ ๊ฐ์ง๋ ์๋ค. ์ต์ํ ๋ง๊ฐ์ง์ง๋ ์๋๋ค ์ ๋์ ๊ฒฐ๊ณผ๋ผ๊ณ ํ ์ ์๊ฒ ๋ค.
๊ทธ๋์ Coda Llama์์๋ (ํํ ํ๋ ๊ฒ๊ณผ ๋น์ทํ) Key Retrieval ๊ณผ์ ๋ฅผ ์ํํ๋ค. ํน์ ํ ์์๋ฅด ๋ฆฌํดํ๋ ํจ์๋ฅผ ์ ๋ ฅํด์ฃผ๊ณ , ๊ธธ์ด์ ๋จ์ด์ง ์ง์ ์์ ๊ทธ ํจ์์ ๊ฐ์ ์์ธกํ๋๋ก ํ๋ ๊ฒ์ด๋ค. ํจ์์ ์ง์๊ฐ ์ผ๋ง๋ ๋จ์ด์ ธ ์๋๊ฐ์ ๋ฐ๋ผ long context์ ๋ํ ๋์ ๋ฅ๋ ฅ์ ๋๊ฐ ๊ฐ๋ ํ ์ ์๋ค.
๊ฒฐ๊ณผ์ ์ผ๋ก ํ์ธํ๋ํ 16K context ๋ด์์๋ ์ ๋๋ ๊ฒ์ผ๋ก ๋ณด์ด๊ณ , ๊ทธ๊ฑธ ๋์ด๊ฐ๋ฉด ์์ ํ ์ ๋๋ ๊ฒ ๊ฐ์ง๋ ์์๋ฐ ๊ฑฐ์ ์ ๋๋ ๊ฒ ๊ฐ์ ๊ฒฝ์ฐ๋ ๋ฐ์ํ๋ค. perplexity ๊ฐ์์๋ ๋ณ๊ฐ๋ก ์ํ๋ ๋๋ก ์์ง์ฌ์ฃผ์ง๋ ์๋ ๊ฒ ๊ฐ๋ค.
๊ทธ ์ด์ ๊ฐ ๋ฌด์์ผ๊น? ์๊ธฐ๋ ์ด๋ ต์ง๋ง attention์ด extrapolation ์ํฉ์์ ๋ง๊ฐ์ง์ง ์๋๋ค๋ ๊ฒ๊ณผ ํจ๊ป attention์ด long context ์ํฉ์์๋ ๊ฐ ํ ํฐ์ ์ ๊ตฌ๋ถํ ์ ์๋ ๋ฅ๋ ฅ์ด ํ์ํ์ง ์์๊ฐ ์ถ๋ค. ํ ํฐ ์๋ฒ ๋ฉ์ ๊ทธ๋ฅ ํ๊ท ๋ด๊ธฐ๋ง ์๋ฏธ๊ฐ ์๋ ๊ฒ์ฒ๋ผ, attention์ด ํ ํฐ๋ค์ ๋๊ฐ ๋ญ๋ฑ๊ทธ๋ฆฐ๋ค๊ณ ํด๋ ์๋ฏธ๋ ์์ ๊ฐ๋ฅ์ฑ์ด ์๊ณ , ์ฑ๋ฅ์ ํฅ์์ด ์์ ์๋ ์๋ค. ๊ทธ๋ ์ง๋ง ์ฐ๋ฆฌ๊ฐ ์ํ๋ ๊ฒ์ฒ๋ผ ํ ํฐ๋ค์ ์ธ๋ถ์ ์ผ๋ก ๊ตฌ๋ถํด์ ๋ฐ์ํ๋ ์ ๋์ ๋ฅ๋ ฅ์ ๋ณด์ฌ์ฃผ์ง ๋ชปํ ์๋ ์๋ค. (https://arxiv.org/abs/2212.10554) ๊ทธ๋์ positional embedding์ ๋ํ ์ดํด๊ฐ ์ข ๋ ํ์ํ ๋ฏ ์ถ๋ค.
์ด๋ ๊ฒ ๋ชจ๋ธ์ด long context๋ฅผ ์ ๋ชจ๋ธ๋ง ํ ์ ์๋๊ฐ์๋ ๋ณ๊ฐ๋ก long context์ ๋ํด ํ์ต์ ์ํฌ ์ ์๋๊ฐ ํ๋ ๊ฒ๋ ๋ฌธ์ ๊ฐ ๋๋ค. ์๋ฅผ ๋ค์ด data parallel์ ๋ฐฐ์น ์ถ์ผ๋ก ์ํ๋ค์ ์ชผ๊ฐ๋ ๊ฒ์ฒ๋ผ sequence ์ถ์ผ๋ก๋ ์ํ์ ์ชผ๊ฐ์ parallelํ๊ฒ forward ํ ์ ์๋ค๋ฉด ์ด๋จ๊น ํ๋ ์๊ฐ์ ํด๋ณผ ์๋ ์๊ฒ ๋ค. ์ฌ์ค ํธ๋์คํฌ๋จธ๋ attention์ ์ ์ธํ ๋ค๋ฅธ ๋ชจ๋ ๋ ์ด์ด๋ sequence ๋ฐฉํฅ์ ๋ ๋ฆฝ์ ์ด๊ธฐ ๋๋ฌธ์ attention๋ง ์ด๋ป๊ฒ ํ๋ฉด(?) ๊ฐ๋ฅํ ์ ์๋ค.
Megatron-LM (https://arxiv.org/abs/2205.05198) ๊ฐ์ ๊ฒฝ์ฐ์๋ sequence parallel์ด ๋ค์ด๊ฐ ์๊ธด ํ์ง๋ง, ์ด์ชฝ์ attention๋ณด๋ค๋ layer norm ๋ฑ์์ ๋ฐ์ํ๋ activation์ ์ชผ๊ฐ๋ ๊ฒ์ด๋ผ๊ณ ๋ณด๋ ์ชฝ์ด ๋ง์ง ์์๊น ์ถ๋ค. ์์ attention์ ์ชผ๊ฐ๋ ๋ฐฉํฅ์ผ๋ก๋ ring self attention (https://arxiv.org/abs/2105.13120) ์ ์ฌ์ฉํ๋ ๋ฐฉ๋ฒ์ด ๋์์๊ณ , ๋ ์ต๊ทผ์๋ all-to-all communication์ ์ฌ์ฉํ ๋ ๋จ์ํ ๋ฐฉ๋ฒ์ด deepspeed์ ๋ค์ด์ค๊ธฐ๋ ํ๋ค. (https://github.com/microsoft/DeepSpeed/tree/master/blogs/deepspeed-ulysses) ์ํ์ค๋ฅผ ์ชผ๊ฐ์ ๋ฐ์ดํฐ๋ฅผ ์ ๋ ฅํด์ค์ผ ํ๋ ๋ถ๋ถ์ด ํ์ํ๊ธด ํ์ง๋ง ๊ทธ ์ธ์ ๋ํด์๋ all-to-all์ ์ฌ์ฉํ ๋ฐฉ๋ฒ์ ๊ตฌํ์ด ์ ๋ง ๋จ์ํ๋ค. (https://github.com/microsoft/DeepSpeed/blob/master/deepspeed/sequence/layer.py) all-to-all๋ก qkv๋ฅผ ๋ฟ๋ ค์ค ๋ค์ output์ ๋ค์ all-to-all๋ก ์๋ณต์ํค๋ ๋ฐฉ์.
์ฌ์ค long context๊ฐ ํ์ํ์ง ์์ ๋ชจ๋ธ์ ๋ง๋ค ์ ์๋ค๋ฉด (๋ฉ๋ชจ๋ฆฌ ๊ธฐ๋ก๊ณผ ์ธ์ถ ๋ฉ์ปค๋์ฆ์ด ๋ค์ด๊ฐ๋ค๊ฑฐ๋) ๊ทธ๊ฒ ์ต์ ์ผ ๊ฒ ๊ฐ์ง๋ง ๋พฐ์กฑํ ๊ทธ๋ฐ ๋ฐฉ๋ฒ์ด ์๋ค๋ ์ํฉ์ ์ ์ ํ์ ๋ long context๋ฅผ ์ ๋ค๋ฃฐ ์ ์์ด์ผ ํ๋ค๋ ํ์๋ ์ถฉ๋ถํด ๋ณด์ธ๋ค.
์์ technical report๊ฐ ๋ค ๊ทธ๋ ๋ฏ ๋ฑํ ์ ๋ณด๊ฐ ์๋ Claude 2 Technical Report (https://www-files.anthropic.com/production/images/Model-Card-Claude-2.pdf) ์ง๋ง, ๊ฐ์ฅ ๋์ ๋๋ ๊ฒ์ด ์๋ค๋ฉด 100K ๋ชจ๋ธ์ ํ ํฐ ์์น์ ๋ฐ๋ฅธ loss ๊ทธ๋ํ์ด๋ค. 100K๋ฅผ ๋์ด 200K ๊น์ง๋ loss์ ์์น ์์ด ์ ์ง์ ์ผ๋ก loss๊ฐ ๊ฐ์ํ๋ ๊ฒ์ ๋ณผ ์ ์๋ค.
์ด๊ฑธ ๋์ฒด ์ด๋ป๊ฒ ํ ๊ฑธ๊น? OpenAI์ Anthropic๋ง ์๊ณ ์๋ ๋น๋ฐ์ด ์๋ ๊ฒ ๊ฐ๊ธด ํ๋ค. ๊ทธ๋๋ ๊ณต๊ฐ๋ ๋ฐฉ๋ฒ ์ค์์ ๊ฐ์ฅ ๋์ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ฌ์ฃผ๊ณ ์๋ ๊ฒ์ positional embedding์ ์กฐ์ํ๋ ๋ฐฉ๋ฒ์ด๋ค. (https://kaiokendev.github.io/context, https://arxiv.org/abs/2306.15595) positional embedding์ extrapolation ํ๋ ์ํฉ์์๋ ํธ๋์คํฌ๋จธ๊ฐ ์ ์๋ํ์ง ์์ง๋ง positional embedding์ ์ชผ๊ฐ interpolation ํ๋ ์ํฉ์์๋ ๊ด์ฐฎ์ง ์์๊น ํ๋ ๊ฒ. ๊ฒฐ๊ณผ์ ์ผ๋ก๋ ๋ ๋ง๊ฐ์ง๋ ์ ๋์ ๊ฒฐ๊ณผ๋ ๋ณด์ฌ์ฃผ๊ณ ์๋ค.
๊ทธ๋ฆฌ๊ณ Coda Llama๊ฐ ๋ฑ์ฅํ๋ค. (https://ai.meta.com/research/publications/code-llama-open-foundation-models-for-code/) Code Llama์์๋ positional embedding์ ์กฐ์ํ๋ ๋ฐฉ๋ฒ์ ์ฌ์ฉํ๋๋ฐ, ์ฌ๊ธฐ์๋ RoPE์ ํน์ฑ์ ํ์ฉํด sinusoidal embedding์ ์ฃผํ์๋ฅผ ์กฐ์ํ ๋ค์ long context ์ํ์ ๋ํด์ ํ์ธํ๋ํ๋ ๋ฐฉ๋ฒ์ ์ฌ์ฉํ๋ค. Claude 2 ์์์ฒ๋ผ ๊ฒฐ๊ณผ์ ์ผ๋ก 100K ๊น์ง perplexity๊ฐ ๊ฐ์ํ๋ ์์ ๊ทธ๋ํ๋ฅผ ์ป์ ์ ์์๋ค.
์ฌ๊ธฐ์ ํ ๊ฐ์ง ์ง์ด๋ณผ๋งํ ๊ฒ์ ์ด๋ ๊ฒ ์งง์ ๊ธธ์ด์์ ํ๋ฆฌํธ๋ ์ด๋ํ๊ณ ๊ธด ๊ธธ์ด์ ๋ํด ํ์ธํ๋ ํ๋ ๊ฒ์ Shortformer (https://arxiv.org/abs/2012.15832) ์์ ๋ํ๋ ๊ฒ์ฒ๋ผ ํจ์จ์ ์ผ ๋ฟ๋ง ์๋๋ผ ์คํ๋ ค ์ฑ๋ฅ์ ํฅ์์ํฌ ์๋ ์๋ค๋ ๋ถ๋ถ์ผ ๋ฏ ์ถ๋ค.
๊ทธ๋ฐ๋ฐ ์ด๊ฒ ์๋ฏธ๊ฐ ์๋ ๊ฒ์ผ๊น? perplexity๊ฐ 0.1 ๋จ์ด์ง๋ค๋ ๊ฒ์ด ์ด๋ ์ ๋ ์๋ฏธ์ธ๊ฐ? ๋ฌผ๋ก perplexity 0.1์ ๋ชฉ์จ์ ๊ฑธ์ด์ผ ํ๋ ์ํฉ์ด๊ธด ํ์ง๋ง, ์ด์จ๋ long context ๋ฌธ์ ์ ๋ํด์ ์์ฃผ ๋ง์ ์ ๋ณด๋ฅผ ์ฃผ๋ ๊ฒ ๊ฐ์ง๋ ์๋ค. ์ต์ํ ๋ง๊ฐ์ง์ง๋ ์๋๋ค ์ ๋์ ๊ฒฐ๊ณผ๋ผ๊ณ ํ ์ ์๊ฒ ๋ค.
๊ทธ๋์ Coda Llama์์๋ (ํํ ํ๋ ๊ฒ๊ณผ ๋น์ทํ) Key Retrieval ๊ณผ์ ๋ฅผ ์ํํ๋ค. ํน์ ํ ์์๋ฅด ๋ฆฌํดํ๋ ํจ์๋ฅผ ์ ๋ ฅํด์ฃผ๊ณ , ๊ธธ์ด์ ๋จ์ด์ง ์ง์ ์์ ๊ทธ ํจ์์ ๊ฐ์ ์์ธกํ๋๋ก ํ๋ ๊ฒ์ด๋ค. ํจ์์ ์ง์๊ฐ ์ผ๋ง๋ ๋จ์ด์ ธ ์๋๊ฐ์ ๋ฐ๋ผ long context์ ๋ํ ๋์ ๋ฅ๋ ฅ์ ๋๊ฐ ๊ฐ๋ ํ ์ ์๋ค.
๊ฒฐ๊ณผ์ ์ผ๋ก ํ์ธํ๋ํ 16K context ๋ด์์๋ ์ ๋๋ ๊ฒ์ผ๋ก ๋ณด์ด๊ณ , ๊ทธ๊ฑธ ๋์ด๊ฐ๋ฉด ์์ ํ ์ ๋๋ ๊ฒ ๊ฐ์ง๋ ์์๋ฐ ๊ฑฐ์ ์ ๋๋ ๊ฒ ๊ฐ์ ๊ฒฝ์ฐ๋ ๋ฐ์ํ๋ค. perplexity ๊ฐ์์๋ ๋ณ๊ฐ๋ก ์ํ๋ ๋๋ก ์์ง์ฌ์ฃผ์ง๋ ์๋ ๊ฒ ๊ฐ๋ค.
๊ทธ ์ด์ ๊ฐ ๋ฌด์์ผ๊น? ์๊ธฐ๋ ์ด๋ ต์ง๋ง attention์ด extrapolation ์ํฉ์์ ๋ง๊ฐ์ง์ง ์๋๋ค๋ ๊ฒ๊ณผ ํจ๊ป attention์ด long context ์ํฉ์์๋ ๊ฐ ํ ํฐ์ ์ ๊ตฌ๋ถํ ์ ์๋ ๋ฅ๋ ฅ์ด ํ์ํ์ง ์์๊ฐ ์ถ๋ค. ํ ํฐ ์๋ฒ ๋ฉ์ ๊ทธ๋ฅ ํ๊ท ๋ด๊ธฐ๋ง ์๋ฏธ๊ฐ ์๋ ๊ฒ์ฒ๋ผ, attention์ด ํ ํฐ๋ค์ ๋๊ฐ ๋ญ๋ฑ๊ทธ๋ฆฐ๋ค๊ณ ํด๋ ์๋ฏธ๋ ์์ ๊ฐ๋ฅ์ฑ์ด ์๊ณ , ์ฑ๋ฅ์ ํฅ์์ด ์์ ์๋ ์๋ค. ๊ทธ๋ ์ง๋ง ์ฐ๋ฆฌ๊ฐ ์ํ๋ ๊ฒ์ฒ๋ผ ํ ํฐ๋ค์ ์ธ๋ถ์ ์ผ๋ก ๊ตฌ๋ถํด์ ๋ฐ์ํ๋ ์ ๋์ ๋ฅ๋ ฅ์ ๋ณด์ฌ์ฃผ์ง ๋ชปํ ์๋ ์๋ค. (https://arxiv.org/abs/2212.10554) ๊ทธ๋์ positional embedding์ ๋ํ ์ดํด๊ฐ ์ข ๋ ํ์ํ ๋ฏ ์ถ๋ค.
์ด๋ ๊ฒ ๋ชจ๋ธ์ด long context๋ฅผ ์ ๋ชจ๋ธ๋ง ํ ์ ์๋๊ฐ์๋ ๋ณ๊ฐ๋ก long context์ ๋ํด ํ์ต์ ์ํฌ ์ ์๋๊ฐ ํ๋ ๊ฒ๋ ๋ฌธ์ ๊ฐ ๋๋ค. ์๋ฅผ ๋ค์ด data parallel์ ๋ฐฐ์น ์ถ์ผ๋ก ์ํ๋ค์ ์ชผ๊ฐ๋ ๊ฒ์ฒ๋ผ sequence ์ถ์ผ๋ก๋ ์ํ์ ์ชผ๊ฐ์ parallelํ๊ฒ forward ํ ์ ์๋ค๋ฉด ์ด๋จ๊น ํ๋ ์๊ฐ์ ํด๋ณผ ์๋ ์๊ฒ ๋ค. ์ฌ์ค ํธ๋์คํฌ๋จธ๋ attention์ ์ ์ธํ ๋ค๋ฅธ ๋ชจ๋ ๋ ์ด์ด๋ sequence ๋ฐฉํฅ์ ๋ ๋ฆฝ์ ์ด๊ธฐ ๋๋ฌธ์ attention๋ง ์ด๋ป๊ฒ ํ๋ฉด(?) ๊ฐ๋ฅํ ์ ์๋ค.
Megatron-LM (https://arxiv.org/abs/2205.05198) ๊ฐ์ ๊ฒฝ์ฐ์๋ sequence parallel์ด ๋ค์ด๊ฐ ์๊ธด ํ์ง๋ง, ์ด์ชฝ์ attention๋ณด๋ค๋ layer norm ๋ฑ์์ ๋ฐ์ํ๋ activation์ ์ชผ๊ฐ๋ ๊ฒ์ด๋ผ๊ณ ๋ณด๋ ์ชฝ์ด ๋ง์ง ์์๊น ์ถ๋ค. ์์ attention์ ์ชผ๊ฐ๋ ๋ฐฉํฅ์ผ๋ก๋ ring self attention (https://arxiv.org/abs/2105.13120) ์ ์ฌ์ฉํ๋ ๋ฐฉ๋ฒ์ด ๋์์๊ณ , ๋ ์ต๊ทผ์๋ all-to-all communication์ ์ฌ์ฉํ ๋ ๋จ์ํ ๋ฐฉ๋ฒ์ด deepspeed์ ๋ค์ด์ค๊ธฐ๋ ํ๋ค. (https://github.com/microsoft/DeepSpeed/tree/master/blogs/deepspeed-ulysses) ์ํ์ค๋ฅผ ์ชผ๊ฐ์ ๋ฐ์ดํฐ๋ฅผ ์ ๋ ฅํด์ค์ผ ํ๋ ๋ถ๋ถ์ด ํ์ํ๊ธด ํ์ง๋ง ๊ทธ ์ธ์ ๋ํด์๋ all-to-all์ ์ฌ์ฉํ ๋ฐฉ๋ฒ์ ๊ตฌํ์ด ์ ๋ง ๋จ์ํ๋ค. (https://github.com/microsoft/DeepSpeed/blob/master/deepspeed/sequence/layer.py) all-to-all๋ก qkv๋ฅผ ๋ฟ๋ ค์ค ๋ค์ output์ ๋ค์ all-to-all๋ก ์๋ณต์ํค๋ ๋ฐฉ์.
์ฌํด 3์๋ถํฐ AI๋ฅผ ๊ณต๋ถํ๊ธฐ ์์ํ๋ฉด์ ๊ณผ๊ฑฐ ์ปดํจํฐ๊ฐ ์ง๊ธ์ ์ ์ฐ์
์์ ์ฌ์ฉ๋๋ ๊ฒ์ฒ๋ผ ๊ทธ๊ฒ๋ณด๋ค ๋ ํฐ ์ํฅ์ ์ค ๊ฑฐ๋ผ๊ณ ์์ํฉ๋๋ค. ์์ผ๋ก 3-5๋
์ด ์ผ๋ง๋ ๋น ๋ฅด๊ฒ ๋ฐ๋์ง ์ด๋ป๊ฒ ๋ฐ๋์ง ์์ํ๊ณ ๊ทธ ๋ณํ๋ฅผ ๋ง๋ค์ด๊ฐ๋ ๊ฒ์ ์์ฃผ ์ค๋ ๋ ์ผ์ธ ๊ฒ ๊ฐ์ต๋๋ค.
์ฐฝ์ ์์ ๊ด์ ์ด์ธ์๋ ํฌ์์์ ๊ด์ ์์ ์ด ๋ณํ๋ฅผ ์ด๋ป๊ฒ ๋ฐ๋ผ๋ณด๋ฉด ์ข์๊น์? ์ธํฐ๋ท, ๋ชจ๋ฐ์ผ, ํด๋ผ์ฐ๋ ์จ์ด๋ธ๋ฅผ ์ค๋ซ๋์ ๊ฒฝํํ์ Storm Ventures์ ๋จํํฌ ๋ํ๋์ ๋ชจ์๊ณ 'AI ์๋ ์ด๋์ ํฌ์ํด์ผ ํ ๊น?'์ ๋ํด์ ์ด์ผ๊ธฐํด ๋ณด๋ ค๊ณ ํฉ๋๋ค.
์ผ๋ฐฉ์ ์ธ ๊ฐ์๋ณด๋ค๋ AI ํฌ์์ ๋ํด์ ๊ฐ์ง๊ณ ์๋ ์ฌ๋ฌ ์๊ฐ๋ค์ ์์ ๋กญ๊ฒ ๋๋ ์ ์๋ ์๋ฆฌ๋ก ๋ง๋ค์ด๋ณด๋ ค๊ณ ํฉ๋๋ค. AI์ ํฌ์ ๋ ๊ฐ์ง์ ์ง์ฌ์ด์ ๋ถ๋ค์ ๋ชจ์๋ ๋ง์ ๊ด์ฌ ๋ถํ๋๋ ค์ ๐ค
[AI ์๋ ์ด๋์ ํฌ์ํด์ผ ํ ๊น?_Storm Ventures x AGI Town in Seoul]
AI ๊ธฐ์ ์ ๋ฏธ๋์ ํฌ์์ ๊ดํ ์ค์ํ ํ ๋ก ์ ์ํ ๋ฐ์ ์ ์ฃผ์ตํฉ๋๋ค. ์คํฐ๋ฒค์ฒ์ค(Storm Ventures)์ ๋จํํฌ ๋ํ๋์ ๋ชจ์๊ณ , AI ํฌ์์ ์ฐฝ์ ์ ๊ด์ฌ ์๋ ๋ถ๋ค๊ณผ ํจ๊ป ์๊ฒฌ์ ๋๋ ์์ ์ ๋๋ค.
๐ ์ผ์: 2023๋ 9์ 4์ผ, ์คํ 7-9์
๐ ์ฅ์: ํ์คํ๋ฅดํ ์คํผ์ค (https://goo.gl/maps/Ec88AykC21ZWr7jL7)
๐ค ํ์ํ ์ด๋ธ:
- ์ฐธ์ฌ์ ์๊ฐ (30๋ถ)
- ๋จํํฌ ๋ํ๋: AI ํธ๋ ๋์ ๊ธฐํ (30๋ถ)
- Q&A ๋ฐ ์์ ํ ๋ก
์ข์์ 20์์ผ๋ก ํ์ ๋์ด ์์ผ๋ฉฐ, ์ฐธ๊ฐ ํ์ ์ 9์ 2์ผ๊น์ง ์ด๋ฉ์ผ๋ก ์๋ ค๋๋ฆฝ๋๋ค. ์ด ํ์ฌ๋ ์์ด๋ก ์งํ๋ฉ๋๋ค.
@Minjoo Kim ๋๊ป์ ๋์์ฃผ์ ์ ์งํํ ์ ์๊ฒ๋ ์ธ์ ์ ๋๋ค ๐
๐์ฐธ๊ฐ์ ์ฒญ: https://forms.gle/2Sbg1RLVsiL24JcW8
์ง๋ 3์์ ์ ๋ฆฌํ๋ ๋ ธํธ: https://www.notion.so/matthewcontinuouslearning/AI-Trend-101-March-28-723c41aa1ca54903a270c6801b3724fe?pvs=4
์ฐฝ์ ์์ ๊ด์ ์ด์ธ์๋ ํฌ์์์ ๊ด์ ์์ ์ด ๋ณํ๋ฅผ ์ด๋ป๊ฒ ๋ฐ๋ผ๋ณด๋ฉด ์ข์๊น์? ์ธํฐ๋ท, ๋ชจ๋ฐ์ผ, ํด๋ผ์ฐ๋ ์จ์ด๋ธ๋ฅผ ์ค๋ซ๋์ ๊ฒฝํํ์ Storm Ventures์ ๋จํํฌ ๋ํ๋์ ๋ชจ์๊ณ 'AI ์๋ ์ด๋์ ํฌ์ํด์ผ ํ ๊น?'์ ๋ํด์ ์ด์ผ๊ธฐํด ๋ณด๋ ค๊ณ ํฉ๋๋ค.
์ผ๋ฐฉ์ ์ธ ๊ฐ์๋ณด๋ค๋ AI ํฌ์์ ๋ํด์ ๊ฐ์ง๊ณ ์๋ ์ฌ๋ฌ ์๊ฐ๋ค์ ์์ ๋กญ๊ฒ ๋๋ ์ ์๋ ์๋ฆฌ๋ก ๋ง๋ค์ด๋ณด๋ ค๊ณ ํฉ๋๋ค. AI์ ํฌ์ ๋ ๊ฐ์ง์ ์ง์ฌ์ด์ ๋ถ๋ค์ ๋ชจ์๋ ๋ง์ ๊ด์ฌ ๋ถํ๋๋ ค์ ๐ค
[AI ์๋ ์ด๋์ ํฌ์ํด์ผ ํ ๊น?_Storm Ventures x AGI Town in Seoul]
AI ๊ธฐ์ ์ ๋ฏธ๋์ ํฌ์์ ๊ดํ ์ค์ํ ํ ๋ก ์ ์ํ ๋ฐ์ ์ ์ฃผ์ตํฉ๋๋ค. ์คํฐ๋ฒค์ฒ์ค(Storm Ventures)์ ๋จํํฌ ๋ํ๋์ ๋ชจ์๊ณ , AI ํฌ์์ ์ฐฝ์ ์ ๊ด์ฌ ์๋ ๋ถ๋ค๊ณผ ํจ๊ป ์๊ฒฌ์ ๋๋ ์์ ์ ๋๋ค.
๐ ์ผ์: 2023๋ 9์ 4์ผ, ์คํ 7-9์
๐ ์ฅ์: ํ์คํ๋ฅดํ ์คํผ์ค (https://goo.gl/maps/Ec88AykC21ZWr7jL7)
๐ค ํ์ํ ์ด๋ธ:
- ์ฐธ์ฌ์ ์๊ฐ (30๋ถ)
- ๋จํํฌ ๋ํ๋: AI ํธ๋ ๋์ ๊ธฐํ (30๋ถ)
- Q&A ๋ฐ ์์ ํ ๋ก
์ข์์ 20์์ผ๋ก ํ์ ๋์ด ์์ผ๋ฉฐ, ์ฐธ๊ฐ ํ์ ์ 9์ 2์ผ๊น์ง ์ด๋ฉ์ผ๋ก ์๋ ค๋๋ฆฝ๋๋ค. ์ด ํ์ฌ๋ ์์ด๋ก ์งํ๋ฉ๋๋ค.
@Minjoo Kim ๋๊ป์ ๋์์ฃผ์ ์ ์งํํ ์ ์๊ฒ๋ ์ธ์ ์ ๋๋ค ๐
๐์ฐธ๊ฐ์ ์ฒญ: https://forms.gle/2Sbg1RLVsiL24JcW8
์ง๋ 3์์ ์ ๋ฆฌํ๋ ๋ ธํธ: https://www.notion.so/matthewcontinuouslearning/AI-Trend-101-March-28-723c41aa1ca54903a270c6801b3724fe?pvs=4
ํ์คํ๋ฅดํ(์ฃผ) ยท South Korea, Seoul, Gangnam-gu, Teheran-ro 44-gil, 8 12 ์ธต 13 ์ธต
โ
โ
โ
โ
โ
ยท Corporate office