<feed xmlns="http://www.w3.org/2005/Atom"> <id>https://rlatmddn0211.github.io/</id><title>Seung Woo Kim</title><subtitle>A minimal, responsive and feature-rich Jekyll theme for technical writing.</subtitle> <updated>2026-01-16T19:11:18+09:00</updated> <author> <name>Seung Woo Kim</name> <uri>https://rlatmddn0211.github.io/</uri> </author><link rel="self" type="application/atom+xml" href="https://rlatmddn0211.github.io/feed.xml"/><link rel="alternate" type="text/html" hreflang="en" href="https://rlatmddn0211.github.io/"/> <generator uri="https://jekyllrb.com/" version="4.4.1">Jekyll</generator> <rights> © 2026 Seung Woo Kim </rights> <icon>/assets/img/favicons/favicon.ico</icon> <logo>/assets/img/favicons/favicon-96x96.png</logo> <entry><title>LangChain &amp; RAG [Stuff/Map Reduce Chain Implementation]</title><link href="https://rlatmddn0211.github.io/posts/langchain-rag-implementation/" rel="alternate" type="text/html" title="LangChain &amp;amp; RAG [Stuff/Map Reduce Chain Implementation] " /><published>2026-01-13T14:00:00+09:00</published> <updated>2026-01-13T14:00:00+09:00</updated> <id>https://rlatmddn0211.github.io/posts/langchain-rag-implementation/</id> <content type="text/html" src="https://rlatmddn0211.github.io/posts/langchain-rag-implementation/" /> <author> <name>Seung Woo Kim</name> </author> <category term="LangChain," /> <category term="LLM," /> <category term="Prompting,Memory" /> <summary>RAG_Implementation_LCEL (Stuff / Map Reduce) Stuff Chain Implementation LCEL Stuff Chain 주어진 문단을 모델에게 통째로 전달하여 주어진 문서에 대한 답변을 생성 Chain의 구성요소 Retriever : input : 질문과 관련이 있는 Document를 얻기 위한 query output : Document들의 list (질문과 관련이 있는) 우선 LCEL을 통해 stuff chain을 구현하기 위해서는 retriever와 prompt를 생성해줘야한다. ### Stuff Chain Implementation - 질문을 query하여 관련이 있는 지문을...</summary> </entry> <entry><title>LangChain &amp; RAG [RAG Basic]</title><link href="https://rlatmddn0211.github.io/posts/langchain-rag-basic/" rel="alternate" type="text/html" title="LangChain &amp;amp; RAG [RAG Basic] " /><published>2026-01-13T14:00:00+09:00</published> <updated>2026-01-13T14:00:00+09:00</updated> <id>https://rlatmddn0211.github.io/posts/langchain-rag-basic/</id> <content type="text/html" src="https://rlatmddn0211.github.io/posts/langchain-rag-basic/" /> <author> <name>Seung Woo Kim</name> </author> <category term="LangChain," /> <category term="LLM," /> <category term="Prompting,Memory" /> <summary>RAG (Retrieval-Augmented Generation) What is a RAG (Retrieval-Augmented Generation)? models → 많은 데이터를 통해 학습 하지만, private한 데이터엔 접근하지 못함 (개인 DB, Documents 등) RAG → 우리가 질문을 하면, 2개의 event가 발생함 질문을 prompt에 전달 &amp;amp;amp; 관련된 문서를 준비 하지만, 만약 모델이 질문에 대한 학습을 하지 않았다면 → 질문과 관련된 문서들을 탐색을 통해 가져옴 (질문의 내용 유무 or 의미론적인 비교를 통해) prompt (question , context (docs) )를 LLM에 보내게됨 → Model은 기존에 학습한 방대한 데...</summary> </entry> <entry><title>LangChain &amp; RAG [Memory, LLMChain, ChatBased Memory, LCEL Memory]</title><link href="https://rlatmddn0211.github.io/posts/langchain-memory/" rel="alternate" type="text/html" title="LangChain &amp;amp; RAG [Memory, LLMChain, ChatBased Memory, LCEL Memory] " /><published>2026-01-13T14:00:00+09:00</published> <updated>2026-01-13T14:00:00+09:00</updated> <id>https://rlatmddn0211.github.io/posts/langchain-memory/</id> <content type="text/html" src="https://rlatmddn0211.github.io/posts/langchain-memory/" /> <author> <name>Seung Woo Kim</name> </author> <category term="LangChain," /> <category term="LLM," /> <category term="Prompting,Memory" /> <summary>LangChain &amp;amp;amp; RAG (Memory) 메모리를 추가해야 이전의 대화들을 기억할 수 있다. OpenAI에서 제공하는 기본 API 는 랭체인 없이 사용할 수 있다 → Memory가 없다. (Stateless) → 메모리에는 어떤 종류가 있으며, 어떻게 LangChain에 메모리를 탑재시킬 수 있을까? 메모리 종류와 무관하게 API는 모두 똑같다. ConversationBufferMemory 모델 자체에는 메모리가 없기 때문에, 이전의 대화들을 모두 모델에게 함께 보내줘야함 → 대화 내용이 길수록 cost도 높아지며, 보내야할 양도 많아짐 그럼에도, 가장 기본적인 메모리 from langchain.memory import ConversationBufferMemo...</summary> </entry> <entry><title>LangChain &amp; RAG [Model I/O &amp; Configuration]</title><link href="https://rlatmddn0211.github.io/posts/langchain-modelio-configuration/" rel="alternate" type="text/html" title="LangChain &amp;amp; RAG [Model I/O &amp;amp; Configuration] " /><published>2026-01-10T14:00:00+09:00</published> <updated>2026-01-10T14:00:00+09:00</updated> <id>https://rlatmddn0211.github.io/posts/langchain-modelio-configuration/</id> <content type="text/html" src="https://rlatmddn0211.github.io/posts/langchain-modelio-configuration/" /> <author> <name>Seung Woo Kim</name> </author> <category term="LangChain," /> <category term="LLM," /> <category term="Prompting" /> <summary>LangChain &amp;amp;amp; RAG What is a LangChain? LangChain은 거대언어모델(LLM)을 활용한 애플리케이션을 쉽게 개발할 수 있도록 도와주는 프레임워크이다. 쉽게 말해, LLM을 활용하는 Application과 LLM 사이를 이어주는 미들웨어의 역할을 한다. 사실 현업에서는 LangChain이 너무 무거운 프레임워크라는 인식이 있어서 많이 사용했다가, 요즘은 아예 AI Agent를 활용하여 구체적인 순서를 모두 AI에게 맡긴다. 그럼에도 불구하고, LangChain을 공부하는 이유는 LLM Model을 활용하는 방식과, 어떻게 프롬프트를 부여해야하는지 등, LLM을 활용하기 위한 기초(문법 &amp;amp;amp; 패턴)를 다질 수 있기 때문이다. Model_I/O ...</summary> </entry> <entry><title>PR [A Survey on Multimodal Large Language Models]</title><link href="https://rlatmddn0211.github.io/posts/pr-mllmsurvey/" rel="alternate" type="text/html" title="PR [A Survey on Multimodal Large Language Models] " /><published>2026-01-06T14:00:00+09:00</published> <updated>2026-01-06T14:00:00+09:00</updated> <id>https://rlatmddn0211.github.io/posts/pr-mllmsurvey/</id> <content type="text/html" src="https://rlatmddn0211.github.io/posts/pr-mllmsurvey/" /> <author> <name>Seung Woo Kim</name> </author> <category term="Paper_Review" /> <summary>A Survey on Multimodal Large Language Models Abstract LLM을 활용한 멀티 모달 task들은 GPT-4V 이후로 큰 주목을 받고 있다. 해당 논문에서는 MLLM (Multimodal Large Language Models)의 최근 행보를 요약하고 추적하는 것을 목표로 삼는다. MLLM의 기본구조와 관련된 개념들(아키텍처 등)을 구체화하고, 학습 과정과 데이터, 평가 어떻게 MLLM이 다양한 분야로 확장될 수 있는 지? Multimodal의 할루시네이션(hallucination)과 M-ICL, M-CoT등과 같은 확장된 기술들 향후 연구 방향과 존재하는 한계점 1 Introdu...</summary> </entry> </feed>
