세로형
Recent Posts
Recent Comments
Link
01-12 04:06
«   2026/01   »
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Archives
Today
Total
관리 메뉴

꿈 많은 사람의 이야기

컨텍스트 엔지니어링(Context Engineering)이란?: A Survey of Context Engineering for Large Language Models 논문 리뷰 본문

인공지능(AI)/LLM&RAG

컨텍스트 엔지니어링(Context Engineering)이란?: A Survey of Context Engineering for Large Language Models 논문 리뷰

이수진의 블로그 2025. 7. 20. 14:33
반응형
728x170

포스팅 개요

본 포스팅은 LLM(대규모 언어 모델)의 성능을 근본적으로 결정하는 '컨텍스트(Context)'를 체계적으로 설계하고 최적화하는 방법을 다룬 논문인 "A Survey of Context Engineering for Large Language Models"를 리뷰하는 포스팅입니다. 본 논문은 중국 과학원 컴퓨팅 기술 연구소(Institute of Computing Technology, Chinese Academy of Sciences)를 중심으로 칭화대, 베이징대 등 여러 유수 기관의 연구진들이 공동으로 작성했습니다. 본 논문은 RAG, 프롬프트 엔지니어링, 메모리 시스템 등 파편화되어 있던 LLM의 컨텍스트 관련 기술들을 '컨텍스트 엔지니어링(Context Engineering)'이라는 하나의 통일된 학문 분야로 정립하고, 1,400편이 넘는 연구를 분석하여 그 체계를 최초로 제시합니다. LLM의 지능을 한 단계 끌어올릴 컨텍스트 엔지니어링의 세계는 어떻게 구성되어 있을까요? 본 포스팅에서는 해당 논문에 대한 자세한 리뷰를 진행하도록 하겠습니다.

 

논문 링크


포스팅 본문

포스팅 개요에서도 언급하였듯, 본 포스팅은 LLM의 성능을 극대화하기 위한 컨텍스트 활용법을 집대성한 서베이 논문입니다. 원 논문은 165페이지에 달하며 1,400개가 넘는 참고 문헌을 포함할 정도로 내용이 굉장히 길고 방대하기 때문에, 본 포스팅에서는 핵심적인 내용만 짚고 넘어가도록 하겠습니다. 긴 내용을 보기 힘드신 분들은, 아래 '핵심 요약' 파트와 '2-2. 핵심 수행 내용과 연구 내용'을 참고하시길 바랍니다.

 

2. 핵심 내용

2-1. 핵심 요약

 

최근 LLM의 성능이 비약적으로 발전했지만, 그 성능은 전적으로 '어떤 컨텍스트를 제공받는가'에 달려 있습니다. 기존의 '프롬프트 엔지니어링'은 이 컨텍스트를 다루는 시작점이었지만, RAG, 메모리, 도구 사용 등 복잡한 AI 시스템이 등장하면서 더 체계적인 접근법이 필요해졌습니다. 이러한 배경 속에서, 본 논문은 컨텍스트 엔지니어링(Context Engineering)을 LLM에 제공되는 정보 페이로드(information payloads)를 체계적으로 최적화하는 공식적인 학문 분야로 제안합니다. 이는 단순히 좋은 질문을 만드는 것을 넘어, 외부 지식, 메모리, 도구, 사용자 상태 등 여러 정보 소스를 동적으로 조합하여 LLM의 능력을 최대한으로 끌어내는 통합 프레임워크(?)에 가깝습니다. 본 연구의 핵심은 이 분야를 '기반 구성요소(Foundational Components)'와 '시스템 구현(System Implementations)'이라는 두 가지 큰 축으로 나누어 기술의 전체 지도를 그렸다는 점입니다.

 

 

기반 구성요소(Foundational Components)는 컨텍스트를 가져오고(검색/생성), 다듬고(처리), 보관하는(관리) 핵심 기술 블록들입니다. 시스템 구현(System Implementations)은 이 블록들을 조립하여 RAG, 메모리 시스템, 멀티-에이전트 시스템과 같은 완성된 아키텍처를 만드는 것입니다. 또한, 이 방대한 분석을 통해 연구진은 중요한 연구 격차를 발견했는데요. 현재 LLM은 고도로 설계된 복잡한 컨텍스트를 '이해'하는 데는 뛰어나지만, 그만큼 정교하고 긴 결과물을 스스로 '생성'하는 데는 한계를 보인다는 것입니다.

 

2-2. 핵심 수행 내용과 연구 내용

본 연구에서 제안하는 핵심적인 내용은 바로 이 컨텍스트 엔지니어링의 전체 구조를 체계화한 분류 프레임워크(Taxonomy Framework)입니다. 이는 Figure 1에서 잘 나타나 있습니다. 연구진은 먼저 1,400편 이상의 방대한 논문을 분석하여 LLM의 컨텍스트를 다루는 기술들을 수집했습니다.

 

수집된 기술들을 기능적 역할에 따라 두 가지 큰 범주로 나누었습니다.

  • 첫째, 기반 구성요소(Foundational Components): AI 시스템의 근간을 이루는 핵심 기술들입니다.
    - 컨텍스트 검색 및 생성: 필요한 정보를 어디서 어떻게 가져올 것인가? (ex. 프롬프트 작성, 외부 DB 검색)
    - 컨텍스트 처리: 가져온 정보를 어떻게 가공할 것인가? (ex. 긴 문서 요약, 구조화 데이터 변환)
    - 컨텍스트 관리: 가공된 정보를 어떻게 효율적으로 저장하고 사용할 것인가? (ex. 메모리, 압축)

  • 둘째, 시스템 구현(System Implementations): 위 기반 구성요소들을 건축적으로 통합하여 만든 정교한 시스템들입니다.
    - RAG: '검색/생성' 요소를 중심으로 구현된 시스템.
    - 메모리 시스템: '관리' 요소를 중심으로 구현되어 장기 기억을 가능하게 하는 시스템.
    - 도구 통합 추론 & 멀티-에이전트 시스템: 여러 구성요소를 복합적으로 융합하여 외부 세계와 상호작용하거나 서로 협력하는 고도화된 시스템.

이제 다음 파트부터 각 구성요소에 대한 상세한 내용을 리뷰해보겠습니다. 논문이 방대하기 때문에 핵심적인 내용을 위주로 리뷰하겠습니다. 만약 긴 글이 부담스러우신 독자분들은 여기까지만 보셔도 됩니다. 또한, 본 포스팅에서도 핵심 내용을 위주로 다루었기 때문에 각 기술에 대한 상세한 정보는 논문 원본을 꼭 살펴보시길 권장드립니다.


3. 논문 상세 내용 - 컨텍스트 엔지니어링(Context Engineering)

3-1. 컨텍스트 엔지니어링이란 무엇이고, 왜 필요한가?

LLM과 상호작용하는 방식을 이야기할 때 우리는 흔히 '프롬프트 엔지니어링'이라는 용어를 사용합니다. 하지만 논문의 저자들은 이 용어만으로는 현대 AI 시스템의 복잡성을 모두 담아내기에 더 이상 충분하지 않다고 주장합니다. 오늘날의 AI 시스템은 단순히 정적인 텍스트 한 줄을 입력받는 것을 넘어, 동적이고, 구조화되었으며, 다각적인 정보의 흐름을 활용하기 때문입니다.

이러한 변화에 발맞춰, 본 논문은 컨텍스트 엔지니어링(Context Engineering)이라는 새로운 패러다임을 제시합니다.

 

3-1-1. 컨텍스트 엔지니어링의 정의

컨텍스트 엔지니어링이란, LLM에 제공되는 정보 페이로드(information payloads)를 체계적으로 설계하고 최적화하는 공식적인 학문 분야입니다. 기존에는 컨텍스트 `C`를 단순히 하나의 프롬프트(C = prompt)로 보았다면, 컨텍스트 엔지니어링은 컨텍스트 `C`를 여러 정보 구성요소 \(c_1, c_2, ..., c_n\)를 동적으로 조립한 결과물(\(C = A(c₁, c₂, ..., cₙ)\))로 봅니다. 이때 조립되는 '재료(구성요소)'들은 다음과 같습니다.

 

  • 지침 \(c_{instr}\):AI의 역할, 규칙 등 시스템의 기본 지침
  • 지식 \(c_{know}\): RAG 등을 통해 실시간으로 검색된 외부 최신 정보도구 \(c_tools\): AI가 사용할 수 있는 외부 API나 프로그램의 명세
  • 메모리 \(c_{mem}\): 사용자와의 과거 대화 기록이나 학습된 정보
  • 상태 \(c_{state}\): 현재 시스템이나 사용자의 동적인 상태 정보
  • 쿼리 \(c_{query}\): 사용자의 현재 질문

 

즉, 컨텍스트 엔지니어링은 프롬프트 디자인의 기술에서 벗어나, 이러한 여러 정보 재료들을 최적으로 조합하여 LLM에게 적절한 맥락(Context)를 제공함으로써 업무를 수행할 수 있도록 하는 전환을 의미합니다.

 

 

컨텍스트 엔지니어링(Context Engineering)과 프롬프트 엔지니어링(Prompt Engineering)의 차이점은?

 

처음 이 논문을 보면서 정말 헷갈렸던 부분입니다. "그래서 컨텍스트 엔지니어링이랑 프롬프트 엔지니어링의 차이점은 뭐지?"라는 질문을 계속 던졌습니다.

왜냐하면, 여러 커뮤니티에 이제 프폼프트 엔지니어링을 넘어 컨텍스트 엔지니어링으로 가야한다고 말을 하는 데, 둘의 차이점이 좀 명확히 와닿지 않았습니다.

반응형

일단, 현재까지 제가 이해한 것 + 논문에 명시된 설명으로 정리해보겠습니다. 

구분 프롬프트 엔지니어링 컨텍스트 엔지니어링
컨텍스트 모델 정적인 단일 문자열(C=prompt) 동적이고 구조화된 여러 구성요소의 조합(\(C = A(c₁, c₂, ..., cₙ)\))
주요 목표 LLM의 응답 품질을 높이는 최적의 프롬프트 LLM의 성능을 극대화하는 정보 처리 시스템 최적화
복잡성 문자열 공간 탐색 정보 검색, 선택, 처리, 관리, 함수 등 시스템 수준의 최적화
정보의 원천 프롬프트 내의 고정된 정보 외부 DB, 메모리, 도구 등 다양한소스에서 동적으로 정보를 가져와서 융합 및 활용
상태 관리 상태가 없음(stateless) 메모리나 상태(state)를 명시적으로 다뤄, 상태를 가짐(stateful)

 

예를 들면, 이런 느낌이지 않을까요?

만약, 제가 "제주도로 3박 4일 가족여행 계획 짜줘"라고 요청한다고 가정해보겠습니다.

 

프롬프트 엔지니어링 컨텍스트 엔지니어링
"사용자 요청: 제주도로 3박 3일 가족여행 계획 짜줘"

이 프롬프트만 LLM에게 전달됩니다.
LLM은 일반적인 정보만으로 답변 생성합니다.
아래와 같은 여러 정보를 동적으로 수집합니다.

- c_query: 사용자 요청 수집: 제주도로 3박 4일 여행 계획 짜줘
- c_instr: 너는 친절한 여행 전문가야. 
- c_mem: 이 사용자는 과거에 '자연경관'을 선호했음
- c_tool: 실시간 항공권 API 호출 및 호텔 예약 API 호출

이런 정보를 활용해 하나의 구조화된 프롬프트 구성하여 LLM에게 맥락(context)를 제공하여 업무를 수행하도록 함

# 시스템 지침
너는 친절한 여행 전문가이며, 가족 친화적인 활동을 추천한다

# 과거 대화 요약과 서용자 선호도
- 이 사용자는 자연경관을 선호한다

# 외부정보
- 현재 김포-제주 왕복 최저가 항공편 oo항공, 1인 80,000원
- 추천 숙소: oo 호텔, 패밀리룸
- 최신 맛집 정보 : XX 식당

# 사용자 현재 요청
위 정보를 모두 고려하여, 제주도로 떠나는 3박 4일 가족여행 구성

 

  

3-2. 컨텍스트 엔지니어링이 필요한 이유

그렇다면 왜 우리는 프롬프트 엔지니어링을 넘어 컨텍스트 엔지니어링이라는 더 넓은 관점을 가져야 할까요?

논문은 네 가지 핵심적인 이유를 제시합니다.

 

3-2-1. 현재 LLM의 명확한 한계를 극복

LLM의 기반이 되는 트랜스포머의 셀프 어텐션 메커니즘은 처리할 시퀀스 길이가 길어질수록 계산량이 제곱(\(O(n²)\))으로 증가하는 문제를 안고 있습니다. 이는 긴 문서나 대화를 한 번에 처리하는 데 큰 병목이 됩니다. 그리고 LLM은 종종 사실이 아닌 내용을 그럴듯하게 지어내는 환각(hallucination) 현상을 보이거나, 입력된 컨텍스트를 제대로 따르지 않는 문제를 보입니다.

또한, 기존의 프롬프트 엔지니어링은 주관적이고 특정 작업에만 맞춰져 있어, 체계적이고 일반적인 최적화 방법을 찾기 어렵습니다.

 

3-2-2. LLM의 성능을 극대화

체계적인 컨텍스트 엔지니어링은 LLM의 성능을 향상시킵니다. RAG와 같은 기술은 텍스트 탐색 정확도를 18배 향상시켰고, 잘 설계된 구조적 프롬프트는 복잡한 추론을 가능하게 합니다. CoT(Chain-of-Thought)와 같은 기법은 LLM이 중간 추론 단계를 생성하게 함으로써 복잡한 문제 해결 능력을 높여줍니다. 특히 코드 생성이나 하드웨어 설계와 같은 전문 분야에서는, 해당 도메인에 특화된 컨텍스트를 제공함으로써 범용 모델의 한계를 뛰어넘는 성과를 낼 수 있습니다.

 

3-2-3. 한정된 자원을 효율적으로 사용

모델 전체를 재학습시키는 것은 엄청난 비용과 시간이 듭니다. 컨텍스트 엔지니어링은 필요한 정보를 컨텍스트를 통해 직접 주입함으로써, 모델을 재학습하지 않고도 새로운 지식을 활용하게 만드는 자원 효율적인 대안을 제공합니다. 정보 필터링, 컨텍스트 압축 등 다양한 최적화 기술을 통해 불필요한 토큰 소비를 줄이고, 더 적은 비용으로 높은 품질의 응답을 얻을 수 있습니다.

 

3-2-4. AI의 미래 잠재력을 실현

컨텍스트 엔지니어링은 LLM이 새로운 작업을 재학습 없이 수행하게 하는 인컨텍스트 학습(In-context Learning)을 통해 유연한 적응력을 부여합니다. CoT, ToT(Tree-of-Thought)와 같은 정교한 추론 기법들은 더 미묘하고 복잡한 언어 이해 및 생성 능력의 토대를 마련하며, 이는 결국 더 견고하고 상황을 인지하는(context-aware) AI 애플리케이션의 발전으로 이어집니다.


4. 컨텍스트 엔지니어링의 3가지 기반 구성요소 (Foundational Components)

 

앞서 컨텍스트 엔지니어링이 지능형 AI 시스템을 구축하기 위한 '설계도' 또는 '방법론'이라고 설명했습니다. 그렇다면 이 설계도를 구현하기 위한 핵심 '부품'들은 무엇일까요? 논문에서는 AI 시스템의 컨텍스트 파이프라인을 구성하는 세 가지 핵심적인 기반 구성요소(Foundational Components)를 제시합니다.

세 가지 구성요소는 컨텍스트 검색 및 생성 (Context Retrieval and Generation) 컨텍스트 처리 (Context Processing) 컨텍스트 관리 (Context Management) 입니다. 각각의 역할은 정보를 가져오고(수집), 다듬고(전처리 등), 효율적으로 사용하는(보관, 사용) 단계에 해당합니다. 이제 하나씩 살펴보겠습니다.

 

4.1 컨텍스트 검색 및 생성 (Context Retrieval and Generation)

이 단계는 LLM에게 전달할 컨텍스트의 '재료'를 어디서, 어떻게 가져올 것인지를 다룹니다.

  • 프롬프트 엔지니어링과 컨텍스트 생성 (Prompt Engineering and Context Generation): LLM의 사고를 유도하는 가장 기본적인 방법입니다. 단순히 명령을 내리는 것을 넘어, CoT(생각의 사슬), ToT(생각의 트리)와 같은 정교한 프롬프팅 기법을 통해 LLM이 복잡한 문제를 단계별로 추론하도록 이끕니다 .
  • 외부 지식 검색 (External Knowledge Retrieval): LLM이 학습하지 못한 최신 정보나 특정 도메인의 전문 지식을 외부 소스(웹, DB, 지식 그래프 등)에서 가져오는 기술입니다. RAG가 바로 이 기술의 대표적인 예시입니다.
  • 동적 컨텍스트 조립 (Dynamic Context Assembly): 위에서 얻은 여러 정보 조각들(프롬프트, 외부 지식, 사용자 정보 등)을 하나의 일관되고 최적화된 컨텍스트로 실시간으로 조합하는 과정입니다.

 

4.2 컨텍스트 처리 (Context Processing)

 

정보를 가져왔다면, 이제 LLM이 가장 잘 '소화'할 수 있도록 재료를 다듬는 과정이 필요합니다.

  • 긴 컨텍스트 처리 (Long Context Processing): LLM의 고질적인 문제인 '긴 글 처리'의 한계를 극복하기 위한 기술입니다. Mamba와 같은 새로운 아키텍처나 FlashAttention 같은 최적화 기법을 통해 수백만 토큰에 달하는 긴 문서나 대화도 효율적으로 처리할 수 있게 합니다.
  • 문맥적 자체 개선 및 적응 (Contextual Self-Refinement and Adaptation): LLM이 스스로 자신의 답변을 평가하고 수정하게 만드는 기술입니다. 예를 들어, 'Self-Refine' 프레임워크는 LLM이 초안을 작성한 뒤, 피드백을 생성하고, 그 피드백을 바탕으로 답변을 다시 개선하는 반복적인 과정을 거칩니다.
  • 다중 모드 및 구조화된 컨텍스트 처리 (Multimodal and Structured Context): 텍스트뿐만 아니라 이미지, 오디오, 테이블, 그래프와 같은 비정형, 정형 데이터를 LLM이 이해할 수 있는 형태로 가공하고 통합하는 기술을 다룹니다.

 

4.3 컨텍스트 관리 (Context Management)

마지막으로, 잘 다듬어진 정보 재료들을 어떻게 효율적으로 보관하고 필요할 때 꺼내 쓸 것인지를 관리하는 단계입니다.

  • 근본적인 제약사항 해결 (Fundamental Constraints): LLM은 컨텍스트 창의 길이가 제한되어 있고, 특히 긴 글의 중간에 있는 정보를 잊어버리는 'lost-in-the-middle' 현상을 겪습니다. 컨텍스트 관리는 이러한 제약을 최소화하는 것을 목표로 합니다.
  • 메모리 계층 및 저장 아키텍처 (Memory Hierarchies and Storage Architectures): 컴퓨터 운영체제(OS)의 메모리 관리 기법에서 영감을 얻은 기술입니다. 예를 들어, MemGPT는 LLM의 컨텍스트 창을 '주기억장치'로, 외부 DB를 '보조기억장치'로 사용하여 필요한 정보를 동적으로 교체(페이징)하며 거의 무한한 메모리를 사용하는 것처럼 만듭니다.
  • 컨텍스트 압축 (Context Compression): 제한된 컨텍스트 창 안에 더 많은 정보를 담기 위해, 정보의 핵심은 유지하면서 전체 텍스트 길이를 줄이는 기술입니다. 이 세 가지 기반 구성요소는 '수집 보관 및 사용'이라는 유기적인 파이프라인을 형성합니다. 이 파이프라인을 통해 생성된 고품질의 컨텍스트가 바로 다음에 설명할 RAG, 멀티-에이전트와 같은 정교한 AI 시스템을 구동 할 수 있게 됩니다.


5. 시스템 구현: 4가지 지능형 AI 아키텍처 (System Implementations)

 

지금까지 컨텍스트 엔지니어링의 핵심 '부품'인 기반 구성요소(Foundational Components)에 대해 알아보았습니다. 그렇다면 이 부품들을 조합하여 어떤 강력한 '완성품', 즉 지능형 AI 시스템을 만들 수 있을까요? 논문에서는 기반 구성요소들을 통합하여 만든 4가지 대표적인 시스템 구현 아키텍처를 소개합니다. 이는 이론을 현실에 적용한 구체적인 결과물들이라고 할 수 있습니다.

 

5.1 검색 증강 생성 (RAG, Retrieval-Augmented Generation)

 

RAG는 이제 많은 분들께 익숙한 기술일 것입니다. LLM이 내부적으로 학습한 지식(Parametric Knowledge)의 한계를 넘어, 외부의 최신 정보 소스를 실시간으로 참조하여 답변을 생성하는 시스템입니다. 이를 통해 정보의 최신성을 유지하고 환각(Hallucination) 현상을 크게 줄일 수 있습니다. 논문에 따르면 RAG는 단순히 검색하고 생성하는 것을 넘어 다음과 같이 진화하고 있습니다.

 

  • 모듈형 RAG (Modular RAG): 검색, 생성 등의 단계를 레고 블록처럼 유연하게 재구성할 수 있는 아키텍처입니다. 이를 통해 특정 작업에 맞춰 시스템을 더 쉽게 최적화할 수 있습니다.
  • 에이전틱 RAG (Agentic RAG): AI 에이전트가 사람처럼 '언제, 무엇을 검색할지' 스스로 판단하고, 여러 단계에 걸쳐 정보를 탐색하며 동적으로 검색 전략을 수정하는 지능적인 방식입니다.
  • 그래프 강화 RAG (Graph-Enhanced RAG): 단순 텍스트 문서가 아닌, 관계가 구조화된 지식 그래프(Knowledge Graph)에서 정보를 검색합니다. 이를 통해 여러 정보 조각을 논리적으로 연결해야 하는 복잡한 질문에 더 정확하게 답변할 수 있습니다.

 

5.2 메모리 시스템 (Memory Systems)

 

LLM은 기본적으로 '단기 기억상실증'을 앓고 있습니다. 매번의 대화를 독립적으로 처리하기 때문이죠. 메모리 시스템은 이러한 한계를 극복하고 LLM에 지속적인 기억력을 부여하는 시스템입니다. 컴퓨터의 메모리 계층 구조처럼, LLM의 컨텍스트 창을 단기 메모리로, 외부 데이터베이스를 장기 메모리로 활용합니다.

사용자와의 대화가 길어지면, 시스템은 중요한 정보를 장기 메모리에 저장했다가 다음 대화에서 필요할 때 다시 꺼내 단기 메모리(컨텍스트 창)에 넣어줍니다. 이를 통해 AI는 사용자의 선호도를 기억하거나 이전 대화 내용을 참조하여 훨씬 더 개인화되고 일관성 있는 소통을 할 수 있습니다.

 

5.3 도구 통합 추론 (Tool-Integrated Reasoning)

 

LLM은 훌륭한 언어 능력을 가졌지만, 복잡한 계산을 하거나, 최신 정보를 검색하거나, 특정 프로그램을 실행하는 능력은 없습니다. 도구 통합 추론은 LLM이 이러한 한계를 극복하기 위해 외부 도구(Tool)를 사용할 수 있도록 만드는 시스템입니다. 핵심은 'Function Calling' 메커니즘입니다. LLM은 문제 해결에 특정 도구가 필요하다고 판단하면, "계산기.add(5, 8)"과 같은 구조화된 명령을 생성합니다. 그러면 시스템이 이 명령을 받아 실제 계산기를 실행하고, 그 결과인 '13'을 다시 LLM에게 전달해 줍니다. LLM은 이 결과를 바탕으로 다음 추론을 이어갑니다. 이처럼 LLM은 단순한 텍스트 생성기를 넘어, 외부 도구와 상호작용하며 실제 세계의 문제를 해결하게 됩니다. 

 

5.4 멀티-에이전트 시스템 (Multi-Agent Systems)

 

이는 컨텍스트 엔지니어링의 정점이라 할 수 있는, 여러 명의 자율적인 AI 에이전트가 서로 소통하고 협력하여 단일 에이전트가 해결할 수 없는 복잡한 문제를 해결하는 시스템입니다. 예를 들어 '시장 분석 보고서 작성'이라는 과업이 주어지면, '자료 조사 에이전트', '데이터 분석 에이전트', '보고서 작성 에이전트'가 각자의 역할을 분담합니다. 이 시스템이 성공적으로 작동하려면 다음과 같은 핵심 요소들이 필요합니다.

 

  • 소통 프로토콜 (Communication Protocols): 에이전트들이 서로의 말을 알아들을 수 있는 표준화된 '언어'
  • 오케스트레이션 (Orchestration Mechanisms): 전체 작업 흐름을 지휘하고 각 에이전트에게 업무를 할당하는 '지휘자' 또는 '프로젝트 매니저'
  • 조정 전략 (Coordination Strategies): 에이전트 간의 충돌을 방지하고 협력을 극대화하기 위한 '팀워크 전략'

마무리

여기까지 컨텍스트 엔지니어링의 핵심적인 내용인 정의, 필요성, 그리고 그 구성요소와 시스템 구현 방식에 대해 알아보았습니다.

본 논문은 이 외에도 각 시스템을 어떻게 평가하는지(Evaluation), 그리고 앞으로 어떤 방향으로 연구가 진행되어야 하는지(Future Directions and Open Challenges)에 대한 인사이트를 제공합니다. 논문 내용이 매우 길기 때문에, 본 포스팅은 여기서 마무리 하겠습니다.

 

상세한 내용이 궁금하신 분들은 논문 원본을 참고하셔서 읽어보시길 바랍니다.

긴 글 읽어주셔서 감사합니다.

반응형
그리드형
Comments