mixture of agent (MoA, 에이전트 혼합)
여러 대규모 언어 모델(LLM)의 집단적 전문 지식을 활용하여 AI의 성능을 향상시키는 방법론으로 단일 모델의 한계를 극복하고 여러 LLM의 강점을 결합하여 더 높은 품질의 응답 생성이 목표 ㅇ 계층적 구조: 여러 LLM 에이전트로 구성된 다층 구조 사용. 각 계층의 에이전트는 이전 계층의 출력을 기반으로 응답을 생성하여 최종 결과를 점진적으로 개선ㅇ 협력성: LLM들이 서로의 답변을 참고하고 활용함으로써 더 나은 품질의 응답을 생성. 개별 모델의 강점을 결합하여 전체적인 성능을 향상시키는 원리ㅇ 모델 다양성: 다양한 특성과 강점을 가진 LLM들을 조합하여 사용. 이를 통해 더 풍부하고 세밀한 응답 생성ㅇ 반복적 개선: 여러 모델의 협력적 합성을 통해 생성된 텍스트를 지속적으로 개선ㅇ 역할 특화: 각 L..
AI/AI 용어 정리
2025. 3. 9. 19:26
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- mixture of agent
- reasoning
- 머크
- 해외채권수수료
- cot
- 암젠
- 유튜브 지속가능성
- 해외주식수수료
- 투자아이디어
- kodex 미국배당커버드콜액티브
- 유튜브 저작권
- 유튜버 평균수익
- tiger 차이나전기차레버리지(합성)
- chain-of-thought
- 토스증권
- 오케스트레이션
- 토스증권수수료
- 생각의 사슬
- 노보노디스크
- kodex 미국배당다우존스타겟커버드콜
- 아스트라제네카
- 유튜브 수익창출
- ai
- 옴니모델
- tiger 차이나항셍테크레버리지(합성)
- 미국주식양도세
- 애브비
- 사노피
- 일라이릴리
- 미국주식직투양도세
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
글 보관함