최근 수정 시각 : 2025-04-04 01:26:14

엑사원

EXAONE에서 넘어옴

생성형 인공지능
{{{#!wiki style="margin:-0px -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-5px -1px -11px; word-break:keep-all"
유니모달 모델 기반
<colkeepall> 텍스트 [[소설|
소설
]] NovelAI · AI Dungeon · AI Novelist · GPTRPG
대화형 [[챗봇|
챗봇
]] ChatGPT · Microsoft Copilot · Gemini · CLOVA X · Cue: · Inflection AI · Mistral AI · Grok
[[언어 모델|
언어모델
]] GPT · LLaMA · Gemma · Claude · Phi · Exaone · OpenELM · Qwen · DeepSeek
코드 [[코드#컴퓨터 소프트웨어|
코드
]] GitHub Copilot · Devin · Phind · DeepSeek
이미지 [[그림 인공지능|
그림
]] Midjourney · DALL·E · Imagen · Artbreeder · NovelAI Image Generation · Stable Diffusion · FLUX.1 · Gaugan2 · Dream by WOMBO · Adobe Firefly· Deep Dream Generator
[[영상 인공지능|
영상
]] Stable Video · Sora · Meta Movie gen · Lumiere · Veo · Runway AI · Kling AI
[[모델링|
모델링
]] LATTE3D
오디오
소리
[[음성|
음성
]] A.I.VOICE · DeepVocal · Voice Engine
[[음악|
음성/음악
]] Suno · Stable Audio · Udio · AIVA
멀티모달 모델 기반
대화형
+이미지
Exaone 3.5 · Samsung Gauss
+음성/이미지
GPT-4o · GPT-5 · Gemini · o1 · o3 · DeepSeek
+에이전트
Galaxy AI · Claude 3.7 Sonnet
행위
동작
[[지능형 에이전트|
에이전트
]] Apple Intelligence · Project Astra · Operator · Google Jarvis · Manus AI
[[인공지능 로봇|
체화
]] Tesla optimus · Google RT-X · Gemini Robotics · Isaac Gr00t N1 · Helix
}}}}}}}}}
엑사원
EXAONE
<colbgcolor=#ddd,#010101>파일:엑사원_로고.png
분류 언어 모델
개발사 LG AI 연구원
출시일
1.0
2022년 12월
2.0
2023년 7월 19일
3.0
2024년 8월 7일
3.5
2024년 12월 9일
Deep
2025년 3월 18일
최신 버전 3.5 (비추론), Deep (추론)
링크 파일:홈페이지 아이콘.svg파일:허깅페이스 아이콘.svg
1. 개요2. 버전
2.1. 엑사원 1.02.2. 엑사원 2.02.3. 엑사원 3.02.4. 엑사원 3.52.5. 엑사원 Deep
3. 여담

1. 개요

LG AI 연구원에서 개발한 언어 모델이다.

2. 버전

2.1. 엑사원 1.0

2022년 12월에 공개된 모델이다.

2.2. 엑사원 2.0

2023년 7월 19일에 공개된 모델이다. 멀티모달 입출력을 지원하며, 한국어와 영어 총 2개 언어를 구사하는 이중 언어 모델로 개발되었다.

2.3. 엑사원 3.0

2024년 8월 7일에 공개된 오픈소스 모델이다. LG 측의 주장에 따르면 구글Gemma2, metaLLaMA-3.1 8B 모델보다 더 높은 벤치마크 성능을 보인다.

2.4. 엑사원 3.5

2024년 12월에 Hugging Face를 통해 공개되었으며, 2.4B , 7.8B, 32B 3가지 모델로 나눠져있다.
7.8b와 32b는 비슷한 체급 대비 Qwen 2.5에게 밀리지만, 2.4B 사이즈에서는 오히려 평균 점수에서 매개변수가 약간 더 많은 Qwen 2.5 3b를 능가한다.

2.5. 엑사원 Deep

2025년 3월 18일에 공개된 모델로 기존에 있던 Deepseek-R1과 같은 CoT(Chain-of-Thought)추론 모델이다. 엑사원 3.5 때와 같이 2.4B, 7.8B, 32B를 지원하고, 지난 3.5 때는 경쟁 상대인 알리바바[1] 에게서 열세였던 것과는 다르게 이번에는 사이즈별로 경쟁 상대들과 대등하거나, 오히려 상회하는 성과도 보여주었다. [2][3]
경량형 모델인 2.4b 사이즈와 7.8b 사이즈는 비슷한 체급의 경쟁 모델들을 해당 테스트 5개의 기준[4]에서 모두 압도하고, 프론티어 모델인 32b 사이즈는 전반적으로 pass@1과 같은 간단하면서도 간결한 첫 대답도 꽤 준수 또는 우수한편이지만, CoT 방식의 추론과 연관이 큰 cons@64 영역에서는 QwQ-32b를 그래프에 나오는 LiveBenchCode[5]를 제외한 모든 4가지의 테스트에서 능가하고, LiveBenchCode와 GPQA Diamond[6]을 제외하고, 사이즈가 21배는 차이나는 DeepSeek-R1과 대등하거나 능가한다. 비교 대상인 QwQ-32b와 DeepSeek-R1은 사용자 평가를 기반으로 한 LLM Arena의 수학 카테고리에서[7] 각각 3등[8]과 14등[9]인 것을 생각하면, 기존의 국내 LLM 분야에서의 성과와 비교하면 상당히 이례적인 성과라고 할 수 있다.

파일:exaone_deep_overall_performance.png

3. 여담

  • 3.0 버전까지는 스플릿 형태의 파일만을 올려뒀었지만, 사용자들이 합치고, 양자화하는 과정이 복잡하다고 판단했는지. 3.5 버전부터는 공식적으로 gguf로 양자화한 버전을 배포한다.
  • 3.5 버전은 대체로 다른 AI를 따돌리는 기술을 지녀 엄청난 성과라고 평가받는데 정작 마케팅 팀이 이걸 제대로 홍보하지 않아서(...) 역시 LG답다는 평. 해외 네티즌들은 LG를 TV 회사가 이런 엄청난 걸 만들었냐는 반응을 시작으로[10] 왜 이런 엄청난 걸 제대로 홍보하지 않냐는 반응도 많다.
  • AI와 같은 GPU 관련 데이터 센터가 자체적으로 구축이 잘 안되어 있어서, Exaone 3.0은 Google Cloud와 파트너십을 맺거나, 초기 모델 구축은 Amazon SageMaker을 활용했다고 한다.

[1] 비추론 모델로는 Qwen, 현재 추론 모델로는 QwQ-32b를 만들었다.[2] 참고로 진한 색상의 그래프는 "pass@1"로 문제를 처음 접했을 때 문제를 푼 기준이고, 연한 색상의 그래프는 "cons@64"로 64회의 풀이를 시도했을 때 1번이라도 맞춘 비율이다.[3] 쉽게 설명하면 pass@1은 상식 능력, cons@64는 추론 일관성이라고 생각하면 된다.[4] MATH-500 (pass@1), AIME 2024 (pass@1 / cons@64), AIME 2025 (pass@1 / cons@64), CSAT Math 2025 (pass@1), GPQA Diamond (pass@1), Live Code Bench (pass@1)[5] 실시간 코딩 벤치마크로 visual studio나 colab에서 코딩을 할 때 copilot과 gemini가 반투명한 형태로 뒤에 작성 할 코드를 예측해주는 기능이라고 보면 편하다.[6] 대학원 수준의 과학 문제 해결능력[7] 2025년 4월 3일 기준[8] DeepSeek-R1[9] QwQ-32b[10] 한국에서도 마찬가지긴 하지만 해외에서 LG 하면 거의 대다수가 TV 내지 냉장고 만드는 회사로 인식한다. 딱히 다른 제품군이 묻혀서라기 보다는 TV랑 냉장고 업계에서 독보적이기 때문이다. 특히 LG는 냉장고에 온갖 신기술을 집어넣는 기행을 자주 선보였기 때문에 TV와 냉장고에 엑사원이 들어갈 것이라는 추측도 있다. LG가 더 이상 스마트폰을 만들지 않으므로 냉장고는 몰라도 TV에는 들어갈 가능성이 있다.