NLP 프로젝트에서 맛보기로 살짝 사용해봤던 EXAONE 모델이 업데이트됐다.
2024년 8월에 EXAONE-3.0이 공개된 이후, 12월 9일에 한번 더 EXAONE-3.5가 공개된 것.
3.5 버전에는 7.8B 모델과 함께 온디바이스용을 타겟으로 한 듯 경량화된 2.4B 모델, 그리고 거대한 32B 모델 이렇게 3가지로 나뉜다. (2.4B 나도 함 써봐야지..ㅋㅋㅋ) 이전 3.0보다 성능이 확실히 좋다고 하는데. SFT, DPO 등을 사용해 모델 성능을 높여다고 한다. 특히 긴 맥락의 글을 더 잘 이해할 수 있다고. (최대 32K 토큰 맥락까지 처리 가능)
EXAONE은 한글과 영어로 인스트럭션 튜닝된 모델이라서 한국어 관련 태스크에서는 유용하다. 한컴이랑도 AI 서비스 통합하는 프로젝트 하고 있다고... 갑자기 떠올랐는데 예전에 한컴에서 인공위성 관련된 뭐도 했던 것 같은데.. 한컴인스페이스인가? 갑자기 떠오르네ㅋㅋㅋ
LGAI-EXAONE/EXAONE-3.5-32B-Instruct
https://huggingface.co/LGAI-EXAONE/EXAONE-3.5-32B-Instruct
LGAI-EXAONE/EXAONE-3.5-32B-Instruct · Hugging Face
EXAONE-3.5-32B-Instruct Introduction We introduce EXAONE 3.5, a collection of instruction-tuned bilingual (English and Korean) generative models ranging from 2.4B to 32B parameters, developed and released by LG AI Research. EXAONE 3.5 language models inclu
huggingface.co
EXAONE 3.5: Series of Large Language Models for Real-world Use Cases
This technical report introduces the EXAONE 3.5 instruction-tuned language models, developed and released by LG AI Research. The EXAONE 3.5 language models are offered in three configurations: 32B, 7.8B, and 2.4B. These models feature several standout capa
arxiv.org
'소식들' 카테고리의 다른 글
[AI안테나] AI 교과서, 올해는 '먼저 써보고 결정하세요' (0) | 2025.01.11 |
---|---|
[AI안테나] 중국의 AI 역전극, 생성형 AI 특허 70% 장악... 미국은 긴장 (0) | 2025.01.10 |
[📡AI Antenna] GPU 회사인줄 알았던 엔비디아, LLM도 만들어?! (4) | 2024.10.19 |
[📡AI Antenna] 자정까지 29분, 통제되지 않는 AI를 향한 공포 (11) | 2024.10.16 |
AI와 관련된 테크 미디어들 (11) | 2024.10.01 |