2025/04/28 썸네일형 리스트형 프롬프트 엔지니어링 5편 | Chain of Thought(CoT), Self-consistency 딱 한 줄 바꿨을 뿐인데, 답변의 퀄리티가 이렇게 차이난다고? 맞습니다. 똑같은 돈을 내고 AI 모델을 사용하더라도, 어떻게 질문을 하느냐에 따라 얻을 수 있는 결과는 천차만별입니다. 어떻게 하면 AI의 성능을 최대로 끌어내어 정확하고 의미있는 답변을 출력하게 할 수 있을까요? 구글에서 발간한 화제의 백서, “Lee Boonstra의 프롬프트 엔지니어링 백서”를 보면 알 수 있습니다. 원문은 모두 영어로 되어 있는데요. 이번 백서의 내용을 꼼꼼히 공부하고, 직접 실험해보면서 중요한 개념들을 해설하는 시리즈를 기획했습니다. 총 8편에 걸쳐 진행될 예정이며, 구글 백서 원문은 이곳(링크)에서 확인할 수 있습니다. [구글 프롬프트 엔지니어링 백서 파헤치기 시리즈]1편 - LLM의 작동 방식과 config 조정.. 더보기 실전에서 바로 써먹는 'Post-training' 테크닉, 튜닝 계보 한방 정리 업스테이지 프라이빗 세미나 3회차에서는 ‘LLM Post Training Techniques’를 주제로 업스테이지 정민별 박사님이 강연을 해주셨습니다. 내용이 매우 매우 방대하여 한번에 정리하기 너무 어려운 것 같아, 나눠서 업로드합니다. 이 글은 2025년 4월 23일 오후 5시부터 6시까지 진행된 업스테이지 프라이빗 세미나의 내용을 기반으로 정리했습니다. Post-training이란?Post-training은 이미 pre-train 되어 있는 모델을 가져와 특정 태스크나 도메인에 맞춰 추가적으로 학습을 시키는 과정입니다. 모델을 우리가, 원하는 작업이나 분야에 적응시키고 적용하기 위한 필수적인 단계라고 볼 수 있습니다. Post-training의 주요 분야포스트 트레이닝에는 크게 튜닝, 강화학습, 스.. 더보기 이전 1 다음