LLM, NLP, 생성형AI, RAG, GPT, 할루시네이션, 튜닝, tuning, LangChain, 랭체인
  • 데이터사이언스
  • 기초 학습 권장

LLM 성능 향상을 위한 RAG와 파인 튜닝 : Text-to-SQL, 라마팩토리, vLLM

현직 AI 엔지니어가 전하는 자연어 처리 스킬의 현업 사례를 공개합니다. LLM 튜닝부터 RAG 활용까지 현장에서 같이 실습하는 LLM 강의!

3기
강의 일정
24.12.08 ~ 25.01.19 (총 6회) 매주 일요일 10:00 ~ 13:00 (총 18시간)

(휴강 : 12월 29일)

내가 원하는대로, 말하는대로
LLM을 길들이는 방법

S사에서 챗봇 성능을 책임지고 있는
연구원의 RAG와 파인 튜닝의 비밀

아래로
강의 특징

이 강의를
선택해야 하는 이유

LLM 파인 튜닝 강의

그대로 활용할 수 있는
대기업의 파인 튜닝, RAG 가이드

대기업에서 챗봇 프로젝트와 성능 고도화 프로젝트를 맡고 있는 대기업 연구원이 직접 알려주는 파인 튜닝, RAG 가이드. 코드 템플릿을 공유합니다.

LLM 파인 튜닝 강의

커피 두 잔 값으로 저렴하게
LLM 파인 튜닝하는 방법

부담되는 LLM 운영 비용, 한달에 커피 두 잔 값으로 저렴하게 운영하는 방법을 알려드려요. Runpod, 라마팩토리를 활용한 비용 절감 노하우 제공.

LLM 파인 튜닝 강의

영어 공부가 필요없는
한국어 모델 파인 튜닝 노하우

GPT도 끙끙대는 한국어, 걱정없이 한국어를 활용하는 방법은? 오픈 소스 활용 방법과 소스별 튜닝 노하우를 제공합니다.

강사 소개

최고에게
배워보세요.

LLM 파인 튜닝 강의

안상준

엔지니어

안녕하세요. 현업에서 LLM을 학습하고 RAG 챗봇을 개발하고 있는 AI 연구원 안상준입니다.

위키독스에 '딥 러닝을 이용한 자연어 처리'라는 책과 '진짜 챗 GPT API 활용법' 등 AI 관련 도서를 집필하고 있으며, 대학교에서 딥 러닝 겸임 교수로 활동하고 있습니다.

대기업에서 LLM(Large Language Model)을 실제로 학습시키면서 RAG 챗봇을 개발하고, 어려운 현업 문제를 해결하는 연구도 진행하고 있습니다.

LLM은 깊이 해 본 사람만 알 수 있는 노하우가 많습니다. 교육 활동도 하고 있어서, 이런 노하우들을 입문자들에게 좋은 교육으로 제공하는 데 관심이 많습니다.

LLM에 입문하거나 본인의 서비스를 튜닝하여 고도화하고 싶은 분들이라면 현장에서 함께 이야기하면서 문제를 해결해 보는 건 어떨까요?

이력사항
수강대상

이런 분들에게
추천합니다.

엉뚱한 대답하는 LLM 때문에 스트레스 받고 계신 분

사내에서 챗봇 프로젝트, LLM 관련 업무를 진행하고 계신 분

LLM 서비스를 최적화하기 위해 vLLM을 활용하고 싶은 분

필수) LLM 서비스의 PO, 프로젝트의 PM 분들

"커리큘럼에 자신이 있어요
제가 하는 업무를 그대로 담았으니까요."

안상준

수강 후기

수강생들의 후기를
들어보세요.

김OO

AI 엔지니어
IT 기업에서 활용하는 자연어 처리
수강생

자연어 처리의 기본 개념을 핵심만 짚어주셔서 학습에 필요한 시간을 절약할 수 있었습니다. 생성형 AI 시대에 자연어 처리가 필수가 된 요즘, 현업에서 사용하고 계시는 LLM 튜닝 방법과 응용까지 알려주셔서 제 도메인에 맞는 챗봇을 개발할 수 있게 되었습니다. 감사합니다!

하OO

개발자
할루시네이션을 해결하는 RAG 활용 수강생

챗봇 서비스를 개발까지 완료했지만 환각 현상 때문에 정상적인 서비스가 어려웠어요. 이 강의 덕분에 서비스 캐릭터에 맞는 LLM을 튜닝하고 RAG를 통해 환각 현상을 해결했어요. 솔직히 어려운 부분도 많이 있었지만, 강사님이 친절하게 답변해 주셔서 해결하기 수월했어요.



Interview

강사 인터뷰

  • 본 강의에서 배운 내용을 어떻게 활용할 수 있을까요?

    이 강의는 LLM으로 문제를 풀기 위해 데이터를 구축하고, 파인 튜닝 후에 어떻게 서비스를 내야 하는지 RAG라는 기술을 통해 할루시네이션을 급감시키고 자신만의 챗봇을 만드는 방법에 중점을 둡니다.


    만약 여러분이 갖고 있는 데이터로 VectorDB나 LLM을 사용하여 자신만의 챗봇을 만들고 싶으시거나(ChatGPT or 오픈 LLM 상관없습니다.)


    Text-to-SQL이나, 복잡한 문서 요약 등 어려운 문제를 LLM 파인 튜닝을 통해 해결하고 싶다면 수업을 통해 해결 방법을 찾을 수 있습니다.

  • 다른 강의와 어떤 차별점이 있나요?

    러닝스푼즈에서 4년 이상 강의를 진행하고 있습니다. 자연어 처리로 현업에서 오래 근무하며 국내의 거의 모든 자연어 처리 강의를 주시하고 있습니다.


    유명 교육 업체의 교육조차 장난감 수준의 데이터로 LLM을 학습하는 척만 하는 경우가 많습니다. 이렇게 하면 LLM 튜닝을 해본 것은 맞지만, 실제로 현업에서 응용하는 것은 불가능에 가깝습니다.


    RAG와 LangChain 수업이 많지만, 사실 RAG에 LangChain이 필수는 아닙니다. LlamaIndex라는 좋은 대체제도 있고, 실제 대기업에서는 코드 추상화 문제로 LangChain을 버려야 하는 경우도 많습니다.


    문제의 본질을 모른 채 도구를 암기하는 것은 안타까운 일입니다. 이 수업에서는 LangChain 사용 방법도 중요하게 다루지만, 더 중요한 것은 RAG를 위해 LLM을 파인 튜닝하는 방법, RAG 성능을 높이기 위한 CoT 프롬프팅, Cohere 방식의 프롬프팅, 에이전트 등을 다룹니다.


    실제 유명 대기업에서 고난이도의 RAG를 위해 어떤 고민을 하고 있고, 어떻게 적용하면 되는지 알려드리겠습니다.

커리큘럼

꼭 필요한 내용만 담았어요.

6개의 커리큘럼

  • 1주차. <기초 지식 쌓기> 허깅페이스와 vLLM으로 배우는 LLM 입문

    강의 목표

    • 입문자를 위해 자연어 처리와 LLM, RAG를 다루기 위한 기본 개념을 전체적으로 학습합니다.

    이론

    • LLM 이해를 위한 사전 지식

      트랜스포머 아키텍처 살펴보기: BERT, GPT, T5, LLM

      토크나이저(Tokenizer), 임베딩(Embedding), 보캡(Vocabulary), 토큰(Token)

      토큰 임베딩과 문서 임베딩의 차이

    • LLM 입문 및 실습

      Pre-training, Instruction Tuning, RLHF

      거대 언어 모델의 템플릿(Template)

      거대 언어 모델이 단어를 예측하는 방식

      양자화(Quantization)

      다양한 학습 데이터 예시로 이해하는 LLM 학습 방법

    • NLP 기초 학습 자료 제공

      관심 있는 분들에게 BERT, GPT, BART, T5 파인 튜닝 기초 자료 제공

    실습

    • 허깅페이스를 이용한 LLaMA3 호출
    • 허깅페이스를 이용한 Qwen 2.5 호출
    • 양자화(Quantization)
    • vLLM을 이용한 인퍼런스 속도 가속화
  • 2주차. <입문 난이도> 랭체인과 ChatGPT API를 이용한 RAG

    강의 목표

    • 임베딩을 위해 LangChain을 이용해 문서를 분할하는 방법을 알아봅시다. 벡터 DB와 LangChain을 이용하여 딥 러닝을 이용한 검색기를 만드는 방법을 학습합니다.

    이론

    • ChatGPT API 제대로 활용하기

      LLM 파인 튜닝을 위한 학습 데이터 생성

    • Langchain 핵심 입문

      LLM, PromptTemplate, Loader, Splitter, Memory

    • 벡터 데이터베이스와 검색기

      Faiss, Chroma 소개

      BM25(키워드 기반 검색)와 결합한 앙상블 검색기

    실습

    • ChatGPT API를 이용한 업무 자동화/데이터 증강 실습
    • ChatGPT와 Chroma DB를 이용한 Langchain 챗봇 개발 - 고난도의 PDF
    • ChatGPT와 Faiss DB를 이용한 Langchain 챗봇 개발 - 다수의 txt 파일
    • 이전 대화를 반영하여 답변하기
  • 3주차. <중급 난이도> 멀티 모달 RAG / LLM 에이전트 RAG

    강의 목표

    • 복잡한 PDF 전처리, 이미지, 테이블 등을 처리하는 고난도의 멀티 모달 RAG를 학습합니다.
    • LLM이 스스로 복잡한 문제를 풀면서 문제를 해결하는 에이전트 RAG, Function Calling에 대해서 학습합니다.
    • OpenAI API에서 제공하는 어시스턴트 API를 이용하여 쉽고 빠르게 고성능 RAG를 만듭니다.

    이론

    • 멀티모달 RAG

      복잡한 PDF의 이미지와 테이블을 인식하는 방법 (최고 성능에 가까운 방법 공개)

      이미지와 테이블 대응하기

    • 대기업에서 쓰이는 에이전트 RAG

      Chain of Thought 프롬프팅 이해하기

      계획하고 도구를 선택하는 ReACT 에이전트

      도구를 즉시 호출하는 Function Calling 에이전트

      복잡한 쿼리에 대응하는 방법 (A와 B와 C 알려줘에 대응한다.)

      랭체인의 랭그래프(LangGraph)

    • 유명 스타트업에서 쓰이는 어시스턴트 API

      OpenAI에서 자체적으로 제공하는 RAG API 사용하기

    • 왜 파인 튜닝을 하면 RAG 성능이 더 좋아지는가?

      다음 수업 예고

    실습

    • 복잡한 PDF에서의 이미지와 테이블 전처리
    • 멀티쿼리에 대응하는 에이전트 RAG
    • 복잡한 API를 호출하는 Function Calling 에이전트
    • 랭그래프(LangGraph) 에이전트
  • 4주차. <NLP 연구원 난이도> 실전! 임베딩과 LLM을 모두 파인 튜닝하여 RAG 성능 올리는 비법

    강의 목표

    • 인공지능 연구원들처럼 LLM과 임베딩 모델을 직접 학습시켜서 RAG 성능을 높이는 방법에 대해서 알아봅시다.
    • 라마3와 Orion-14B와 같은 공개된 모델을 이용하여 RAG를 만들어봅시다.
    • RAG 특화 LLM을 학습시키기 위해서 RAG 데이터셋을 만드는 방법을 알아봅시다.

    이론

    • 검색 성능을 뒤엎는 임베딩 파인 튜닝

      BGE-M3 나만의 도메인 데이터로 학습하기

    • 허깅페이스 오픈 모델을 이용한 RAG

      라마3와 오리온을 이용한 RAG

    • RAG를 위한 고성능 LLM과 프롬프트 소개

      LLama3, Orion-14B-Chat-RAG, Command R Plus

    • 어디서도 알려주지 않는 대기업 연구원의 RAG 파인 튜닝 가이드

      RAFT (Adapting Language Model to Domain Specific RAG) 논문 소개

      Hard Negative Sample 선정

      No Answer 데이터 구축: 할루시네이션 때려잡기

      복잡한 쿼리에 대응하는 데이터 구축

      CoT(Chain of Thought)를 이용한 학습 데이터 제작

    실습

    • LLama3와 Langchain을 이용한 오픈 LLM RAG 실습
    • Orion-14B-Chat-RAG를 이용한 오픈 LLM RAG 실습
    • LLM 파인 튜닝을 위한 RAG 학습 데이터 구축 실습 (1시간 이상 설명)
  • 5주차. <NLP 연구원 난이도> 실전! 이미지를 인식하고 정답을 맞히는 멀티모달 VLM 파인튜닝

    강의 목표

    • LLM과 멀티 모달 LLM 학습을 위한 실제 LLM 학습 코드 리뷰를 진행해봅시다.
    • 현업에서 LLM 풀 파인 튜닝과 LoRA 튜닝을 하는 경우를 이해합니다.
    • 실제로 멀티모달 LLM을 파인 튜닝합니다.

    이론

    • LLM과 VLM(멀티모달) 파인튜닝 코드 완전 정복

      학습을 위한 데이터 전처리

      딥스피드 Config 설정하기

      학습 스크립트 파라미터 이해하기

    • 모델 학습 방법 이해하기

      Full Fine tuning Vs. LoRA 튜닝

      언제 LoRA 튜닝이 강점을 갖는가? 실서비스에서의 멀티 로라 사례

      왜 풀 파인 튜닝을 해야하는가? LoRA는 모델을 성형하지 않는다.

    • 모델 선정하는 방법

      허깅페이스 Config와 와 LLM 벤치마크 참고하기

    • 유료 클라우드 Runpod 사용 방법

      커피 두 잔 비용으로 저렴하게 LLM 파인 튜닝하기

    실습

    • Qwen 2.5 VL 파인 튜닝 (멀티모달 파인 튜닝)
    • LLaMA 파인튜닝 (LLM 파인 튜닝)
  • 6주차. <NLP 연구원 난이도> 총 3개의 LLM 파인 튜닝 프로젝트: Text-To-SQL, RAG 특화 모델, 텍스트 요약

    강의 목표

    • LLM 파인 튜닝에 익숙해지기 위해서 실전 문제 세 가지에 대해서 학습하는 방법을 공부해 봅시다.
    • 5주 차에서 LLM 파인 튜닝 코드를 직접 공부했다면 여기서는 좀 더 쉽게 할 수 있는 라마팩토리를 소개합니다.
    • vLLM을 이용하여 LLM 답변 속도를 높이고 멀티 로라를 이용하여 하나의 LLM으로 여러 문제를 풀어봅시다.

    이론

    • LLM 파인 튜닝을 위한 데이터 전처리

      ChatGPT API를 이용한 Text-to-SQL 데이터 전처리하기

      라마팩토리 포맷에 맞게 전처리하기

    • 라마팩토리: 조금 더 쉽게 파인 튜닝하기

      LLM 초보자도 따라만 하면 할 수 있는 파인 튜닝 방법

    • vLLM을 이용한 인퍼런스 가속화

      실전에서 쓰이는 LLM 답변 속도 빠르게 하는 방법

      멀티 로라를 통한 서비스 최적화

    실습

    • LLaMA 파인 튜닝한 Text-to-SQL 챗봇
    • LLaMA 파인 튜닝한 CoT로 동작하는 RAG 챗봇
    • LLaMA 파인 튜닝한 텍스트 요약 챗봇

커리어 성장으로 가는 길, 러닝스푼즈와 함께 하세요!

지금 보고 계시는 강의의 관련 태그로 다른 강의도 찾아보세요.

오프라인

LLM 성능 향상을 위한 RAG와 파인 튜닝 : Text-to-SQL, 라마팩토리, vLLM

강의찾기