LLM, NLP, 생성형AI, RAG, GPT, 할루시네이션, 튜닝, tuning, LangChain, 랭체인
  • 데이터사이언스
  • 초급, 중급

RAG 성능 고도화를 위한 LLM 파인 튜닝과 프롬프팅 : Llama3, CoT, 에이전트

RAG의 한계를 돌파하는 LLM 튜닝 비결을 이 강의에서만 공개합니다. 대기업 AI 엔지니어가 직접 알려주는 LLM 튜닝 + 프롬프팅 강의!

1기
강의 일정
24.07.28 ~ 24.09.08 (총 7회) 매주 일요일 10:00 ~ 13:00 (총 21시간)

RAG로만 절대 LLM의 성능을 높일 수가 없습니다.
sLLM, RAG의 한계를 돌파하는 LLM 튜닝을 공개합니다!

대기업의 챗봇 성능을 책임지고 있는 AI 엔지니어의
RAG를 위한 LLM 튜닝 가이드!

아래로
강의 특징

이 강의를
선택해야 하는 이유

LLM 파인 튜닝 강의

대기업에서 활용했던 LLM 튜닝 방법과 활용 가이드 제공!

실제 대기업 프로젝트와 챗봇 컨설팅을 하고 있는 현직 대기업 AI 엔지니어의 LLM 튜닝 가이드를 제공 받아보세요. RAG로만 해결할 수 없었던 성능 저하의 문제를 LLM 튜닝으로 시원하게 해결할 수 있습니다.

LLM 파인 튜닝 강의

토이 프로젝트가 아닌
실제 클라우드 환경에서 진행하는 LLM 튜닝!

Kaggle의 타이타닉, 보스턴 집값 예측 수준의 프로젝트만 진행한다면, 실무에 당장 적용할 수 없는 것처럼 LLM도 Colab 토이 프로젝트로는 실무에 적용할 수 없습니다. 라마팩토리, RunPod 등 현업에서 실제로 활용하는 클라우드 환경에서 LLM이 어떻게 튜닝되고 빠르게 서빙되는지 현장에서 확인하세요!

LLM 파인 튜닝 강의

다른 강의에서는 다루지 않는
한글 LLM을 튜닝하는 방법!

성능 좋은 GPT도 한글이 미숙한 건 사실입니다. 한글을 처리하는 성능이 비교적 뛰어난 Llama3(라마 3), Qwen을 파인 튜닝하고 RAG를 통해 할루시네이션 현상을 줄여보세요. 한글 LLM 서비스를 구현하거나 활용하고 싶다면 이 강의를 무조건 수강하셔야 합니다!

강사 소개

최고에게
배워보세요.

LLM 파인 튜닝 강의

안상준

엔지니어

안녕하세요. 현업에서 LLM을 학습하고 RAG 챗봇을 개발하고 있는 AI 연구원 안상준입니다.

위키독스에 '딥 러닝을 이용한 자연어 처리'라는 책과 '진짜 챗 GPT API 활용법' 등 AI 관련 도서를 집필하고 있으며, 대학교에서 딥 러닝 겸임 교수로 활동하고 있습니다.

대기업에서 LLM(Large Language Model)을 실제로 학습시키면서 RAG 챗봇을 개발하고, 어려운 현업 문제를 해결하는 연구도 진행하고 있습니다.

LLM은 깊이 해 본 사람만 알 수 있는 노하우가 많습니다. 교육 활동도 하고 있어서, 이런 노하우들을 입문자들에게 좋은 교육으로 제공하는 데 관심이 많습니다.

LLM에 입문하거나 본인의 서비스를 튜닝하여 고도화하고 싶은 분들이라면 현장에서 함께 이야기하면서 문제를 해결해 보는 건 어떨까요?

이력사항
커리큘럼 요약

커리어 성장에
꼭 필요해요.

현업의 문제 풀이로 입문하는 자연어 처리 (1)

방대한 양의 자연어 처리 개념을 전부 학습하려고 하면 지칠 수 있습니다. 현업에서 주로 활용하는 필요한 개념만 습득하고 자연어 처리에 입문하세요. LLM과 RAG를 활용하기 위한 발판을 마련해 드립니다. 임베딩, 데이터 전처리 등 핵심만 깊게 학습할 수 있도록 준비했습니다.

현업의 문제 풀이로 입문하는 자연어 처리 (2)

방대한 양의 자연어 처리 개념을 전부 학습하려고 하면 지칠 수 있습니다. 현업에서 주로 활용하는 필요한 개념만 습득하고 자연어 처리에 입문하세요. LLM과 RAG를 활용하기 위한 발판을 마련해 드립니다. 임베딩, 데이터 전처리 등 핵심만 깊게 학습할 수 있도록 준비했습니다.

LangChain과 RAG 실전 프로젝트 (1)

챗봇을 개발하기 위한 LangChain과 RAG를 학습합니다. LangChain을 활용한 문서 분할 방법, RAG를 위한 프롬프트 가이드 등 현업에서 활용하는 스킬과 노하우를 가득 담았습니다. 키워드 기반의 VectorDB 활용 방법 또한 포함되어 있으며, 챗봇 개발에 필요한 필수 개념을 학습합니다.

LangChain과 RAG 실전 프로젝트 (2)

챗봇을 개발하기 위한 LangChain과 RAG를 학습합니다. LangChain을 활용한 문서 분할 방법, RAG를 위한 프롬프트 가이드 등 현업에서 활용하는 스킬과 노하우를 가득 담았습니다. 키워드 기반의 VectorDB 활용 방법 또한 포함되어 있으며, 챗봇 개발에 필요한 필수 개념을 학습합니다.

LLM 튜닝과 멀티모달 AI 서비스 개발

RAG를 사용하기만 한다면 어떤 의미가 있을까요? 정확도를 크게 올리는 LLM 파인 튜닝 방법과 현업에서 사용하는 튜닝 가이드를 제공합니다. 또한 GPT-4V, TTS, Whisper, Dalle 등 Assistants API의 실습을 준비했습니다. 멀티모달 AI 서비스도 개발하고 싶다면 이 기회를 절대 놓치지 마세요!

Text-to-SQL, 대화 요약 실전 프로젝트 (1)

지금까지 배운 자연어 처리의 필수 개념으로 실전 프로젝트를 진행합니다. 텍스트를 SQL 쿼리로 바꿔주는 LLM 파인 튜닝, 어려운 문서를 요약해 주는 LLM 파인 튜닝 방법 등을 현장에서 강사님과 직접 실습하며 실무 응용력을 향상해 보세요!

Text-to-SQL, 대화 요약 실전 프로젝트 (2)

지금까지 배운 자연어 처리의 필수 개념으로 실전 프로젝트를 진행합니다. 텍스트를 SQL 쿼리로 바꿔주는 LLM 파인 튜닝, 어려운 문서를 요약해 주는 LLM 파인 튜닝 방법 등을 현장에서 강사님과 직접 실습하며 실무 응용력을 향상해 보세요!




수강대상

이런 분들에게
추천합니다.

RAG의 한계를 느끼고 다른 방법의 성능 고도화를 고민하고 계신 분

토이프로젝트가 아닌, 실제 클라우드 환경에서 LLM을 서빙하고 운영하고 싶은 분

챗봇의 환각 현상으로 어려움을 겪고 계신 분

수많은 LLM 튜닝 중 현업에서 활용하는 LLM 튜닝만 배워보고 싶은 분

"LLM의 성능은 RAG로만 절대 높일 수 없습니다.
LLM 튜닝으로 성능을 높이는 방법을 알려드리겠습니다."

안상준

수강 후기

수강생들의 후기를
들어보세요.

김OO

AI 엔지니어
IT 기업에서 활용하는 자연어 처리
수강생

자연어 처리의 기본 개념을 핵심만 짚어주셔서 학습에 필요한 시간을 절약할 수 있었습니다. 생성형 AI 시대에 자연어 처리가 필수가 된 요즘, 현업에서 사용하고 계시는 LLM 튜닝 방법과 응용까지 알려주셔서 제 도메인에 맞는 챗봇을 개발할 수 있게 되었습니다. 감사합니다!

하OO

개발자
할루시네이션을 해결하는 RAG 활용 수강생

챗봇 서비스를 개발까지 완료했지만 환각 현상 때문에 정상적인 서비스가 어려웠어요. 이 강의 덕분에 서비스 캐릭터에 맞는 LLM을 튜닝하고 RAG를 통해 환각 현상을 해결했어요. 솔직히 어려운 부분도 많이 있었지만, 강사님이 친절하게 답변해 주셔서 해결하기 수월했어요.



Interview

강사 인터뷰

  • 본 강의에서 배운 내용을 어떻게 활용할 수 있을까요?

    이 강의는 LLM으로 문제를 풀기 위해 데이터를 구축하고, 파인 튜닝 후에 어떻게 서비스를 내야 하는지 RAG라는 기술을 통해 할루시네이션을 급감시키고 자신만의 챗봇을 만드는 방법에 중점을 둡니다.


    만약 여러분이 갖고 있는 데이터로 VectorDB나 LLM을 사용하여 자신만의 챗봇을 만들고 싶으시거나(ChatGPT or 오픈 LLM 상관없습니다.)


    Text-to-SQL이나, 복잡한 문서 요약 등 어려운 문제를 LLM 파인 튜닝을 통해 해결하고 싶다면 수업을 통해 해결 방법을 찾을 수 있습니다.

  • 다른 강의와 어떤 차별점이 있나요?

    러닝스푼즈에서 4년 이상 강의를 진행하고 있습니다. 자연어 처리로 현업에서 오래 근무하며 국내의 거의 모든 자연어 처리 강의를 주시하고 있습니다.


    유명 교육 업체의 교육조차 장난감 수준의 데이터로 LLM을 학습하는 척만 하는 경우가 많습니다. 이렇게 하면 LLM 튜닝을 해본 것은 맞지만, 실제로 현업에서 응용하는 것은 불가능에 가깝습니다.


    RAG와 LangChain 수업이 많지만, 사실 RAG에 LangChain이 필수는 아닙니다. LlamaIndex라는 좋은 대체제도 있고, 실제 대기업에서는 코드 추상화 문제로 LangChain을 버려야 하는 경우도 많습니다.


    문제의 본질을 모른 채 도구를 암기하는 것은 안타까운 일입니다. 이 수업에서는 LangChain 사용 방법도 중요하게 다루지만, 더 중요한 것은 RAG를 위해 LLM을 파인 튜닝하는 방법, RAG 성능을 높이기 위한 CoT 프롬프팅, Cohere 방식의 프롬프팅, 에이전트 등을 다룹니다.


    실제 유명 대기업에서 고난이도의 RAG를 위해 어떤 고민을 하고 있고, 어떻게 적용하면 되는지 알려드리겠습니다.

커리큘럼

꼭 필요한 내용만 담았어요.

7개의 커리큘럼

  • 1주차. 자연어 처리 입문(1) - 실무에서 활용하는 딥 러닝과 자연어 처리의 핵심 개념

    강의 목표

    • 입문자를 위해 자연어 처리와 LLM, RAG를 다루기 위한 기본 개념을 전체적으로 학습합니다.

    이론

    • 자연어 처리 이해: Tokenizer, Embedding, Vocabulary, Language Model 용어에 대한 이해
    • Huggingface를 통한 태스크 별 적절한 LLM 선정 방법 : 벤치마크 확인하기
    • LLM 선정 시 반드시 알아야 하는 개념: max_position_embeddings, template, vocab

    실습

    • 파이썬을 이용한 Raw 데이터 전처리
    • GPT, LLama3 Tokenizer를 이용한 텍스트를 수치화 하는 방법 - Encoding, Padding
  • 2주차. 자연어 처리 입문(2) - 자연어 처리 모델과 RAG를 위한 임베딩 이해

    강의 목표

    • 자연어 처리와 RAG를 위한 핵심 개념인 임베딩(Embedding)과 딥 러닝 모델의 학습 방법을 알아봅니다.

    이론

    • 딥 러닝 자연어 처리 모델의 역사 이해하기: RNN, CNN, 어텐션 메커니즘, Transformer, GPT-3
    • NLP 모델이 문제를 푸는방법: 소프트맥스 회귀(Softmax Regression)
    • LLM이 텍스트를 이해하는 비밀: 임베딩(Embedding)
    • OpenAI의 Embedding API 소개

    실습

    • Word Embedding 학습하기: Embedding Layer, Word2Vec
    • OpenAI Embedding API를 이용한 시맨틱 서치 구현(Semantic Search) 구현
    • 한글에서 최고 성능을 보이는 RAG를 위한 임베딩 모델 소개: bge-m3, e5
  • 3주차. RAG 실전 (1) - 랭체인과 ChatGPT, VectorDB를 이용한 실전형 RAG 챗봇 개발

    강의 목표

    • 임베딩을 위해 LangChain을 활용한 문서 분할 방법을 알아봅니다.
    • VectorDB와 LangChain을 활용한 딥 러닝을 이용한 검색기를 만드는 방법을 학습합니다.

    이론

    • ChatGPT API 제대로 활용하기

      언어 (영어 vs. 한글)에 따른 생성 속도/과금 구조의 차이와 해결 방법 알아보기

      RAG를 위한 프롬프트 가이드 (이전 대화 반영, Query Paraphrasing, 할루시네이션 감소)

    • PDF 파싱 가이드

      PDFMiner, PDFPlumber, Camelot 소개

    • LangChain 핵심 기초 입문

      LLM, Prompt Template, Loader, Spliter

    • 키워드 기반의 검색과 VectorDB

      Fasis, Chroma, Milvus 소개

      BM25(키워드 기반 검색)와 결합한 앙상블 검색기

    • ChatGPT Fine-tuning 가이드
    • RAG를 위한 프롬프트 템플릿

    실습

    • ChatGPT API를 이용한 업무 자동화/데이터 증강 실습
    • ChatGPT와 Chroma DB를 이용한 Langchain 챗봇 개발 - 고난이도의 PDF
    • ChatGPT와 Faiss DB를 이용한 Langchain 챗봇 개발 - 다수의 txt 파일
    • 이전 대화를 반영하여 답변하기
    • ChatGPT 직접 Fine-tuning 해서 챗봇 만들기
  • 4주차. RAG 실전 (2) - 오픈 LLM을 활용한 실전형 RAG 챗봇 개발

    강의 목표

    • 앞서 배운 RAG 시스템을 고도화하는 아키텍처를 소개하고 과거의 대화를 기억하는 Memory 능력을 추가하는 방법을 학습합니다.
    • GPT 4V API, TTS, Whisper, Dalle API, Assistnat API를 이용하여 나만의 AI 서비스를 업그레이드할 수 있습니다.

    이론

    • RAG를 위한 고성능 LLM과 프롬프트 소개

      LLama3, Orion-14B-Chat-RAG, Command R Plus

    • RAG 정확도 곱절로 올리는 LLM 파인 튜닝 가이드

      Hard Negative Sample 선정

      No Answer 데이터 구축: 할루시네이션 제거하기

      RAFT (Adapting Language Model to Domain Specific RAG) 논문 소개

      원문 인용 후 답변, CoT(Chain of Thought)를 이용한 근거 후 답변 도출

    • OpenAI API 소개

      이미지를 인식하는 GPT4V

      음성과 텍스트를 자유롭게 오가는 음성 인식 API : Whisper, TTS

      이미지를 그리는 Dalle

      나만의 챗봇을 구현하는 Assistant API

    실습

    • LLama3와 Langchain을 이용한 오픈 LLM RAG 실습
    • Orion-14B-Chat-RAG를 이용한 오픈 LLM RAG 실습
    • LLM 파인 튜닝을 위한 RAG 학습 데이터 구축 실습 (RAFT 논문)
    • 멀티모달 AI 서비스 개발

      GPT4V, TTS, Whisper, Dalle, Assistant API 실습

  • 5주차. 자연어 처리 고급 특강 - Transformer, PLM, BERT, GPT, LLM 이해하기

    강의 목표

    • 자연어처리의 최신 모델들 (BERT, GPT-3, ChatGPT 등)을 입문자들도 이해할 수 있도록 아주 쉽게 설명합니다. 이를 통해 딥러닝 입문자는 최신 논문을 이해할 수 있는 중고급 이상의 딥러닝 자연어처리 이해도로 진입할 수 있습니다.

    이론

    • 네카라쿠배 대기업 NLP/LLM 엔지니어의 주요 면접 질문으로 공부하기
    • LLM 기반 아키텍처: 트랜스포머(Transformer)
    • BERT와 GPT 상세 이해하기 (Positional Embedding, Segment Embedding, Self-Attention)
    • 인코더(BERT), 디코더(GPT, LLM), 인코더-디코더(BART, T5) 모델 차이 알기
    • 다양한 프로젝트 상황에 따른 BERT와 GPT, T5 실전 사용 방법 가이드
  • 6주차. 실전 프로젝트(1) - GPT, BERT, BART, T5를 이용한 대기업 NLP 현업 문제 풀이

    강의 목표

    • Transformer 기반의 딥러닝 모델인 BERT, GPT, T5에 대한 동작 파이프라인에 대해서 이해하고 BERT와 GPT, T5가 가진 각각의 장단점, 각 프로젝트 상황에서 모델을 선택하는 노하우, 그리고 실제 현업에 사용되고 있는 필수 유형 코드를 실습합니다.

    이론

    • BERT, GPT, BART, T5로 풀 수 있는 모든 실무 유형 정리
    • T5를 이용한 대기업 컨설팅에 사용하였던 실제 문제 풀이
    • ChatGPT를 이용한 실전 데이터 증량 방법

    실습

    • 금융 뉴스 긍정, 부정 감성 분석
    • 혐오 유형 다중 레이블 분류
    • 개체명 인식 풀기 - ChatGPT 성능 뛰어넘기
    • 기계 독해 풀기 - 질의응답 챗봇 구현 요소
    • 검색 모델 풀기 - Retrieval Task
    • BERT 실습 변형: KoElectra, RoBERTa와 KoBigBird의 실전 가이드
    • BART와 T5를 이용한 요약 생성기
    • T5를 이용한 대기업 컨설팅에 사용하였던 실제 코드 공개
  • 7주차. 실전 프로젝트(2) - RAG 튜닝, Text-toSQL, 대화 요약 프로젝트

    강의 목표

    • 실제 대기업에서 가장 많이 사용되는 오픈소스 LLM들을 소개하고, RAG와 text-to-sql을 위해 실제 데이터로 LLM을 파인 튜닝(Fine-tuning)하는 방법에 대해서 배웁니다.

    이론

    • 비용한 저렴의 클라우드 Runpod 사용법 소개
    • 라마팩토리(LLama Factory)와 Deepspeed를 이용한 초보자도 할 수 있는 LLM 튜닝 완벽 가이드
    • 각 LLM의 고유한 ChatML 템플릿 이해하기 (LLama-3, Qwen2)
    • 인컨텍스트 러닝(in-context learning) 퓨샷 러닝(Few shot Learning)
    • LLM의 튜닝 방법: Full SFT Fine-tuning Vs. 로라 튜닝(Lora-tuning) Vs. 큐로라(QLora) 튜닝

    실습

    • RAG 성능을 실제로 배로 상승시키는 RAG 파인 튜닝 (RAFT 논문 뛰어넘기)
    • 텍스트를 SQL 쿼리로 바꿔주는 Text-to-SQL LLM 파인 튜닝
    • 어려운 문서를 구조화 요약하는 요약하는 LLM 파인 튜닝

커리어 성장으로 가는 길, 러닝스푼즈와 함께 하세요!

지금 보고 계시는 강의의 관련 태그로 다른 강의도 찾아보세요.

오프라인

RAG 성능 고도화를 위한 LLM 파인 튜닝과 프롬프팅 : Llama3, CoT, 에이전트

profile image
로그인

강의찾기