일정

20.01.06 ~ 20.05.07

장소

러닝스푼즈 본관 3층

금액

상담 후 안내

일정

20.01.06 ~ 20.05.07

장소

러닝스푼즈 본관 3층

금액

상담 후 안내

데이터 분석가가 되기 위해선 많은 방법이 존재하지만,
실무와 밀접한 프로젝트 중심의 커리큘럼과 인증과정으로 구성된
러닝스푼즈 나노 디그리 과정이 최고의 선택입니다.

나만의 스킬을 갖추고, 졸업을 한다면
누구보다 앞서가는 커리어의 시작을 하실 수 있습니다.

데이터 분석가가 되기 위해선
많은 방법이 존재하지만,
실무와 밀접한 프로젝트 중심의
커리큘럼과 인증과정
으로 구성된
러닝스푼즈 나노 디그리 과정이
최고의 선택
입니다.
나만의 스킬을 갖추고, 졸업을 한다면
누구보다 앞서가는
커리어의 시작을 하실 수 있습니다.

한국 데이터 분석가
신입 초봉 평균 3,500만원
 

* 출처
– 왓잡 ‘올해 직장인 평균연봉은 얼마나 될까요?’
– CIO ‘역할, 책임, 연봉, 자격증으로 알아보는 데이터 애널리스트’

 · 미국 데이터사이언티스트
평균연봉 7,541만원
 · 한국 데이터 분석가
평균연봉 3,500만원
 · 한국 대졸평균연봉
평균연봉 3,334만원

데이터 분석가
데이터 직무별 인력부족률 1등


* 출처 : 통계청 ‘전 산업 내 데이터직무별 인력 부족률(2018)’

0 %
데이터 분석가

데이터 분석가
최고 유망직업 TOP10 중 직업만족도 1위


* 출처 : 미주중앙일보 ”데이터 분석가’ 3년 연속 최고 직업…IT·헬스케어 분야 구인 많아’

0
4.2/5

데이터 분석가 직업만족도

디그리_상세페이지_커리큘럼
디그리_상세페이지_포트폴리오
디그리_상세페이지_도메인지식
디그리_상세페이지_취업준비


통계학 및 데이터 분석 역량

데이터의 진정한 의미를 찾아낼 수 있는 통계학적 사고 능력은 데이터 분석가에게 필수적인 역량입니다. 단순히 ‘통계지식’만 가르치지 않습니다. 이론은 물론 가설을 설정하는 것 부터 검정하는 것까지! 모든 강의마다 해당 프로세스를 거치며 자동적으로 ‘통계학적 사고 능력’이 생길 수 있도록 만듭니다.


Python, R, SQL 스킬

데이터를 바라보는 관점부터 문제제기, 인사이트 도출까지! 날이 갈수록 복잡하고 방대해지고 있는 데이터 자체를 이해하지 못한다면 결과적으로 좋은 인사이트를 낼 수 없습니다. SQL, R, 파이썬을 활용하여 데이터 수집부터 데이터 분석까지! 데이터 분석 프로세스를 거치며 데이터 분석가로서 가져야 할 데이터 이해 및 분석 능력을 길러드립니다.


커리어에 맞는 도메인 지식

기본적인 통계학과 Python, R 그리고 SQL 스킬을 배우고나서는 각자의 커리어패스에 맞는 도메인 지식을 배우게 됩니다. 파이낸스와 마케팅 그리고 커머스와 IT 업계 등 다양한 분야에서 이미 활동하고 있는 데이터 분석가 멘토들에게, 각 도메인에 맞는 실무 내용을 추가적으로 배워, 앞으로의 방향성과 입사를 했을 때 사용할 수 있는 스킬을 추가로 장착합니다.


데이터 분석 프로세스로
만들어진 체계적인 커리큘럼

실제 데이터 분석가가 현업에서 시행하는 데이터 분석 프로세스 순서대로 커리큘럼을 구성하였습니다. 하나씩 단계를 밟아가며 데이터 분석가가 가져야 할 지식은 물론, 사고방식까지 확립할 수 있도록 구성하였습니다.


지긋지긋한 타이타닉
데이터는 그만!

어디서나 찾을 수 있는 데이터로 실습진행 및 포트폴리오를 만드는 것은 시간낭비일 뿐입니다. 정제되지 않은 데이터는 물론, 상권데이터, 의료데이터, 외식데이터 등 흥미롭고 다양한 데이터로 모든 강의의 실습과 포트폴리오를 제작합니다.


현업전문가로
구성된 강사진

‘데이터 분석’을 제대로 배우려면 ‘현업 전문가’에게 배우는 것이 가장 빠르고 정확합니다. 터무니없이 광범위한 내용을 배우지 않습니다. 현업에서 가장 많이 쓰이고 활용하는 것들만 쏙쏙 뽑아 배우는 것은 물론, 전문가가 아니면 알 수 없는 노하우까지 모두 배워가세요!

디그리_상세페이지_관리_밀착관리
디그리_상세페이지_관리_스터디룸
디그리_상세페이지_관리_Q&A
디그리_상세페이지_관리_자격증
디그리_상세페이지_관리_슬랙
디그리_상세페이지_관리_깃허브
디그리_상세페이지_인사시스템
디그리_상세페이지_부동산데이터분석가_1
디그리_상세페이지_금융데이터분석가
디그리_상세페이지_비즈니스_수정
디그리_상세페이지_물음표
디그리_상세페이지_포트폴리오_01
디그리_상세페이지_포트폴리오_02
디그리_상세페이지_포트폴리오_03
디그리_상세페이지_포트폴리오_04
디그리_상세페이지_포트폴리오_05
디그리_상세페이지_포트폴리오_06

데이터 분석가로서 가장 필요한 역량이 바로‘통계’ 지식 및 사고방식입니다.
통계에 가장 적합한 데이터 분석 도구인 ‘R’을 활용하여 통계를 알아나가며,
통계기반 사고능력을 기르기 위해 가설설정과 검증을 거치며 데이터 분석 및 시각화를 진행합니다.

데이터 분석가로서 가장 필요한 역량이
바로 ‘통계’ 지식 및 사고방식입니다.
통계에 가장 적합한 데이터 분석 도구인
‘R’을 활용하여 통계를 알아나가며,
통계기반 사고능력을 기르기 위해
가설설정과 검증을 거치며
데이터 분석 및 시각화를 진행
합니다.

이윤환 강사님

현) 컬쳐랩(Culture Lab) 대표

강사님 저서
[제대로 알고 쓰는 R 통계 분석]

R Studio를 이용하여 R을 사용하는 방법을 익히고, 프로그래밍 언어로써의 R을 사용하는 문법 지식을 익힙니다.
 
이론
– 데이터 과학에서 사용하는 도구 그리고 R
– 컴퓨터에서 자료를 저장하는 방법
 
실습
– R과 R Studio 설치, 화면 및 기본 작동 학습
– R Studio 기본 설정하기와 프로젝트
– R에서의 자료, 조건문, 반복문, 함수 알아보기
– R 패키지 다루기

우리가 현업에서 주로 사용하는 다양한 외부 데이터를 R 작업환경으로 가져오는 방법을 알아보고 분석을 위한 기본적인 자료 정제, 데이터 저장 등 자료를 관리하는 방법에 대해 알아봅니다.
 
이론
– 파일 포맷
– Long format 과 Wide format
– 관계형 데이터 모델에 기반한 자료 관리
 
실습
– 외부 파일 불러오기
– 정규표현식과 문자열 다루기
– dplyr 패키지를 통한 자료의 추출, 열 선택, 정렬, 열 생성, 요약하기
– tidy 데이터로 데이터 재구축하기

자료로부터 습득하는 정보는 자료의 ‘모양상 특성’을 파악하는 것입니다. 이는 정규교육과정에서 학습한 내용을 계산이 아닌 정보 습득 방법으로 재학습하고 더 많은 모양상 특성을 파악하는 방법과 함께 도표(시각화)를 작성하여 전체 자료의 경향을 파악하는 방법에 대해 학습합니다.
 
이론
– 자료 요약의 결과를 숫자로 나타내기 : 평균, 분산(표준편차)
– 자료 요약의 결과를 숫자로 나타내기 : 중앙값, 사분위수, 이상치
– 그림으로 자료를 요약하기 : 기본 내장 그래픽 함수 이용
– R graphic 환경
 
실습
– R의 집계함수 사용하기
– dplyr 의 summarise() 함수를 이용한 요약하기
– 고수준 그래프 함수와 저수준 그래프 함수 사용

최근 데이터 분석 결과를 시각화하는데 가장 많이 사용하는 ggplot2 패키지의 기본적인 사용법과 함께 작성자가 원하는 대로 도표를 꾸미는 방법을 알아보고, 올바른 정보 습득 및 정보 제공을 위한 올바른 도표 작성방법을 알아봅니다.
 
이론
– 일반적으로 그래프 작성을 위해 수행하는 일들 알아보기
– 잘 만든 도표란 무엇인가?
 
실습
– ggplot2 패키지 사용하기
– geom_ 계열 함수를 이용한 도표의 종류
– theme()를 이용한 도표의 사용자 정의
– 다양한 글꼴 이용하기

확률에 대한 올바른 이해와 함께 확률변수에 대해 알아보고 확률변수로 부터 파생되는 다양한 확률분포에 대해 학습합니다.
 
이론
– 표본공간, 사건, 확률
– 베이즈 정리
– 확률변수, 확률변수의 기대값과 분산
– 이항분포, 정규분포, 카이제곱 분포 등 다양한 확률분포
 
실습
– R에서 분포함수 사용하기
– 분포함수 시각화

표본으로부터 관찰되는 평균, 분산 등은 확률분포 함을 이해합니다. 또한 모집단의 특성을 추측하기 위해 사용하는 추정량의 종류와 그 성질에 대해 알아보고 점추정과 구간추정의 과정을 이해합니다.
 
이론
– 표본 분포에 대한 이해
– 표준오차에 대한 이해
– 추정량의 성질
– 점추정, 구간추정
 
실습
– 도표로 중심극한 정리 이해하기
– 100(1-α)% 신뢰구간 시각화를 통한 신뢰구간 이해
– 표본의 크기 구하기

​​

모집단의 특성을 추측하기 위해 모집단 특성에 대한 여러 가설을 수립하고 표본으로부터 얻은 정보를 바탕으로 가설을 선택하는 방법에 대해 학습합니다.
 
이론
– 가설 수립하기
– 검정통계량
– 유의수준과 유의확률(p-value)
– 비모수 방법
 
실습
– 두 집단의 평균에 대한 가설검정
– 범주형 자료의 가설검정
– 분산분석에서 사용하는 집단간, 집단내 변동량 구하기

​​

두 변수 사이의 관계를 숫자로 표현하는 방법에 대해 학습하고 통계모형으로 회귀모형에 대해 학습하여, 자료를 이용하여 예측 모형을 수립하고 예측하는 과정에 대해 학습합니다.
 
이론
– 원인과 결과
– 두 변수의 상관관계에 대해 이해하기
– 회귀분석 : 회귀모형, 손실함수로써의 최소제곱법과 회귀계수, 오차에 대한 가정
 
실습
– 상관분석
– 회귀분석(단순, 중선형)
– 로지스틱 회귀분석을 통한 예측과 평가

​​

R Markdown을 이용하여 재사용 가능한 문서를 제작하는 방법에 대해 학습하고, 여러 포맷으로 변환하는 방법에 대해 학습함은 물론, R Markdown으로 제작한 문서를 웹상에 배포하는 방법에 대해 학습합니다.
 
이론
– 다양한 문서의 종류와 구성요소
– 월드 와이드 웹의 작동 방식
 
실습
– R Markdown 기초 사용법
– 발표용 슬라이드 제작
– 웹 상에 글 등록하기

데이터 분석가가 데이터 구조를 알고, SQL을 활용할 수 있다는 것은 굉장한 경쟁력이 됩니다.
기본적인 데이터 이해 능력을 기르고, SQL을 활용할 수 있도록 문장 반복작성 및 실습을 거쳐나가며
차별점을 가진 데이터 분석가로 성장해 나갑니다.

데이터 분석가가 데이터 구조를 알고,
SQL을 활용할 수 있다는 것

굉장한 경쟁력이 됩니다.
기본적인 데이터 이해 능력을 기르고,
SQL을 활용할 수 있도록
문장 반복작성 및 실습을 거쳐나가며
차별점을 가진 데이터 분석가로
성장
해 나갑니다.

홍형경 강사님

현) DB/Cloud팀 SQL 전문가

강사님 저서
[누구나 쉽게 SQL]
[오라클 SQL과 PL/SQL을 다루는 기술]
[뇌를 자극하는 오라클 프로그래밍 SQL&PL/SQL ]

​​

전 세계 많은 기업과 여러 조직들은 데이터베이스 관리 시스템(DBMS), 특히 관계형 데이터베이스시스템(RDBMS)을 사용해 시스템을 관리, 운영하고 있습니다. RDBMS의 대표주자인 오라클에 대한 소개와 기본 아키텍처를 이해하고 실습 환경을 구성합니다.
그리고 RDBMS와 소통하는 도구인 SQL의 정체를 파헤칩니다. SQL의 정의, 표준, 종류에 대해 알아봅니다. 그리고 데이터가 저장되는 그릇인 테이블에 대해 속속들이 파헤쳐보고 SQL을 이용해 실제로 테이블을 생성해 봅니다.
 

이론
– 데이터, DBMS, RDBMS 개념 이해하기
– Why RDBM? (RDBM의 특징과 종류 소개 )
– 오라클 기본 구조와 18c 버전 아키텍처 이해하기 (스키마, 사용자, 권한, 롤)
– 18c 버전의 특징과 아키텍처 이해하기
– SQL이란? SQL의 종류(DDL, DML, TCL) 개념 정리
– 테이블이란? 테이블의 구조와 데이터 형(TYPE), 주요 제약조건 이해하기
 

실습
– 오라클 Local DB 설치, SQL Developer 설치
– 실습을 위한 오라클 환경 설정 (스키마, 테이블스페이스 생성 및 설정)
– SQL을 이용해 테이블 생성, 수정, 삭제
– 기본 키 생성과 삭제
– 각종 제약조건 처리 (NULL 허용여부, DEFAULT, CHECK)

​​

SQL중 가장 많은 비중을 차지하는 SELECT 문을 사용해 테이블에 저장된 데이터를 조회해 봅니다. 특정 조건에 맞는 데이터만 걸러 조회하고 정렬해서 보는 방법을 알아봅니다. 또한 다양한 SQL 연산자와 표현식에 대해 알아보고 실습을 통해 그 쓰임새를 숙달해 봅니다.
 

이론
– SELECT 문의 정의, 용도와 기본 구조 이해하기
– WHERE와 ORDER BY 절을 이용해 데이터 필터와 정렬 방법 이해하기
– SQL 연산자의 종류와 CASE표현식 사용법 이해하기

 

실습
– SELECT문을 이용한 데이터 조회
– WHERE 절을 사용해 특정 조건에 맞는 데이터만 조회
– ORDER BY 절을 사용한 데이터 정렬
– SQL 연산자를 사용한 데이터 연산처리
– CASE 표현식을 이용한 조건 처리

​​

SQL에서 제공하는 다양한 함수에 대해 알아보는 시간입니다. 먼저 함수의 기본 개념을 파악하고 SQL 함수를 사용해 원하는 목적에 맞게 데이터를 대상으로 다양한 계산과 연산을 수행하고 그 결과를 직접 확인해 봅니다. SQL 함수를 사용함으로써 한 차원 높게 데이터를 가공할 수 있습니다.
 

이론
– SQL 함수란? SQL 함수의 역할과 종류 파악하기
– 문자형 함수, 숫자형 함수, 날짜형 함수의 종류와 사용법 이해하기
– 형변환 함수, 기타 함수 사용법 이해하기
 

실습
– 문자형 함수를 사용해 다양한 문자열 연산 처리
– 숫자형 함수를 이용한 수학 계산
– 날짜형 함수를 이용한 날짜 연산처리
– 형변환 함수를 이용한 데이터 형변환과 기타 함수 사용한 연산

​​

SQL을 이용해 데이터 분석의 첫 걸음을 내딛을 수 있는 집계 쿼리에 대해 학습합니다. 가장 기본적인 데이터 분석이 평균이나 합계를 계산하는 것인데, 집계 쿼리를 사용해 특정 조건에 맞는 데이터를 대상으로 평균, 합계, 최소, 최대 값 등을 구하는 방법을 알아 봅니다. 또한 수학의 집합 개념이 녹아있는 집합연산자를 사용해 데이터를 여러 형태로 추출하는 방법을 배워봅니다.
 

이론
– 집계 쿼리 개념과 구조 이해하기
– GROUP BY 절과 집계 함수 사용법과 집계된 결과에 대한 조건 처리 방법 습득하기
– 수학의 합집합,교집합, 차집합과 연계한 집합연산자 개념과 사용법 이해하기
 

실습
– GROUP BY 절과 ORDER BY 절 사용한 데이터 집계 처리
– 집계 함수를 사용해 합계, 평균, 최대, 최소 등의 값 구하기
– HAVING절을 사용해 집계된 결과 필터링
– 집합연산자(UNION, UNION ALL, INTERSECT, MINUS)를 사용해 데이터 집합 처리

​​

SQL에서 가장 중요한 부분 중 하나인 조인(Join)에 대해 배웁니다. 여러 테이블에 흩어져 있는 데이터를 연결해 가져오는 기법인 조인의 개념을 이해하고 조인 방법에는 어떤 것들이 있는지, 그리고 각 조인 기법을 사용해 원하는 데이터를 조회하는 방법을 알아봅니다.
 

이론
– 조인이란? (RDBMS의 특징과 연계한 조인의 개념 이해하기 )
– 내부 조인과 외부 조인 이해하기
– ANSI 조인과 Cartesian Product 이해하기

 

실습
– 내부 조인과 외부 조인을 사용한 조인 처리
– ANSI 문법을 사용한 내부,외부 조인 처리
– Cartesian Product 를 사용해 결과 확인

​​

하나의 SQL 문 내에서 또 다른 SELECT 문을 사용하는 서브쿼리에 대해 배웁니다. 서브쿼리란 무엇이고 필요한 이유에 알아보고, 용도에 맞게 여러 형태의 서브쿼리를 사용하는 방법을 알아봅니다. 그리고 서브쿼리와의 조인 방법도 학습합니다.
 

이론
– 서브쿼리의 개념과 종류 이해하기
– 3가지 유형의 서브쿼리 작성법과 용도,차이점 이해하기
– 서브쿼리와의 조인인 세미조인, 안티조인 처리

 

실습
– 스칼라 서브쿼리, 인라인 뷰, 중첩 서브쿼리를 이용한 데이터 조회
– 메인쿼리와 서브쿼리간 세미조인, 안티조인 실습

​​

데이터를 조회하려면 그 전에 데이터가 입력되어 있어야 합니다. 이번 시간에는 테이블에 데이터를 입력하고 수정하고 삭제하는 INSERT, UPDATE, MERGE, DELETE 문에 대해 배웁니다. 그리고 RDBMS의 주 특징 중 하나인 트랜잭션에 대해 알아봅니다.
 

이론
– 데이터 입력과 수정을 처리하는 INSERT, UPDATE, MERGE 문 이해하기
– 데이터 삭제를 하는 DELETE문과 TRUNCATE TABLE 문의 사용법과 차이점 이해하기
– 트랜잭션 개념과 트랜잭션 이해하기
 

실습
– INSERT, UPDATE, MERGE 문을 이요한 데이터 입력, 수정, 입력과 수정 동시 처리하기
– DELETE와 TRUNCATE TABLE 문을 사용한 데이터 삭제처리
– COMMIT과 ROLLBACK 문을 사용한 트랜잭션 처리

좀 더 효율적인 SQL문을 작성하는 방법을 알아봅니다. 먼저 인덱스 개념과 용도, 그리고 인덱스 효과를 살펴보고, 성능이 좋은 SQL문을 작성하는 방법을 배워봅니다. 마지막으로, 지금까지 배운 모든 내용을 정리하는 차원에서 우리 주변에 있는 데이터를 대상으로 흥미로운 실습을 해봅니다.
 

이론
– 인덱스 개념과 용도 이해하기
– 인덱스 생성, 삭제 방법 이해하기
– 효율적인 SQL 문 작성을 위한 Tip 알아보기
– 실습 내용 설명 (로또 번호 분석, 서울시 미세먼지 분석)
 

실습
– 인덱스 생성과 삭제하기
– 인덱스의 효과를 알아보기 위한 SELECT 문 작성
– 효율적인 SQL 문 작성하기
– 로또 번호, 서울시 미세먼지 분석을 위한 실습

데이터베이스 관련 프로젝트의 사례를 기반으로 현장에서 실제로 수행되는 내용을 설명합니다. 데이터베이스 관련 프로젝트의 종류, 특히 데이터 분석을 위한 데이터 웨어하우스 시스템 구축 프로젝트의 개요와 아키텍처, 데이터 분석과 시각화를 알아봅니다. 그리고 데이터 분석가로서 SQL을 활용할 수 있는 방안도 알아봅니다.
 

이론
– 데이터베이스 관련 프로젝트의 종류 (OLTP, OLAP)와 특징
– DW(Data Warehouse ) 시스템 개요, 아키텍처 설명
– DW에서 수행되는 데이터 분석, 시각화 소개
– DW에 특화된 테이블 형태, 구조, ETL, 데이터 마트 설명
– 데이터 분석 및 시각화 도구와 종류 설명
– 데이터 분석가로서 SQL 활용 방안 설명
 

데이터 준비부터 전처리, 분석, 결과도출(시각화)까지!
파이썬을 활용하여 데이터 분석 및 시각화를 진행합니다.
매주 프로젝트를 거치며 통계기반 사고능력을 확립시키는 것은 물론,
실제 데이터 분석 결과물들을 목격하며 강의가 끝난 후에도
스스로 데이터 분석 후 원하는 결과물을 얻어낼 수 있도록
만듭니다.

데이터 준비부터 전처리, 분석,
결과도출(시각화)까지!

파이썬을 활용하여 데이터 분석 및
시각화를 진행합니다.
매주 프로젝트를 거치며 통계기반 사고능력을
확립시키는 것은 물론,
실제 데이터 분석 결과물들을 목격하며
강의가 끝난 후에도 스스로 데이터 분석 후
원하는 결과물을 얻어낼 수 있도록
만듭니다.

오늘코드 강사님

현) 기업 데이터 사이언티스트

데이터 분석을 위한 파이썬 기초를 다룹니다. 파이썬은 지난 해 스택오버플로우(프로그래밍 Q&A 사이트)에서 설문조사를 한 결과 가장 많은 응답자가 있었던 프로그래밍 언어입니다. 파이썬의 장점으로는 다른언어에 비해 배우기 쉽다는 장점과 다양한 생태계와 커뮤니티를 꼽습니다. 또, 배터리가 내장되어 있다는 얘기도 있는데 언어 자체의 표준라이브러리만으로도 우리가 풀고자 하는 문제를 푸는데 도움이 됩니다.
 
판다스는 파이썬에서 사용할 수 있는 엑셀과도 유사한 데이터 분석 도구 입니다. 대용량 파일(기가 단위 이상)을 불러와 데이터 분석을 하고자 할 때 엑셀로는 로드가 느리거나 안 되거나 하는 현상들을 겪기도 합니다. 또 복잡한 수식이나 반복되는 작업을 처리하고자 할 때 판다스를 사용하게 되면 엑셀보다 훨씬 빠르게 데이터를 전처리 하고 분석과 시각화까지 해볼 수가 있습니다. 판다스의 기본 문법과 사용법을 익혀봅니다.
 
이론
– 파이썬의 기본 철학 이해 및 기초 문법 실습 – 변수, 문자열, 리스트, 부울, 제어문
– 데이터 분석을 위한 판다스 기초 – 판다스 cheat sheet 을 통한 학습 방법 배우기
 
실습
– 아나콘다 설치
– 파이썬 기초 문법 실습
– 판다스 cheat sheet 보는 방법 배우기

수치형, 범주형 데이터는 데이터 전처리, 시각화에서도 다르게 다룹니다. 수치나 통계적인 차이가 없더라도 시각화를 했을 때 다르게 보일 수 있다는 것을 실습을 통해 확인해 봅니다. 이상치나 오류 데이터를 시각화를 통해 발견하고 데이터를 전처리 하는 기법을 배웁니다. 이 과정에서 데이터의 특징에 따른 적절한 시각화 방법을 이해하고 사용할 수 있는 안목을 기릅니다.
 
이론
– 수치형, 범주형 데이터에 대한 이해
– 데이터 시각화 기초
– anscombe’s quartet 을 통해 시각화의 중요성 알기
 
실습
– pandas, seaborn, matplotlib을 통한 범주형 데이터 시각화
– pandas, seaborn, matplotlib을 통한 수치형 데이터 시각화
– pandas, seaborn 시각화의 장단점 비교하기

2013년부터 최근까지 부동산 가격 변동 추세가 아파트 분양가에도 반영될까요? 공공데이터 포털에 있는 데이터를 Pandas 의 melt, concat, pivot, transpose 와 같은 reshape 기능을 활용해 분석해 봅니다. 그리고 groupby, pivot_table, info, describe, value_counts 등을 통한 데이터 요약과 분석을 해봅니다. 이를 통해 전혀 다른 형태의 두 데이터를 가져와 정제하고 병합하는 과정을 다루는 방법을 알게 됩니다. 전처리 한 결과에 대해 수치형, 범주형 데이터의 차이를 이해하고 다양한 그래프로 시각화를 할 수 있게 됩니다.
 
이론
– 공공데이터를 활용해 전혀 다른 두 개의 데이터를 가져와서 전처리 하고 병합하기
– 수치형 데이터와 범주형 데이터를 바라보는 시각을 기르기
– 데이터의 형식에 따른 다양한 시각화 방법 이해하기
 
실습
– 공공데이터 다운로드 후 주피터 노트북으로 로드하기
– 판다스를 통해 데이터를 요약하고 분석하기
– 데이터 전처리와 병합하기
– 수치형 데이터와 범주형 데이터 다루기
– 막대그래프(bar plot), 선그래프(line plot), 산포도(scatter plot), 상관관계(lm plot), 히트맵, 상자수염그림, swarm plot, 도수분포표, 히스토그램(distplot) 실습하기

이디야는 스타벅스 근처에 입점한다는 설이 있습니다. 과연 이디야와 스타벅스의 매장입지는 얼마나 차이가 날까요? 관련 기사를 읽고 구별로 이디야와 스타벅스의 매장을 기사와 유사하게 분석하고 시각화 해보면서 Python, Pandas, Numpy, Seaborn, Matplotlib에 익숙해져 봅니다.
 
이론
– 공공데이터를 활용해 텍스트 데이터 다루기
– 문자열에서 원하는 텍스트 추출하기
– 문자열을 활용한 다양한 분석 방법과 위치 정보 사용하기
– folium을 통한 위경도 데이터 시각화 이해하기
 
실습
– 텍스트 데이터 정제하기
– 대소문자로 섞여있는 상호명을 소문자로 변경하고 상호명 추출하기
– 텍스트 데이터에서 원하는 정보 추출하기
– 브랜드명 컬럼을 만들고 구별 매장 수 분석하기
– folium을 통해 지도에 분석한 내용을 표현하기

강남에는 유난히 성형외과나 피부과가 많이 보입니다. 정말 강남에는 피부과와 성형외과가 더 많은지 가설을 세우고 공공데이터를 통해 검정해 봅니다. 여기에서는 판다스의 pivot_table, groupby 등의 데이터 집계 방식과 데이터 요약을 할 수 있는 describe, value_counts 등을 통해 분석해 보고 시각화 하며 가설을 검정하는 일련의 과정을 진행해 봅니다.
 
이론
– 피봇 테이블, 통계, 연산의 이해
 
실습
– 공공데이터를 활용해 구별 의료시설의 수를 분석해 보기
– value_counts 로 집계하기 orderby를 통한 데이터 정렬하기
– 구별로 pandas의 pivot_table과 groupby를 활용해서 데이터 집계하기

저작권 정책과 robots.txt 를 이해하고 웹사이트의 데이터를 수집해 봅니다. 파이썬의 request, beautifulsoup, selenium 등을 활용하며, html 태그에서 원하는 정보를 추출하기 위해 css 의 id, class, html tag 에 대한 내용을 배우게 됩니다. 파이썬 기초에서 배웠던 반복문과 함수를 활용해 수백페이지에 달하는 데이터를 크롤링을 통해 수집하고 파일로 저장합니다.
 
이론
– 저작권을 이해하고 크롤링에 대한 원리 이해하기
 
실습
– request, beautifulsoup을 통한 따릉이 대여소 크롤링하기
– 반복문, 리스트(append, extend)이해하기
– 수집한 데이터를 파일로 저장하기
– 저장된 파일을 불러와 판다스로 분석하기

자전거 반납과 대여는 같은 곳에서 일어날까요? 또 대여가 많은 상위 대여소는 시간대별로 반납과 대여량이 어떤 차이가 있을까요? 대중교통이 편리한 곳과 그렇지 않은 곳의 대여소의 대여량은 시간대별로 어떤 차이를 나타낼까요? 다양한 가설을 세우고 크롤링한 데이터와 공공데이터를 활용해 분석을 해봅니다.
 
이론
– 시계열 데이터 분석 방법 이해하기
 
실습
– 다양한 시간관련 데이터 포맷 이해하기
– expanding, rolling 등의 기법을 사용해 이동평균 등을 구하기
– 시계열 데이터 시각화 하기

어린 아이들은 어른에 비해 감기에 잘 걸릴까요? 국민건강보험의 진료내역을 분석해서 연령대별로 진료내역의 차이를 알아봅니다. 지금까지 배워온 분석 기법과 데이터 전처리 기법, 텍스트 데이터 분석 기법을 활용해 봅니다. 현업 데이터 분석가로 100만건의 대용량 데이터를 효율적으로 분석하는 스킬을 다루게 됩니다.
 
이론
– 대용량 데이터를 다룰 때 메모리를 효율적으로 다룰 수 있는 방법
– 데이터 요약 및 분석, 시각화, 통계기법
 
실습
– 텍스트 데이터 전처리 기법
– 수치형, 범주형 데이터의 시각화

​​

가장 많이 처방받는 약은 어떤 약일까요? 엑셀로 다루기 어려운 큰 사이즈의 파일을 파이썬을 활용해 불러오고 지금까지 배운 방법을 활용해 처방내역을 분석합니다. 기가단위의 데이터를 분석하다보면 메모리 사용량이 많아 속도가 느리게 느껴집니다. 대용량 데이터를 다룰 때 메모리를 효율적으로 활용하는 스킬에 대해 다루게 됩니다.
 
이론
– 데이터 타입, 크기, 라이브러리 내부 코드 이해하기
 
실습
– 데이터 타입 변경하기
– 텍스트 데이터를 수치형태로 변경해서 메모리 효율적으로 사용하기
– 외부 데이터를 활용해 의약품코드 찾기

한 걸음 더 나아가 R을 활용하여 심화과정인 머신러닝에 대해 학습합니다.
흥미로운 외식 데이터를 바탕으로 현업에서 가장 많이 쓰이고 꼭 필요한 머신러닝 기법만 뽑아 학습하며,
지금까지 배웠던 내용을 바탕으로 가설설정 및 검증을 위한 토론을 반복하여 완성된 데이터 분석가로 나아갑니다.

한 걸음 더 나아가 R을 활용하여 심화과정인
머신러닝에 대해 학습
합니다.
흥미로운 외식 데이터를 바탕으로
현업에서 가장 많이 쓰이고
꼭 필요한 머신러닝 기법만 뽑아 학습
하며,
지금까지 배웠던 내용을 바탕으로
가설설정 및 검증을 위한 토론을 반복하여
완성된 데이터 분석가로 나아갑니다.

이재화 강사님

현) 외식기업 데이터 사이언티스트

​​

데이터 분석가는 생각보다 중요한 위치에 있는 존재입니다. 데이터 분석가로서 분석결과를 어떻게 도출하냐에 따라 회사의 매출이 성장할 수도, 감소할 수도 있습니다. 이번 시간을 통해 데이터에 맞는 시각화 방법, 변수가 너무 많을때는 어떠한 방법을 사용해야 하는지, 머신러닝을 위한 선형대수학 이 세가지 주제를 알아보며 이전에 배웠던 내용을 복습해보는 것은 물론, 머신러닝에 대한 긴 여정을 시작해보고자 합니다.
 
이론
– 데이터 분석가가 가져야 하는 마음가짐
– 데이터에대한 이해
– 시각화의 중요성
– 가설을 세우는 방법
– 주성분 분석을 사용해야 하는 이유 & 활용 사례
– 선형대수학 알아보기
 
실습
– R을 활용한 데이터 불러오기
– 이상치 탐색 및 데이터 정제
– 각양각색의 데이터 시각화 방법 및 데이터에 맞는 시각화 방법 찾기
– 변수를 최적화하기 위한 주성분 분석

​​

다양한 머신러닝기법중 단순하면서도 다양한 곳에서 자주 사용되는 KNN, 최근접 이웃분류를 통해 머신러닝이란 개념을 가볍게 잡습니다. 앞으로 우리는 매 회차마다 주어진 데이터를 통해 정제, 시각화, 가설 세우기 3단계 프로세스를 진행합니다. 직접 코딩을 통해 결론을 도출하여 내가 세운 가설과 어떤 차이가 발생했는지 살펴보고 최종 도출된 결과를 가지고 수강생들과 함께 5 ~ 10분간 토의하며 피드백을 갖는 시간을 가지도록 하겠습니다.
 
이론
– KNN 머신러닝 모델이 가장 많이 사용되는 곳이 어디인지 살펴보기
– 왜 이 모델을 사용해야하는지, 꼭 이 모델만을 사용해야 하는지를 이야기 하며 KNN 이해하기
 
실습
#코딩
– R을 활용한 데이터 불러오기
– 이상치 탐색 및 데이터 정제
– 데이터에 맞는 시각화 기법 활용하기
 
#토론
– 나만의 가설 설정하기
 
#코딩
– 다양한 파라미터 값을 통해 KNN 모델 구축해 보고 테스트 해보기
 
#토론
– 내가 세운 가설과 어떠한 차이가 있는지 확인하고 서로간의 의견 나누기

​​

나이브베이즈 분류모델은 어디에서 어떠한 방법으로 활약하고 있는지를 통해 이론을 이해합니다.
 
이론
– 나이브베이즈 분류모델은 어떤 방법으로 구현되는 걸까?
– 나이브베이즈가 활용될 수 있을 만한 곳
– 나이브베이즈모델의 장점과 단점
 
실습
#코딩
– R을 활용한 데이터 불러오기
– 이상치 탐색 및 데이터 정제
– 데이터에 맞는 시각화 기법 활용하기
 
#토론
– 나만의 가설 설정하기
 
#코딩
– 다양한 파라미터 값을 통해 나이브베이즈 모델 구축해 보고 테스트 해보기
– 더 높은 정확도를 위한 실험
 
#토론
– 내가 세운 가설과 어떠한 차이가 있는지 확인하고 서로간의 의견 나누기

​​

의사결정나무와 규칙기반의 분류를 배워보도록 하겠습니다. 이 파트에서 배우는 모델들의 특징은 예측한 결과를 정확하고 쉽게 설명할 수 있다는 점입니다. 이러한 장점으로 인해 예측율이 다른 모델보다 비교적 낮음에도 불구하고, 실제 대기업에서 부터 스타트업까지 합리적인 의사결정을 위해 자주 사용되고 있습니다.
 
이론
– 의사결정나무와 규칙기반의 분류모델 이해하기
– 모델의 단점이 명확함에도 불구하고, 실제 많은 기업에서 왜 사용되는지를 이해하기
 
실습
#코딩
– R을 활용한 데이터 불러오기
– 이상치 탐색 및 데이터 정제
– 데이터에 맞는 시각화 기법 활용하기
 
#토론
– 나만의 가설 설정하기
 
#코딩
– 다양한 파라미터 값을 통해 의사결정나무 모델을 구축해 보고 테스트 해보기
– 명확한 단점을 극복하기 위한 방법 살펴보기
 
#토론
– 내가 세운 가설과 어떠한 차이가 있는지 확인하고 서로간의 의견 나누기

​​

수치를 예측하기위해서 자주 사용되는 회귀방법을 배워보도록 하겠습니다. 우리는 시간을 통해 로지스틱 회귀, 다항 로지스틱 회귀 모형이 어디에서 주로 사용되는지 파악하고, 면접에서 가장 자주 물어보는 ‘회귀모형’이 왜 중요한지 파악하도록 하겠습니다.
 
이론
– 통계에서 가장 기초가 되는 회귀 알아보기 – 머신러닝을 위한 통계 알아보기
 
실습
#코딩
– R을 활용한 데이터 불러오기
– 이상치 탐색 및 데이터 정제
– 데이터에 맞는 시각화 기법 활용하기
 
#토론
– 나만의 가설 설정하기
 
#코딩
– 로지스틱, 다항 회귀 모델 구축해보기
 
#토론
– 내가 세운 가설과 어떠한 차이가 있는지 확인하고 서로간의 의견 나누기

​​

서포트 벡터 머신을 알아보는 시간을 가지도록 하겠습니다. 머신러닝, 딥러닝을 조금이나마 공부해보셨다면 블랙박스란 단어를 들어보셨을 겁니다.
그리고 그 속에 숨겨진 수학은 머신러닝을 포기할 생각이 들만큼 어렵습니다. 하지만 블랙박스를 뜯어보며, 내부에서 어떠한 프로세스로 학습하고 결과를 도출하는지 살펴봄으로서 두려움을 용기로 바꿔 머신러닝에 더 자신감을 갖도록 하는 것 입니다.
 

이론
– 가장 정확도가 높게 평가되는 알고리즘인 서포트 벡터 머신 알아보기
 

실습
#코딩
– R을 활용한 데이터 불러오기
– 이상치 탐색 및 데이터 정제
– 데이터에 맞는 시각화 기법 활용하기
 
#토론
– 나만의 가설 설정하기
 
#코딩
– 원하는 모델을 선택하여 구축하고, 다양한 파리미터 값을 넣어보며 정확도를 높여보기
 
#토론
– 모델을 선택한 이유와 함께 내가 세운 가설과 실제 결과로 도출된 값을 비교하며 어떠한 차이가 있는지 확인하고 서로간의 의견 나누기

​​

유명한 장바구니 분석을 통해 연관규칙이 무엇인지 살펴보는 시간을 가지도록 하겠습니다. 이 시간에서는 추천 시스템의 알고리즘을 접해볼 수가 있습니다. 이 수업을 마치면 유튜브를 시청하다가 뜨는 광고 혹은 크롬을 사용하다가 뜨는 광고가 왜 이렇게 선정되었는지 알게 됩니다.
 
이론
– 연관규칙(지지도, 신뢰도, 향상도) 이론을 통해 가볍게 연관규칙을 탐구하기
– 연관규칙이 가장 많이 사용되는 곳 알아보기
 
실습
#코딩
– R을 활용한 데이터 불러오기
– 이상치 탐색 및 데이터 정제
– 데이터에 맞는 시각화 기법 활용하기
 
#토론
– 나만의 가설 설정하기
 
#코딩
– R 코딩을 통해 연관규칙을 찾고 결과 정렬하기
– 특정 조건에 맞는 연관규칙을 통해 결과 도출하기
 
#토론
– 내가 세운 가설과 실제 결과로 도출된 값을 비교하며 어떠한 차이가 있는지 확인하고 서로간의 의견 나누기

​​​

앙상블 기법인 부트스트랩, 배깅, 랜덤 포레스트를 배워봅니다. 앙상블은 다양한 모형들의 예측결과를 결합함으로, 하나의 모형에서 추출된 결과 보다 더 높은 예측력을 갖게 됩니다. 앙상블을 사용하기에 적합한 데이터를 통해 다양한 모델을 결합해보고 결과를 산출해보며 왜 앙상블을 사용해야 하는지 그리고 앙상블을 사용할때 어떠한 주의점이 있는지를 살펴봅니다.
 
또한 인공신경망은 딥러닝의 첫 걸음, 동시에 머신러닝의 끝 자락에 있다고해도 과언이 아닙니다. 추후 딥러닝으로 넘어가기 위해 가벼운 마음으로 인공신경망을 접해보고 어려운 이론직접 구현하기 보다는 모델이 학습하는 과정을 쉽게 설명하여 수강생들이 가볍게 이해할 수 있도록 합니다.
 
이론
– 부트스트랩, 배깅, 랜덤포레스트가 어떠한 프로세스로 활용되는지 살펴보기
– 적용됐을 때와 안됐을 때의 차이점을 통해 앙상블의 중요성을 배워보기
– 앙상블의 단점 알아보기
 
# 추가
– 인공신경망 알아보기
– 데이터 사이언스는 계속해서 공부를 해야하는 직업이다.
 
실습
#코딩
– R을 활용한 데이터 불러오기 (이전에 사용되었던 데이터 중 택1)
– 이상치 탐색 및 데이터 정제
 
#토론
– 나만의 가설 설정하기
 
#코딩
– 이전에 사용되었던 데이터를 가져와 세가지 기법을 전부 적용해보기
 
#토론
– 세가지 기법을 적용했을때 어떠한 변화가 발생했는지 확인하고, 다른 수강생들은 어떠한 결과가 나타났는지를 들어보며 의견 공유하기

R을 활용하여 학습했던 ‘머신러닝’을 파이썬에서는 어떻게 작동되는지 알아보고 지식을 적용해봅니다.
앞에서 배웠던 내용을 복습하는 시간을 가지며, 더 나아가 딥러닝에 대해 학습하며 과정을 마무리합니다.

R을 활용하여 학습했던 ‘머신러닝’을
파이썬에서는 어떻게 작동되는지 알아보고
지식을 적용
해봅니다.
앞에서 배웠던 내용을 복습하는 시간을 가지며,
더 나아가 딥러닝에 대해 학습하며
과정을 마무리
합니다.

안정국 강사님

현) 데이터 분석 컨설턴트

​​​

회귀분석은 독립변수에 계수를 곱하여 종속변수를 예측하는 방식입니다. 이에 대한 알고리즘을 이해하고, 실무적용을 위한 스크립트를 익힙니다.
 

이론
– 회귀분석 알고리즘의 이해
– 릿지회귀와 라쏘회귀
– 로지스틱 회귀분석의 이해

 

실습
– 회귀분석 알고리즘 모델링
– 회귀분석 모델의 성능평가와 파라미터 튜닝

​​​

의사결정나무 알고리즘에 대해 이해하고 이를 이용한 앙상블기법인 Bagging과 Boosting에 대해 학습합니다.
 

이론
– 의사결정나무 알고리즘의 이해
– Bagging과 Boosting의 이해
– RandomForest와 Xgboost의 이해
 

실습
– 의사결정나무 알고리즘 모델링
– 의사결정나무 모델의 성능평가와 파라미터 튜닝

​​​

서포트벡터머신 알고리즘을 이해하고 그 외 알고리즘에 대해 학습합니다.
 

이론
– 서포트벡터머신 알고리즘의 이해
– kNN 알고리즘의 이해
– NaiveBayes 알고리즘의 이해
– 지금까지 학습한 알고리즘 특성과 성능 비교

 

실습
– SVM 알고리즘 모델링
– SVM의 성능평가와 파라미터 튜닝
– kNN과 NaiveBayes 모델링 학습

​​​

딥러닝을 구현하기 위한 인공신경망의 구성요소와 이를 훈련시키는 과정에 필요한 요소, 성능평가를 위한 요소를 학습합니다.
 

이론
– 인공신경망의 단위 구성 요소의 이해
– 인공신경망 훈련 원리의 이해
– 성능평가 요소의 이해
 

실습
– 인공신경망의 구현
– DNN을 알고리즘 구현

​​​

CNN을 이용한 이미지 데이터 분석을 이해하고, 이미 훈련된 모델을 이용하여 이미지 데이터를 분석하는 방법을 학습합니다.
 

이론
– CNN 원리의 이해
– 이전학습 원리의 이해

 

실습
– CNN의 구현
– CNN 이전학습 모델링

​​​

RNN을 이용한 데이터 분석을 이해하고, 머신러닝과의 차이점에 대해 알아보며, 이외의 딥러닝에 대해 소개합니다.
 

이론
– RNN 원리의 이해
– 머신러닝과의 차이점
– 딥러닝의 다른 영역 소개
– 이후 학습 방향 제시
 

실습
– RNN의 구현

진출하고자 하는 업계에 대해
자세히 알고 있는 것은 또 다른 경쟁력이 됩니다.
현 시점에서 데이터 분석가가
가장 많이 활동하고 있는
4개 업계의 데이터 분석가를 통해
비즈니스(도메인) 지식을 쌓고,
조언을 얻는 시간을 가집니다.

진출하고자 하는 업계에 대해 자세히 알고 있는 것은 또 다른 경쟁력이 됩니다.
현 시점에서 데이터 분석가가 가장 많이 활동하고 있는 4개 업계의 데이터 분석가를 통해
비즈니스(도메인) 지식을 쌓고, 조언을 얻는 시간을 가집니다.

모바일 서비스 업계

부동산 강사

임진환 강사님

현) 배달의 민족 전략기획

패션업계

비즈니스강사

James 강사님

현) 대기업 G사 데이터 분석가

금융업계

데이터 분석

손성민 강사님

현) 핀테크 데이터 분석가

유통업계

파이낸스 강사

이건승 강사님

현) SK스토아 데이터 분석가


온·오프라인 피드백 가능

궁금한 점은 즉시 물어볼 수 있도록!시간적 제한 없이 온·오프라인으로 피드백을 받을 수 있어 용이합니다.


학습 태도 관리

팀원들과 담당 매니저가 매 순간 곁에서 함께하며 자신의 학습 태도를 관리할 수 있도록 지원합니다.


포트폴리오 제작 가능

현업 전문가의 손길이 들어간 높은 퀄리티의 포트폴리오를 완벽하게 만들어낼 수 있습니다.


취업 지원 완성

준비 기간동안 항상 이력서 및 자기소개서를 첨삭받을 수 있으며, 모의면접도 경험할 수 있습니다.

FAQ.

​​​

러닝스푼즈 나노디그리는 상담을 통해 수강생분들을 선발합니다.
선발과정은 아래와 같으며, 선발이 완료된 후 수강료를 안내해드립니다.

1) ‘상담 후 안내’ 버튼 클릭 후 설문지 작성
2) 나노디그리 담당 매니저와 상담 진행
3) 상담 후 적합 판정 시 수강료 안내
4) 결제 후 수강생 확정

​​​

해당 과정은 비전공자(입문자)도 들을 수 있도록 데이터 분석가에게 필요한 A부터 Z까지를 학습할 수 있는 커리큘럼으로 구성되어 있습니다. 고등학교 수학 정도의 수준만 가지고 있더라도 충분히 강의를 소화해낼 수 있으며, 학습에 도움이 될 수 있는 각종 지원(스크립트 제공, 동영상 강의 제공 등)을 통해 예습 및 복습도 혼자서 할 수 있도록 도와드립니다.
 
만약 비전공자(입문자)가 아닌 수강생분들이어도 기존 지식을 확립하고 활용할 수 있도록 자격증 취득, 포트폴리오 제작 등의 과정이 준비되어 있어 부담없이 수강하실 수 있습니다.

​​​

본 과정은 공식적인 포트폴리오 제작 이외에 또 다른 SPEC이 될 수 있는 3월 시험 예정의 ADsP 자격증과 SQLD 자격증 취득을 지원합니다.
지원내용은 아래와 같습니다.
 
1) 모의고사(TEST) 진행 : 정식과정에 방해가 되지 않는 수준에서 매 주 목요일 TEST를 진행합니다.
2) 자격증 교재 지급 : 총 10만원 상당의 자격증 교재를 무료로 지급합니다.
3) 자격증 비 지급 : 총 10만원 상당의 자격증 신청 비용을 지원합니다.

​​​

해당 과정은 진출하고자 하는 분야의 뚜렷한 색깔을 가진 데이터 분석가로 거듭나기 위해 총 200만원 상당의 러닝스푼즈 오프라인 강의 2개를 무료로 수강할 수 있도록 지원합니다. 과정이 시작되는 날부터 종료되는 날까지 모든 카테고리를 대상으로 자신이 수강하고 싶은 오프라인 강의가 있다면 나노디그리 담당 매니저를 통해 주기적으로 신청하면 수강신청이 완료됩니다.
 
* 나노디그리 정식 과정과 중복되는 시간의 강의는 신청할 수 없습니다.
* 강의를 신청한 이후 납득 가능한 이슈가 있지 않는 이상 임의로 불참할 수 없습니다.

​​​

해당 과정은 기존 러닝스푼즈 오프라인 환불규정과는 별도로 학원법 상 아래와 같은 환불 규정을 준수하여 환불을 진행합니다.

1. 수강료 환불 기준
학원법 시행령 <제18조 제3항> 수강료 반환기준에 의거합니다.
1) 수강료 징수기간이 1개월 이내
– 교습개시 이전 : 이미 납부한 수강료 전액
– 총 교습시간의 1/3 경과 전 : 이미 납부한 수강료의 2/3
– 총 교습시간의 1/2 경과 전 : 이미 납부한 수강료의 1/2
– 총 교습시간의 1/2 경과 후 : 반환하지 아니함

2) 수강료 징수기간이 1개월 초과
– 교습개시 이후 : 반환사유가 발생한 당해 월의 반환 대상 수강료(수강료 징수기간이 1개월 이내인 경우에 따라 산출된 수강료를 말한다.) 와 나머지 월의 수강료 전액을 합산한 금액

2. 환불 준수사항
– 환불신청은 help@learningspoons.com 으로 가능합니다.
– 환불기간은 카드사의 일정에 따라 총 1주 – 2주 정도 소요됩니다.
– 수강료 환불 이메일을 보내지 아니하고 무단결석 시, 이는 정당한 교습시간으로 인지합니다.
– 무통장입금으로 수업료를 지불한 경우, 이를 환불 할 경우에는 입금에 사용된 통장 계좌번호와 은행 그리고 명의자를 알려주셔야 합니다.

해당 과정은 졸업 후 ‘조건’을 달성하였음에도 6개월 이내에 취업을 못할 시 전액 환불을 보장합니다.
해당 조건은 아래와 같습니다.

 

1) 매주 4개 이상의 이력서를 회사에 보내서 구직활동 중인 사실을 증명해야합니다.
※ 단, 구직 과정에서 지원한 회사와 지원한 직무, 지원한 날짜, 지원에 관련된 모든 자료를 요청 시 제공할 수 있어야 합니다.

 

2) 지원한 회사에 맞는 이력서를 따로 제작해야 합니다.

    (단순 지원을 막기 위함입니다. 회사에 맞는 이력서를 작성해야지만이 합격률이 올라가게 됩니다.)

 

3) 3개 이상의 개인 프로젝트를 진행하여 포트폴리오를 작성해야합니다.