01. 개발자를 위한 강의가 아닙니다.
아무것도 모르는 비전공자 분들도 실무 SQL을 바로 활용하실 수 있도록 준비했습니다.
02. 쏘카 출신 데이터 분석가가 직접 알려드립니다.
쏘카는 데이터 플랫폼이 탄탄하기로 유명합니다. 해당 기업의 분석가가 직접 강의를 진행합니다.
03. 실전에 즉시 써먹는 SQL 프로젝트를 진행합니다.
데이터 추출 및 분석, 최종 보고서 작성 프로젝트까지 강사님과 함께 진행합니다.
아무것도 모르는 비전공자 분들도 실무 SQL을 바로 활용하실 수 있도록 준비했습니다.
쏘카는 데이터 플랫폼이 탄탄하기로 유명합니다. 해당 기업의 분석가가 직접 강의를 진행합니다.
데이터 추출 및 분석, 최종 보고서 작성 프로젝트까지 강사님과 함께 진행합니다.
데이터 리터러시
반복적인 SQL 활용 뒤에는 어떤 상황에도 원하는 데이터를 추출 및 분석할 수 있고, 데이터 기반 의사 결정이 가능해집니다.
실무 SQL 노하우
SQL은 단순히 코드 리뷰만 해서는 현업에 적용하기 어렵습니다.
실무에 바로 적용하는 노하우를 얻어가실 수 있습니다.
로드맵 제시
코딩 테스트, 면접 과제로도 쓰이는 SQL!
실제 기업에서의 SQL 스킬을 알려드림으로써 분석가로의 로드맵을 전수합니다.
비전공자와 입문자 수준에 맞춰 기초부터 진행됩니다. 이 강의는 단 7주 만에 비전공자, 입문자도 업무에 SQL을 활용할 수 있도록 하는데 그 목표를 두고 있습니다. 본 과정은 강사님의 1:1 밀착지도를 통해서 SQL에 대해서 이 강의를 통해 처음 들어보신 분들도 따라갈 수 있습니다.
7회차 동안 기초를 탄탄히 배운 뒤 실무와 가까운 데이터를 적재하여 추출부터 분석 및 보고서 작성까지 하나의 프로젝트를 진행해봅니다. 특히, 고객데이터, 제품데이터 그리고 신용카드 데이터를 직접 추출하고 다뤄봅니다. 뿐만 아니라 분석까지 진행해보며 인사이트를 도출해봅니다.
매 수업 시간 실습 예제 문제를 통해 그날 그날 배운 내용을 복습하고 실제 비즈니스에 바로 적용할 수 있는 예제 위주로 진행합니다. 강사님께서 가지고 있는 실무 SQL 노하우와 과제에 대한 피드백을 통해서 실무 SQL을 완벽히 습득하여 활용할 수 있도록 구성하였습니다.
해당 과정은 현장 강의와 온라인 라이브가 동시에 진행됩니다.
온라인 라이브는 ZOOM을 활용해 진행될 예정입니다.
매 주차 강의 종료 후, 라이브 녹화본을 복습하실 수 있도록 제공해 드립니다.
Linux 또는 macOS 기반 노트북이 꼭 필요합니다.
데이터 분석을 위한 첫걸음, 데이터 활용 능력을 키우고 싶으신 분
EXCEL만으로는 힘든 분석, 'SQL'을 실무에 바로 적용하고 싶으신 분
SQL 데이터 분석 프로젝트를 통해 나만의 포트폴리오를 쌓고 싶은 분
안녕하세요. 현재 SOCAR에서 데이터 분석 업무를 담당하고있는 김보경입니다. 어떠한 업무에서도 저는 ‘기본기’가 가장 중요하다고 생각합니다. 데이터에 접근하기 위한 시작은 SQL이라고 할 수 있는데 기본기를 탄탄하게 다지지 않으면 데이터를 추출하는데에 많은 시간을 소요하게 됩니다. 본 강의를 통해 제가 실무에서 SQL을 사용하면서 경험했던 시행착오와 유용한 팁들을 전달드리려고 합니다. 기초를 몸에 익히고 혼자서도 실무에 적용하실 수 있도록 끝까지 도와드리겠습니다.
본 강의는 데이터 분석가 취업 준비생, 비개발자 대상으로 기초를 탄탄히 배우고 실무에 가까운 데이터를 활용하여 간단한 분석 프로젝트를 진행할 예정입니다. 캐글에 있는 데이터를 직접 데이터베이스에 적재해보고 SQL로 원하는 데이터를 추출하여 인사이트를 도출하는 등 분석 프로젝트를 통해 포토폴리오를 함께 만들어보려고합니다.
– SQL 기초 문법 기본기 다지기
– 추출 및 가공한 데이터 활용
– 캐글 데이터를 통한 데이터 프로젝트
– 나만의 데이터 분석 포토폴리오 생성
데이터분석가 Job Description엔 항상 SQL은 지원자격 필수요건으로 기입되어 있습니다. 뿐만 아니라 기획/마케팅/PM 등 직군을 가리지 않고 데이터를 이용하고 있으며, 개발팀에 요청해서 데이터를 얻는 것이 아니라 스스로 추출하고 확인하는 능력이 요구되고 있습니다. 또한 데이터 분석을 위해서는 데이터베이스에 존재하는 데이터를 추출할 수 있어야합니다. 분석 능력이 뛰어나더라도 데이터를 추출할 수 없다면 분석을 할 수 없습니다.
본 강의를 수강한 이후에는 수많은 데이터 중 얻고자하는 데이터를 직접 추출할 수 있게 되며 추출한 데이터를 바탕으로 목적에 따라 다양한 분석과 검증을 통해 리포트를 직접 작성할 수 있는 능력을 갖출 수 있게 됩니다.
첫번째로, SQL의 기본기를 다진 후 실무와 비슷한 캐글데이터를 직접 DB에 적재하여 데이터 분석 프로젝트를 진행합니다. 데이터를 추출하기 위한 SQL 기본기 뿐만 아니라 추출한 데이터로 직접 분석을 해보며 실무에 가까운 경험을 해볼 수 있고 프로젝트를 진행을 통해 본인의 포토폴리오를 구성할 수 있게됩니다.
두번째, 모든 이론을 주입식으로 알려드리는 것이 아니라 실무에서 자주 사용되고 꼭 필요한 핵심내용을 실습을 통해 몸소 익히게 됩니다.
마지막으로 매 강의가 끝날때마다 수강생분들의 다양한 피드백을 받아 다음 강의에서 적극 반영하며 만족하실 수 있는 좋은 강의를 만들어가려고 합니다.
현업에서 SQL로 데이터를 어떻게 추출하느냐에 따라 데이터 분석 시간이 크게 달라지는 경우도 있습니다. 그러한 시행착오들을 겪으며 뒤늦게 깨달았던 경험을 바탕으로 조금 더 효율적으로 추출할 수 있는 다양한 방법에 대해 공유드릴 예정입니다. 본 강의가 끝나면 나한테 당장 필요한 데이터를 필요할 때마다 뽑아 쓰는 능력을 얻게되실거라 장담합니다. 위 능력을 갖춰 주어진 데이터에 대한 다양한 분석 프로젝트를 통해 함께 강의를 만들어가고 싶습니다.
1주차. 관계형 데이터베이스 이해와 실습을 위한 환경 셋팅
데이터가 어디에 저장되어있는지에 대해 개념적으로 파악하고, 가장 많이 쓰이는 관계형 데이터 베이스에 대해 알아봅니다. DBMS에 대한 개념을 이해하고 MySQL을 설치하여 환경을 셋팅합니다. 기본적인 SQL CRUD를 명령어를 통해 테이블 생성하고 업데이트 및 삭제를 하며 새로운 테이블을 직접 구성하고 데이터베이스를 다루는 법을 학습합니다. 복잡하다고 생각되었던 SQL의 개념과 기본기에 대한 내용을 다룹니다. 테이블을 생성하기 위해 스키마를 구성하고 타입을 정해보는 실습을 통하여 일반적인 데이터베이스의 구조에 대해서 이해합니다.
1) 이론
– 데이터, DBMS, RDBMS 개념 이해하기
– 관계형 데이터베이스의 특징
– Table, Row, Columns 개념
– 스키마와 데이터 형(Type)
– SQL의 종류(DDL, DML) 개념 정리
2) 실습
– 실습환경 셋팅 DBMS 설치 (MySQL, MySQL Workbench 설치)
– Database Table 구성 (스키마, 데이터 타입 구성)
– Table에 Data 추가, 조회, 수정, 삭제
– excel로 구성되어있는 Data 적재
2주차. 데이터 조회와 조건에 따른 데이터 필터링
SQL을 이용해 테이블을 지정하여(FROM) 데이터를 조회(SELECT)하는 쿼리의 기본 뼈대를 만드는 방법에 대해 알아봅니다.
DB에 저장된 수많은 데이터 중에서 조건을 주어 데이터를 필터링하고 특정 필드에 대한 데이터를 정렬하는 방법과 여러 연산자를 통해 조건을 세부적으로 주는 방법을 학습합니다. 예를 들어 “A 고객이 구매한 제품”과 같은 특정 데이터를 추출할 때 어떤식으로 필터링을 거쳐야 원하는 데이터를 추출할 수 있는지에 대한 내용을 다룹니다. 데이터 양이 많은 실무에서는 한번에 원하는 결과를 보기 편하게 추출하는 것이 중요합니다.
1) 이론
– 쿼리문 작성 SELECT, FROM
– 데이터 필터링 (Where)
– 특정 필드에 대한 데이터 정렬하기 (ORDER BY)
– As, Wildcard
– 논리연산자 (AND, OR ,LIKE, ALL 등)
– 비교연산자 (=, <, >, != 등)
2) 실습
– Sample Data 적재
– SELECT문을 사용한 데이터 조회
– Where절을 통해 조건에 맞는 데이터 필터링
– 담당직원이 같은 고객 필터링 – 고객의 카드한도 비교
– 제품 주문 날짜 기준 3일 이내 배송건
3주차. 데이터 그룹화와 집계함수를 통한 간단한 통계
데이터를 그룹화하고 집계함수를 통해 간단한 통계를 낼 수 있는 방법에 대해 알아봅니다. 조건에 맞는 값을 다르게 설정해보고 NULL로 구성되있는 데이터를 어떻게 처리할 수 있는지 알아봅니다. 그룹화된 데이터를 중복없이 집계하는 부분과, 그룹핑된 데이터에 조건을 주어 더 세부적으로 추출하는 실습을 진행합니다. 현업에서 그룹을 지어서 데이터를 추출할 때, 그룹 내에서 특정 조건에 따라 묶어서 보고싶은 경우가 있습니다. 그럴때 조건문을 어떻게 활용하는지, NULL 데이터를 어떻게 처리하는지에 대한 노하우가 중요합니다.
1) 이론
– 조건문 활용하기(CASE Statement)
– NULL 데이터 처리하기
– 동일한 범주의 데이터 그룹화(GROUP BY)
– 간단한 집계함수
– 중복제거하기(DISTINCT)
– 그룹핑된 데이터 조건주기(HAVING)
– Constraints(PK, Unique key, not null, check, FK)
2) 실습
– 데이터 그룹화 후 집계처리
– 가장 많이 배송된 제품의 제품코드
– 1000개 이상의 재고가 남아있는 제품 확인하기
4주차. 조인을 활용한 데이터 조회
다수의 테이블에 적재되어 있는 데이터를 조인하여 조회하는 여러 방법에 대해 배웁니다. 여러 테이블에서 필요한 데이터를 조인한 후 다양하게 활용할 수 있는 방법에 대해 익히고, UNION을 사용하여 테이블을 이어붙이는 실습과 With 구문을 사용하여 임시 테이블을 만드는 과정을 통해 효율적인 데이터 사용법에 대해 알아봅니다. 데이터는 목적에 따라 여러개의 테이블로 나뉘어서 저장되어 실무에서는 단일 테이블보다는 여러개의 테이블을 조인하여 쿼리문을 작성하는게 대다수입니다. 조인을 어떻게 하느냐에 따라서 결과가 달라질 수 있어 개인적으로는 가장 중요한 개념이라고 생각합니다.
1) 이론
– ERD 이해하기
– PK, FK
– INNER JOIN
– OUTER JOIN (LEFT, RIGTH)
– UNION
– WITH으로 임시테이블 만들기
– 테이블 생성없이 출력결과 보여주기(View)
2) 실습
– 여러개의 테이블 조인하여 다양한 데이터 추출해보기
– 특정 고객이 주문한 제품명 확인
– 상품의 재고 파악
5주차. 서브쿼리와 분석을 위한 다양한 함수 활용
서브쿼리를 통해 데이터를 한번 다듬어서 사용하는 원리와 방식에 대해 알아봅니다. 그리고 분석을 위한 더 자세한 집계함수, 순위함수, 날짜 관련 함수 등 다양한 함수를 활용하여 원하는 형태로 데이터를 가공하여 SQL을 더 잘 사용할 수 있는 방법에 대해 배웁니다. 고객 구매지표 생성 실습을 통해 매출에 대한 분석을 직접 해보며 현업을 간접적으로 경험해봅니다. 상황에 따라 조인과 서브쿼리 중 조금 더 효율적인 방식을 선택하여 쿼리문을 작성해야합니다. 연산의 속도와 양은 비용과도 연결되어있기 때문에 주어진 상황에서 데이터를 효율적으로 추출하여 비용 부담을 줄여나가는 것도 중요합니다.
1) 이론
– 서브쿼리의 원리 및 방식
– 집계함수 다루기(Sum, Avg, Min, Max, Count, Round, Floor 등)
– 순위함수 다루기(RANK, DENSE_RANK, ROW_NUMBER 등)
– 날짜 관련 함수 다루기(DATE, TIMESTAMP, DATEDIFF 등)
– 그 외 다양한 함수들(Substring, Concat 등)
2) 실습
[분석프로젝트 연습]
– 고객 구매 지표 생성
– 연도별, 월별 매출 및 현황
– 매출 Top3 도시의 매출액
– 연도별 재구매율 파악하기
– 매출 Performance 비교
6주차. 최종 프로젝트(1) - 신용카드 고객의 지표 수치 추출
kaggle에 등록되어있는 데이터를 다운받아 신용카드 고객의 이탈률에 대해 분석해봅니다. 우선 데이터를 접했을 때 각 데이터가 무엇을 의미하는지 테이블 간의 관계를 파악하는 단계를 거칩니다. 분석전에 데이터 구조를 파악하고 분석을 하고자하는 지표를 생성한 후 SQL을 활용하여 지표에 대한 수치를 추출해보는 실습을 진행합니다. 데이터 분석 업무시 어떤 데이터를 추출할 것인가에 대한 지표를 세우는 것이 가장 중요합니다. 정확한 기준이 없고 통일되지않으면 데이터 정합성 측면에서 맞지않는 결과를 가져옵니다. 저 또한 기준이 명확한 지표를 생성하고 많은 양의 데이터 중 내가 원하는 데이터를 추출해보는 연습이 중요하다고 매번 느끼고 있습니다.
1) 이론
– kaggle이란?
– kaggle 내 신용카드 데이터를 활용하여 고객 이탈율 분석
– 신용카드 데이터 구조 파악
– 분석 지표 정리 : 신용카드 데이터로 어떤걸 분석할 수 있을까?
– 가설을 통한 검증 : 신용카드를 쓰다가 해지하는 고객은 어떤 유형일까?
2) 실습
– 신용카드 고객 데이터 이탈율 분석 지표 생성
– 지표에 맞는 데이터 추출하여 검증
– 정리한 지표를 토대로 SQL을 활용하여 원하는 데이터 자유롭게 조회 및 추출
7주차. 최종 프로젝트(2) - 신용카드 고객의 이탈율 분석
생성한 지표에 대한 수치를 시각화 차트를 생성하는 방법에 대해 알아봅니다. 실제 분석을 통해 인사이트를 도출하여 의미있는 결과를 기반으로 레포트를 작성해보며 실무에 가까운 경험을 해봅니다. 앞으로 데이터 분석을 하기위한 방향에 대해서 제시합니다. 분석한 결과를 토대로 자료를 한눈에 이해가 쉽도록 가시화 시키는 것이 핵심입니다. 분석한 것을 보여주고자하는 의도대로 시각화를 하고 어떻게 표현하는지에 대한 시각을 넓히는 역량이 중요합니다.
1) 이론
– 분석하던 신용카드 고객 이탈률 마무리
– 다양한 시각화 방법 : 경우에 따른 그래프 표현 상세 내용
– 분석 결과 보고서 가시화 : 보고서를 어떻게 작성해야 보기 좋을까?
– 데이터분석 준비와 방향
2) 실습
– 분석을 통한 인사이트 도출 : 비즈니스 측면의 인사이트 이끌어내기
– 추출한 데이터 기반으로 시각화 차트 만들기
– 수강생들의 레포트 리뷰
지금 보고 계시는 강의의 관련 태그로 다른 강의도 찾아보세요.
로그인 후 이용가능합니다.
로그인 페이지로 이동합니다.