"Growth" Data를 쌓아가는 사람

고정 헤더 영역

글 제목

메뉴 레이어

"Growth" Data를 쌓아가는 사람

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (67)
    • 멋사 AISCOOL 7기 Python (49)
      • INPUT (35)
      • OUTPUT(project) (1)
      • TIL (9)
    • SQL (17)
      • 멋쟁이사자7기&데이터리안 (5)
      • SQL 문제풀이 스터디 (12)
    • 데이터 분석 (1)
      • 데이터넥스트레벨2기 (1)

검색 레이어

"Growth" Data를 쌓아가는 사람

검색 영역

컨텐츠 검색

분류 전체보기

  • [데밸챌2기] 1주차

    2024.01.14 by dundunee

  • [12주차]리트코드: Day9( 1393) ~ Day10

    2023.03.12 by dundunee

  • [11주차]해커랭크: 36~44

    2023.03.04 by dundunee

  • [10주차]해커랭크: 26 ~ 35

    2023.03.03 by dundunee

  • [9주차]해커랭크 16 ~ 25(Basic Select, Aggregation)

    2023.02.12 by dundunee

  • [8주차]해커랭크 Basic Select 15

    2023.02.05 by dundunee

  • [TIL]1213: 빈도기반워드임베딩, TF-IDF, 텍스트데이터 EDA, 전처리

    2022.12.14 by dundunee

  • [TIL] 1212: 텍스트분석과 자연어처리 기초(빈도기반 워드 임베딩)

    2022.12.14 by dundunee

[데밸챌2기] 1주차

더보기 이 글은 데이터리안에서 진행하는 #데이터넥스트레벨챌린지 를 진행하며 쓴 글입니다. 참여하며, 데이터리안 실전반 캠프에 참여한지도 어느덧 1년이 넘어서며 나름 데이터를 다루는 일을 하고 있던 차에 이 분야에서 꾸준히 일하려면 자기계발은 필수라는 생각이 들었다. 마침 진로에 대해 고민이 되던 차에 반강제로라도 공부를 시작하고 싶어 챌린지에 참여하게 되었다. 데이터분석에 관련된 도서를 읽는 것도 너무 좋지만 이 분야에 있는 다양한 사람들을 만나볼 수 있다는 점도 이 챌린지에 참여하게 된 큰 이유가 되었다. Chapter2. 쉽고 단순하게 시작하라 한 캡슐커피사의 고객여정 로드맵을 그리고 전환율을 높일 수 있는 방법을 개발하는 제안서을 작성한 적이 있었다. 샘플로 데이터 테이블을 받았을 땐 실제 분석에 ..

데이터 분석/데이터넥스트레벨2기 2024. 1. 14. 21:28

[12주차]리트코드: Day9( 1393) ~ Day10

182. Duplicate Emails Write an SQL query to report all the duplicate emails. Note that it's guaranteed that the email field is not NULL. select email from Person group by email having count(email) > 1 group by와 having절을 사용해 조건에 해당하는 결과를 추출한다. 1050. Actors and Directors Who Cooperated At Least Three Times Write a SQL query for a report that provides the pairs (actor_id, director_id) where the act..

SQL/SQL 문제풀이 스터디 2023. 3. 12. 18:05

[11주차]해커랭크: 36~44

36. Aggregation > Weather Observation Station 19 Consider P1(a,c) and P2(b,d) to be two points on a 2D plane where (a,b) are the respective minimum and maximum values of Northern Latitude (LAT_N) and (c,d)are the respective minimum and maximum values of Western Longitude (LONG_W) in STATION. Query the Euclidean Distance between points and and format your answer to display 4 decimal digits. SELEC..

SQL/SQL 문제풀이 스터디 2023. 3. 4. 20:54

[10주차]해커랭크: 26 ~ 35

26. Aggregation > Population Density Difference: MIN(), MAX() Query the difference between the maximum and minimum populations in CITY. SELECT MAX(POPULATION) - MIN(POPULATION) FROM CITY 27. Aggregation > The Blunder: CAST(), REPLACE(), AVG(), CEIL() Samantha was tasked with calculating the average monthly salaries for all employees in the EMPLOYEES table, but did not realize her keyboard's key ..

SQL/SQL 문제풀이 스터디 2023. 3. 3. 17:45

[9주차]해커랭크 16 ~ 25(Basic Select, Aggregation)

16. Weather Observation Station11 Query the list of CITY names from STATION that either do not start with vowels or do not end with vowels. Your result cannot contain duplicates. SELECT DISTINCT CITY FROM STATION WHERE LEFT(CITY,1) NOT IN ("A", "E", "I", "O", "U") OR RIGHT (CITY,1) NOT IN ("a", "e", "i", "o", "u") 17. Weather Observation Station12 Query the list of CITY names from STATION that e..

SQL/SQL 문제풀이 스터디 2023. 2. 12. 21:15

[8주차]해커랭크 Basic Select 15

1. Basic Select > Revising the Select Query I select * from CITY where POPULATION > 100000 and COUNTRYCODE = "USA" 2. Basic Select > Revising the Select Query II select NAME from CITY where POPULATION > 120000 and COUNTRYCODE = "USA" 3. Basic Select > Select All SELECT * FROM CITY 4. Basic Select > Select By ID Query all columns for a city in CITY with the ID 1661. SELECT * FROM CITY WHERE ID = ..

SQL/SQL 문제풀이 스터디 2023. 2. 5. 21:19

[TIL]1213: 빈도기반워드임베딩, TF-IDF, 텍스트데이터 EDA, 전처리

텍스트 분석과 자연어 처리 빈도 기반 워드 임베딩 TF(단어빈도) 특정한 단어가 문서 내에 얼마나 자주 등장하는지를 나타내는 값 이 값이 높을 수록 중요하다고 생각할 수 있지만 문서내에서 자주 등장하면 흔하게 등장한다는 의미 DF 특정 단어가 등장한 문서의 수 IDF 역문서 빈도, DF역수로 DF에 반비례하는 수 TF-IDF TF * IDF 모든 문서에 자주 등장하는 단어는 중요도가 낮다고 판단 특정 문서에서만 자주 등장하는 단어는 중요도가 높다고 한단 이 값이 낮으면 중요도가 낮고, 이 값이 크면 중요도가 큰 것 sklearn의 feature_extraction sckit-learn에 문서 전처리 기능이 제공됨 from sklearn.feature_extraction.text import CountVe..

멋사 AISCOOL 7기 Python/TIL 2022. 12. 14. 02:08

[TIL] 1212: 텍스트분석과 자연어처리 기초(빈도기반 워드 임베딩)

이번주 진행 주제 : 텍스트 분석과 자연어처리 CNN은 주로 이미지에 주로 사용이되고 물론 텍스트에도 사용한다. 하지만 이미지에서 더 나은 성능을 보여준다. 텍스트 분석을 할 때 머신러닝(Bag Of Words, TF-IDF), 딥러닝(RNN) 순서로 사용할 예정 텍스트 분류, 텍스트로 주식의 가격을 예측하는 회귀 모델을 만든다든지 할 때는 주로 RNN이 CNN 보다 더 나은 성능을 내는 편입니다. RNN은 주로 순서가 있는 데이터에 사용합니다. 예를 들어 시계열데이터, 자연어도 말의 앞뒤에 순서가 있기 때문에 시계열, 자연어 등에 사용됩니다. 자연어처리 실습 이후에는 RNN 으로 시계열 데이터를 다뤄볼 예정입니다. 1004 실습 복습 이미지 데이터를 읽어오면 다차원 형태의 구조로 되어 있는데, np.a..

멋사 AISCOOL 7기 Python/TIL 2022. 12. 14. 02:07

추가 정보

인기글

최신글

페이징

이전
1 2 3 4 ··· 9
다음
TISTORY
"Growth" Data를 쌓아가는 사람 © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바