본문 바로가기

분류 전체보기

(120)
Google API test with google Oauth caption_download_response = youtube.captions().download( id=caption_track_id, tfmt='srt' ).execute() HttpError: 한줄기 빛과 같은 블로그 https://devdiary.tistory.com/6 Local 에서 Google API 테스트 (feat. Google OAuth 2) 발단 Google Search Console을 이용하여 색인 데이터를 추가 / 삭제하는 API를 사용하기 위해 간단히 Local에서 테스트해보려 합니다. developers.google.com/search/apis/indexing-api/v3/quickstart Indexing API 빠른 시작 | devdiary.tistory.com https..
lgbm feval custom 하기 optuna 하이퍼파라미터 feval 매트릭은 커스텀이 가능하다. auc roc 든, precision recall curve를 이용하든 둘 다 좋다.
lgbm python api vs sklearn python api 는 .train으로 학습 sklearn은 .fit으로 학습
python lightgbm 에서 early stopping은 어떻게 작동하는가? ㅇㅇ
빅데이터 분석기사 - 작업형 3유형 [통계 관련] 2023년 상반기부터 통계 관련 문항들이 객관식 선다형으로 나오다가 이제 그냥 코드짜는 2문제로 바뀌었다. 작업형3 유형이 그 대상인데, 아래 캐글에 좋은 예제가 있어서 같이 풀어보았다. . . .. .. * 쌍체표본 t검정 scipy.stats의 ttest_rel 활용 주어진 데이터는 고혈압 환자 치료 전후의 혈압이다. 해당 치료가 효과가 있는지 대응(쌍체)표본 t-검정을 진행하시오 귀무가설(H0): μ >= 0 대립가설(H1): μ < 0 μ = (치료 후 혈압 - 치료 전 혈압)의 평균 유의수준: 0.05 μ의 표본평균은?(소수 둘째자리까지 반올림) 검정통계량 값은?(소수 넷째자리까지 반올림) p-값은?(소수 넷째자리까지 반올림) 가설검정의 결과는? (유의수준 5%) # lib import! imp..
빅데이터 분석기사 - 작업형 2유형 끝내기 [데이터 분석 전반] 데이터 분석은 크게 분류와 회귀로 나뉘고, 분류는 이진분류(Binary classification) 다중분류(Multi classification) 회귀는 그 외 어떤 실수값을 예측하면 된다. 내가 작년에 4회차때 기억으론 Price를 예측하는 회귀문제가 나왔던 걸로 기억하는데, 올해는 뭔가 다중분류가 나올거 같은 느낌적인 느낌이다 . . . 빅데이터 분석기사 실기에서는 전처리 / 간단한 EDA / TRVD 스필릿 / 모델링 / 결과제출 정도만 하면 100점 만점이 나오는 것 같다. HP 튜닝도 안해도 되는거 같고 (굳이 한다면 GridSearch 정도?) CrossValidation 같은 경우도 필요는 없는듯. 캐글이나 데이콘에 절여지면 모형성능을 올리려고 죽어라 이것저것 하는데 기사에서는 그런게 필요..
230611 여행을일상처럼, 일상을여행처럼 * 성인 네 명이서 함께 다니는 것이 체력적으로 많이 힘들고 지쳤지만, 결국 모든것은 추억이 되었다. 다른 가족도 이럴지 모르지만, 그 기억이 좋던 나쁘던 관계없이, 우리 가족이 함께 있다는 것만으로 모든 것이 추억이 된다. * 터질 일이 있다면 그 일은 여행에서 반드시 터진다. 우리 가족도 예외는 아니었다. * 우리 가족이 어떻게 하면 더 즐거울 수 있을까를 많이 고민했다. 그리고 다시 깨달았다. 자연을 보고 느끼는 것, 한식과 해산물, 그리고 술. * 엄마아빠는 나이가 들면서 외로워하셨다. 그리고 혼자가 되는것을 두려워하셨다. 그래서 독립하려는 우리와의 관계에 금이 가기 시작했다. 모든 문제는 그곳에서부터 시작됐다. * 부모와 자식 관계가 어려워지는 것은, 무언가가 잘못됐다고 논리적으로 말하는 것을 ..
컴퓨터 맞추기 1. 호환관련 메인보드 - CPU - SSD 간의 호환여부 확인
[AWS] SageMaker로 Auto ML 사용하기 1. SageMaker에서 Studio 생성 > Studio로 시작 2. 좌 상단 AutoML 클릭 -> Create AutoML expriment 선택 3. S3버켓에 미리 올려둔 데이터를 업로드 auto split data -> train / test 나눠줄수 있는 기능 Select 누르고 다음 화면으로 4. target(label)과 feature type을 선택할 수 있는 화면 5. 알고리즘 / 최적화 선택 Auto - 내부적으로 알아서 내 데이터에 맞는 기법 찾아서 쓰겠다 Ensemblig - 앙상블 기법. 앙상블 계열 알고리즘이 나오고, LGB, XGB, RF, 토치로 쌓은 뉴럴넷 등이 보인다. HPO - 하이퍼파라미터 최적화 선택. 6. 배포(Deployment) Auto deploy -> ..