일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 토픽추출
- 네이버뉴스
- 자바
- (깃)git bash
- mysql
- Topics
- java
- jsp 파일 설정
- 이력서
- spring MVC(모델2)방식
- 파이썬
- word2vec
- 크롤링
- RESFUL
- Websocket
- Gmarket
- 지마켓
- test
- 방식으로 텍스트
- oracle
- Python
- 코사인 유사도
- 幼稚园杀手(유치원킬러)
- 과학백과사전
- pytorch
- lda
- tomoto
- 게시판 만들기
- r
- db
- Today
- Total
목록Topics (3)
무회blog
In [1]: # for Setting Test pattern # global 변수 , Setting 용 get_cnt = 7 # 토픽의 갯수 , 빈도수에서 자동화 숫자 k_cnt = 5 # 토픽의 개수 , 행 , 1 ~ 32767 사이의 정수 top_n_cnt = get_cnt # 토픽의 갯수 , 열 min_cf_cnt = 1 # 단어 최소 출현 빈도 , 0 일시 모든 단어를 동일하게 봄 alpha_cnt = 0.1 # 문헌‐토픽 빈도 eta_cnt = 0.01 # 토픽‐단어 빈도 tran_cnt = 1000 # 자동학습 빈도 rm_top2 = 1 In [2]: # for_005_topikTs_tomoto # %pip install tomotopy # %pip install nltk # 한국어 전처리 ..
In [1]: # for_005_topikTs_tomoto # %pip install tomotopy # %pip install nltk # 한국어 전처리 # %pip install --upgrade kiwipiepy # %pip install KoNLP # import nltk # nltk.download() ############################################# import tomotopy as tp import pandas as pd import numpy as np import nltk.stem, nltk.corpus, nltk.tokenize, re ,os from kiwipiepy import Kiwi kiwi = Kiwi() kiwi.prepare() #######..
point k_cnt = 5 # 토픽의 개수 , 행 , 1 ~ 32767 사이의 정수 top_n_cnt = 7 # 토픽의 갯수 , 열 min_cf_cnt = 10 # 단어 최소 출현 빈도 , 0 일시 모든 단어를 동일하게 봄 alpha_cnt = 0.1 # 문헌‐토픽 빈도 eta_cnt = 0.01 # 토픽‐단어 빈도 tran_cnt = 500 # 자동학습 빈도 model = tp.LDAModel(k=k_cnt, alpha=alpha_cnt,eta = eta_cnt) model_PMI = tp.LDAModel(k=k_cnt, alpha=alpha_cnt,eta = eta_cnt, min_cf=min_cf_cnt,tw=tp.TermWeight.PMI) model_IDF = tp.LDAModel(k=k_cn..