일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Topics
- jsp 파일 설정
- 토픽추출
- mysql
- 이력서
- pytorch
- 幼稚园杀手(유치원킬러)
- lda
- r
- 자바
- oracle
- 크롤링
- 파이썬
- 지마켓
- test
- Gmarket
- spring MVC(모델2)방식
- tomoto
- Websocket
- 과학백과사전
- 방식으로 텍스트
- 코사인 유사도
- Python
- 게시판 만들기
- word2vec
- db
- RESFUL
- (깃)git bash
- 네이버뉴스
- java
- Today
- Total
목록tomoto (3)
무회blog
In [1]: # for_005_topikTs_tomoto # %pip install tomotopy # %pip install nltk # 한국어 전처리 # %pip install --upgrade kiwipiepy # %pip install KoNLP # import nltk # nltk.download() ############################################# import tomotopy as tp import pandas as pd import numpy as np import nltk.stem, nltk.corpus, nltk.tokenize, re ,os from kiwipiepy import Kiwi kiwi = Kiwi() kiwi.prepare() #######..
point k_cnt = 5 # 토픽의 개수 , 행 , 1 ~ 32767 사이의 정수 top_n_cnt = 7 # 토픽의 갯수 , 열 min_cf_cnt = 10 # 단어 최소 출현 빈도 , 0 일시 모든 단어를 동일하게 봄 alpha_cnt = 0.1 # 문헌‐토픽 빈도 eta_cnt = 0.01 # 토픽‐단어 빈도 tran_cnt = 500 # 자동학습 빈도 model = tp.LDAModel(k=k_cnt, alpha=alpha_cnt,eta = eta_cnt) model_PMI = tp.LDAModel(k=k_cnt, alpha=alpha_cnt,eta = eta_cnt, min_cf=min_cf_cnt,tw=tp.TermWeight.PMI) model_IDF = tp.LDAModel(k=k_cn..
for_topics-004 # %pip install tomotopy # %pip install nltk # nltk.download() # %pip install --upgrade kiwipiepy # 한국어 전처리 # %pip install KoNLP import tomotopy as tp import nltk.stem, nltk.corpus, nltk.tokenize, re from kiwipiepy import Kiwi # model = tp.LDAModel(k=20) model = tp.LDAModel(k=20, alpha=0.1, eta=0.01, min_cf=5) # k 토픽 개수 for i, line in enumerate(open('./corpos/newsSogBo_test003_001...