250x250
Notice
Recent Posts
Recent Comments
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- oracle
- 방식으로 텍스트
- java
- word2vec
- 코사인 유사도
- test
- 토픽추출
- 네이버뉴스
- 파이썬
- (깃)git bash
- 지마켓
- db
- Websocket
- tomoto
- 과학백과사전
- 게시판 만들기
- jsp 파일 설정
- spring MVC(모델2)방식
- 자바
- 크롤링
- 幼稚园杀手(유치원킬러)
- Topics
- 이력서
- r
- RESFUL
- lda
- mysql
- Python
- Gmarket
- pytorch
Archives
- Today
- Total
목록Module (1)
무회blog
QnA 모듈분류 및 테스트
001. from libs import * df['cut_content'] = df['content'].apply(lambda x: " ".join(w for w in word_tokenize(str(x)))) # 这里我们使用了参数ngram_range=(1,2) # ,这表示我们除了抽取评论中的每个词语外 # ,还要抽取每个词相邻的词并组成一个“词语对”,如: 词1,词2,词3,词4,(词1,词2),(词2,词3),(词3,词4)。 # 这样就扩展了我们特征集的数量,有了丰富的特征集才有可能提高我们分类文本的准确度。 # 参数norm='l2',是一种数据标准划处理的方式,可以将数据限制在一点的范围内比如说(-1,1) tfidf = TfidfVectorizer(norm='l2', ngram_range=(1, 2)) cut_contents =..
Python
2020. 8. 28. 17:07