250x250
Notice
Recent Posts
Recent Comments
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Websocket
- Topics
- 지마켓
- spring MVC(모델2)방식
- 네이버뉴스
- lda
- 크롤링
- db
- Python
- 이력서
- 토픽추출
- tomoto
- (깃)git bash
- 幼稚园杀手(유치원킬러)
- word2vec
- 과학백과사전
- mysql
- 게시판 만들기
- 파이썬
- 코사인 유사도
- 자바
- oracle
- RESFUL
- jsp 파일 설정
- test
- pytorch
- Gmarket
- 방식으로 텍스트
- r
- java
Archives
- Today
- Total
목록File (1)
무회blog
QnA 모듈분류 및 테스트
001. from libs import * df['cut_content'] = df['content'].apply(lambda x: " ".join(w for w in word_tokenize(str(x)))) # 这里我们使用了参数ngram_range=(1,2) # ,这表示我们除了抽取评论中的每个词语外 # ,还要抽取每个词相邻的词并组成一个“词语对”,如: 词1,词2,词3,词4,(词1,词2),(词2,词3),(词3,词4)。 # 这样就扩展了我们特征集的数量,有了丰富的特征集才有可能提高我们分类文本的准确度。 # 参数norm='l2',是一种数据标准划处理的方式,可以将数据限制在一点的范围内比如说(-1,1) tfidf = TfidfVectorizer(norm='l2', ngram_range=(1, 2)) cut_contents =..
Python
2020. 8. 28. 17:07