Overall Preprocessing for Text Mining
텍스트 마이닝 (Text Mining)은 비정형 데이터인 텍스트를 분석하여 유용한 정보를 추출 및 가공하는 것을 말한다. 이 때, 비정형 데이터는 의미를 쉽게 파악하는 데 힘들기 때문에 정형화시키는 과정이 필요하며, 이를 텍스트 전처리 또는 정제화 작업이라고 부른다.
수집된 문서들의 집합인 말뭉치 (Corpus)를 토큰 (Token) 으로 나누는 작업
이며, 토큰이 단어일 때는 단어 토큰화, 문장일 때는 문장 토큰화라고 부른다. 일반적으로 영어에서는 단어, 한국어에서는 명사가 하나의 토큰이 된다.
pacman::p_load("stringr")
mytext <- c("I love you", "I am student")
str_extract_all(mytext, boundary("word"))
[[1]]
[1] "I" "love" "you"
[[2]]
[1] "I" "am" "student"
str_extract_all(mytext, boundary("sentence"))
[[1]]
[1] "I love you"
[[2]]
[1] "I am student"
pacman::p_load("tokenizers")
mytext <- c("I love you", "I am student")
tokenize_words(mytext, lowercase = FALSE) # lowercase : 소문자 변환
[[1]]
[1] "I" "love" "you"
[[2]]
[1] "I" "am" "student"
tokenize_sentences(mytext)
[[1]]
[1] "I love you"
[[2]]
[1] "I am student"
pacman::p_load("KoNLP")
mytext <- c("나는 아침을 먹었다"","나는 치킨을 좋아한다")
extractNoun(mytext) # extractNoun : 의미의 핵심이라고 할 수 있는 명사 추출 / 사전에 등록되어있는 명사 기준 NA
[[1]]
[1] "나" "아침" "먹었"
[[2]]
[1] "나" "치킨"
2개 이상의 공란이 연달아 발견될 경우 해당
공란을 1개로 변환
시키는 작업이다.
mytext <- c("software enviroment",
"software enviroment", # 공란 연이어 2개개
"software\tenviroment") # \t으로 분리리
str_split(mytext, ' ') # 단어를 ''으로 구분구분
[[1]]
[1] "software" "enviroment"
[[2]]
[1] "software" "" "enviroment"
[[3]]
[1] "software\tenviroment"
str_squish(mytext) # str_squish() : 두번 이상의 공백과 \t(tab) 제거NA
[1] "software enviroment" "software enviroment" "software enviroment"
pacman::p_load("tm")
corpus <- VCorpus(VectorSource(mytext)) # VectorSource : vector를 document로 해석석
text <- tm_map(corpus, stripWhitespace)
text[[1]]$content
[1] "software enviroment"
text[[2]]$content
[1] "software enviroment"
text[[3]]$content
[1] "software enviroment"
str_replace_all(mytext, "[[:space:]]{1,}", " ")
[1] "software enviroment" "software enviroment" "software enviroment"
같은 의미를 가진 단어가 대.소문자 다를 경우 다른 단어로 분리된다. 이를 방지하기 위해
같은 의미를 가진 단어들을 대.소문자 통일
하는 작업이다.
mytext <- c("The 45th President of the United States, Donald Trump, states that he knows how to play trump with the former president")
myword <- unlist(str_extract_all(mytext, boundary("word"))) # 단어 단위의 텍스트를 추출NAtable(myword)
myword
45th Donald former he how knows of
1 1 1 1 1 1 1
play president President states States that the
1 1 1 1 1 1 2
The to trump Trump United with
1 1 1 1 1 1
myword <- str_replace(myword, "The", "the")
myword <- str_replace(myword, "President", "president")
myword
[1] "the" "45th" "president" "of" "the"
[6] "United" "States" "Donald" "Trump" "states"
[11] "that" "he" "knows" "how" "to"
[16] "play" "trump" "with" "the" "former"
[21] "president"
myword <- str_replace(myword, "Trump", "Trump_unique_") # Trump와 trump는 다른 단어이기 때문에 문에
myword <- str_replace(myword, "States", "States_unique_") # States와 states는 다른 단어이기 때문에 문에
table(tolower(myword)) # tolower : 모두 소문자 변환환
45th donald former he
1 1 1 1
how knows of play
1 1 1 1
president states states_unique_ that
2 1 1 1
the to trump trump_unique_
3 1 1 1
united with
1 1
텍스트 마이닝에서 숫자표현은 여러가지 의미를 가진다.
숫자 자체가 고유한 의미를 갖는 경우
는 단순히 제거하면 안되고,단지 숫자가 포함된 표현
이라면 모든 숫자는 하나로 통일한다.숫자가 문장에 아무런 의미가 없는 경우
는 제거를 한다.
mytext <- c("He is one of statisticians agreeing that R is the No.1 statistical software.")
mytext2 <- str_replace_all(mytext, "[[:digit:]]{1,}", "") # 숫자가 최소 1회 이상 연달아 등장할 경우 " "로 대체NAmytext2
[1] "He is one of statisticians agreeing that R is the No. statistical software."
mytext2 <- str_replace_all(mytext, "[[:digit:]]{1,}", "number") # 숫자가 최소 1회 이상 연달아 등장할 경우 number로 대체NAmytext2
[1] "He is one of statisticians agreeing that R is the No.number statistical software."
corpus <- VCorpus(VectorSource(mytext)) # VectorSource : vector를 document로 해석석
text <- tm_map(corpus, removeNumbers)
text[[1]]$content
[1] "He is one of statisticians agreeing that R is the No. statistical software."
텍스트 마이닝에서 문장부호 (“.”, “,” 등) 및 특수문자 (“?”, “!”, “@” 등)은 일반적으로 제거한다. 그러나
똑같은 부호라도 특별한 의미가 있는 경우는 제거할 때 주의
를 해야한다.
mytext <- "Baek et al. (2014) argued that the state of default-setting is critical for people to protect their own personal privacy on the Internet."
str_split(mytext, " ") # " "으로 구분분
[[1]]
[1] "Baek" "et" "al."
[4] "(2014)" "argued" "that"
[7] "the" "state" "of"
[10] "default-setting" "is" "critical"
[13] "for" "people" "to"
[16] "protect" "their" "own"
[19] "personal" "privacy" "on"
[22] "the" "Internet."
mytext2 <- str_replace_all(mytext, "-", " ") # - => 공백
mytext2 <- str_replace_all(mytext2, "[[:upper:]]{1}[[:alpha:]]{1,}[[:space:]](et al\\.)[[:space:]]\\([[:digit:]]{4}\\)", "_reference_") # 성 다음의 et al. (연도) => _reference_e_
mytext2 <- str_replace_all(mytext2, "\\.[[:space:]]{0,}","") # . 제거
mytext2
[1] "_reference_ argued that the state of default setting is critical for people to protect their own personal privacy on the Internet"
mytext2 <- str_replace_all(mytext, "-", " ") # - => 공백
mytext2 <- str_replace_all(mytext2, "[[:upper:]]{1}[[:alpha:]]{1,}[[:space:]](et al\\.)[[:space:]]\\([[:digit:]]{4}\\)", "_reference_") # 성 다음의 et al. (연도) => _reference_e_
mytext2 <- str_replace_all(mytext2, "[[:punct:]]{1,}","") # 특수문자 제거
mytext2
[1] "reference argued that the state of default setting is critical for people to protect their own personal privacy on the Internet"
mytext2 <- str_replace_all(mytext, "-", " ") # - => 공백
mytext2 <- str_replace_all(mytext2, "[[:upper:]]{1}[[:alpha:]]{1,}[[:space:]](et al\\.)[[:space:]]\\([[:digit:]]{4}\\)", "_reference_") # 성 다음의 et al. (연도) => _reference_e_
corpus <- VCorpus(VectorSource(mytext2)) # VectorSource : vector를 document로 해석석
text <- tm_map(corpus, removePunctuation)
text[[1]]$content
[1] "reference argued that the state of default setting is critical for people to protect their own personal privacy on the Internet"
빈번하게 사용되거나 구체적인 의미를 찾기 어려운 단어를 불용단어 또는 정지단어라 부른다. 영어에서는 “a”, “an”, “the” 등의 관사가 있다.
영어는 "tm" 패키지를 통해 널리 알려진 불용어 목록이 있으나 한국어는 없다.
[1] "i" "me" "my" "myself" "we"
[6] "our" "ours" "ourselves" "you" "your"
[11] "yours" "yourself" "yourselves" "he" "him"
[16] "his" "himself" "she" "her" "hers"
[21] "herself" "it" "its" "itself" "they"
[26] "them" "their" "theirs" "themselves" "what"
[31] "which" "who" "whom" "this" "that"
[36] "these" "those" "am" "is" "are"
[41] "was" "were" "be" "been" "being"
[46] "have" "has" "had" "having" "do"
head(stopwords("SMART"), n=50)
[1] "a" "a's" "able" "about"
[5] "above" "according" "accordingly" "across"
[9] "actually" "after" "afterwards" "again"
[13] "against" "ain't" "all" "allow"
[17] "allows" "almost" "alone" "along"
[21] "already" "also" "although" "always"
[25] "am" "among" "amongst" "an"
[29] "and" "another" "any" "anybody"
[33] "anyhow" "anyone" "anything" "anyway"
[37] "anyways" "anywhere" "apart" "appear"
[41] "appreciate" "appropriate" "are" "aren't"
[45] "around" "as" "aside" "ask"
[49] "asking" "associated"
mytext <- c("She is an actor", "She is the actor")
mystopwords <- "(\\ba )|(\\ban )|(\\bthe )" #\\b 이면 b다음에 오는 문자로시작하는 단어 중 좌우 하나라도 공백이 있으면 추출NAstr_remove_all(mytext, mystopwords)
[1] "She is actor" "She is actor"
corpus <- VCorpus(VectorSource(mytext)) # VectorSource : vector를 document로 해석석
text <- tm_map(corpus, removeWords, stopwords("en"))
text[[1]]$content
[1] "She actor"
text[[2]]$content
[1] "She actor"
같은 의미를 가진 단어라도 문법적 기능에 따라 다양한 형태를 가진다. 예를 들어, “go”는 “goes”, “gone” 등과 같이 변할 수 있다. 이 때,
문법적 또는 의미적으로 변화한 단어의 원형
을 찾아내는 작업을 말한다.
mytext <- c("Introducing","introduction","introduce")
corpus <- VCorpus(VectorSource(mytext)) # VectorSource : vector를 document로 해석석
text <- tm_map(corpus, stemDocument) # Porter's Stemmer
text[[1]]$content
[1] "Introduc"
text[[2]]$content
[1] "introduct"
text[[3]]$content
[1] "introduc"
pacman::p_load("textstem")
mytext <- c("Introducing","introduction","introduce")
lemmatize_words(mytext)
[1] "introduce" "introduction" "introduce"
n회 연이어 등장하는 단어
들을 특정한 의미를 갖는 하나의 단어로 처리하는 작업이다. 그러나 엔그램이 맹목적으로 받아들이지 않아야 하며, 오히려 데이터의 복잡성을 늘릴 수 있다.
pacman::p_load("RWeka")
bigramTokenizer <- function(x) NGramTokenizer(x, Weka_control(min=2, max=3)) # 2-3엔그램적용용
mytext <- c("The United States comprises fifty states.")
NGramTokenizer(mytext, Weka_control(min=2, max=3)) # 2-3엔그램적용용
[1] "The United States" "United States comprises"
[3] "States comprises fifty" "comprises fifty states"
[5] "The United" "United States"
[7] "States comprises" "comprises fifty"
[9] "fifty states"
말뭉치 (Corpus)에 대한 전처리를 거친 후 문서×단어 행렬 (Document-Term Matrix, DTM) 또는 단어×문서 행렬 ( Term-Document Matrix, TDM)를 구축할 수 있다.
mytext <- c("The sky is blue",
"The sun is bright today",
"The sun in the sky is bright",
"We can see the shining sun, the bright sun")
corpus <- VCorpus(VectorSource(mytext)) # VectorSource : vector를 document로 해석석
dtm <- DocumentTermMatrix(corpus) # 문서x단어 행렬렬
inspect(dtm)
<<DocumentTermMatrix (documents: 4, terms: 10)>>
Non-/sparse entries: 18/22
Sparsity : 55%
Maximal term length: 7
Weighting : term frequency (tf)
Sample :
Terms
Docs blue bright can see shining sky sun sun, the today
1 1 0 0 0 0 1 0 0 1 0
2 0 1 0 0 0 0 1 0 1 1
3 0 1 0 0 0 1 1 0 2 0
4 0 1 1 1 1 0 1 1 2 0
Non-/sparse entries
: 1 이상의 빈도칸 개수/ 0이 적힌 빈도칸 개수Sparsity
: 전체 칸들 중 0이 적힌 빈도칸의 비율Maximal term length
: 단어들 중 최대 문자수Weighting
: term frequency (tf) : 각 칸의 숫자는 빈도mytext <- c("The sky is blue",
"The sun is bright today",
"The sun in the sky is bright",
"We can see the shining sun, the bright sun")
corpus <- VCorpus(VectorSource(mytext)) # VectorSource : vector를 document로 해석석
tdm <- TermDocumentMatrix(corpus) # 단어x문서 행렬렬
inspect(tdm)
<<TermDocumentMatrix (terms: 10, documents: 4)>>
Non-/sparse entries: 18/22
Sparsity : 55%
Maximal term length: 7
Weighting : term frequency (tf)
Sample :
Docs
Terms 1 2 3 4
blue 1 0 0 0
bright 0 1 1 1
can 0 0 0 1
see 0 0 0 1
shining 0 0 0 1
sky 1 0 1 0
sun 0 1 1 1
sun, 0 0 0 1
the 1 1 2 2
today 0 1 0 0
단순히 한 문서 내 단어의 빈도수가 아니라 그 단어가 나타나는 문서들의 갯수도 고려하여 특정 단어가 특정 문서내에서 얼마나 중요한지를 나타내는 통계적 수치를 단어 빈도-역 문서 빈도 (Term Frequency — Inverse Document Frequency, TF-IDF)라고 한다.
# TF-IDF
dtm.t <- weightTfIdf(dtm, normalize = FALSE) # weightTfIdf : TF-IDF/ normalize : TF-IDF의 정규화 여부 / 밑이 2인 로그NAinspect(dtm.t)
<<DocumentTermMatrix (documents: 4, terms: 10)>>
Non-/sparse entries: 14/26
Sparsity : 65%
Maximal term length: 7
Weighting : term frequency - inverse document frequency (tf-idf)
Sample :
Terms
Docs blue bright can see shining sky sun sun, the today
1 2 0.0000000 0 0 0 1 0.0000000 0 0 0
2 0 0.4150375 0 0 0 0 0.4150375 0 0 2
3 0 0.4150375 0 0 0 1 0.4150375 0 0 0
4 0 0.4150375 2 2 2 0 0.4150375 2 0 0
Text and figures are licensed under Creative Commons Attribution CC BY 4.0. The figures that have been reused from other sources don't fall under this license and can be recognized by a note in their caption: "Figure from ...".