박근혜 전 대통령의 대선 출마 선언문이 들어있는 speech_park.txt를 이용해 문제를 해결해 보세요.
Q1. speech_park.txt를 불러와 분석에 적합하게 전처리한 다음 연설문에서 명사를 추출하세요.
데이터,라이브러리 불러오기
library(multilinguer)
library(KoNLP)
library(dplyr)
speech <- readLines("dataset3/speech_park.txt", encoding = "UTF-8")
데이터 전처리 하기
library(stringr)
library(textclean)
speech1 <- speech %>% str_replace_all("[^가-힣]", " ") %>% str_squish() %>% as_tibble()
speech1
연설문에서 명사만 추출
speech_noun <- speech1 %>% unnest_tokens(input = value, output = word, token = extractNoun)
speech_noun
Q2. 가장 자주 사용된 단어 20개를 추출하세요.
top20 <- speech_noun %>% count(word, sort = T) %>% filter(str_count(word) > 1) %>% head(20)
top20
Q3. 가장 자주 사용된 단어 20개의 빈도를 나타낸 막대 그래프를 만드세요.
library(ggplot2)
ggplot(top20, aes(x = reorder(word, n), y = n)) +
geom_col() +
coord_flip () +
geom_text(aes(label = n), hjust = -0.3) +
labs(x = NULL)
Q4. 전처리하지 않은 연설문에서 연속된 공백을 제거하고 tibble 구조로 변환한 다음 문장 기준으로 토큰화하세요.
speech_sen <- speech %>% str_squish() %>% as_tibble()
speech_senten <- speech_sen %>% unnest_tokens(input = value, output = sentence, token = "sentences")
speech_senten
Q5. 연설문에서 "경제"가 사용된 문장을 출력하세요.
speech_senten %>% filter(str_detect(sentence, '경제'))
'R > 텍스트마이닝' 카테고리의 다른 글
[텍스트마이닝] 의미망 분석 문제풀이 (1) | 2022.11.22 |
---|---|
[텍스트마이닝] 상대적으로 중요한 단어 비교하기 (0) | 2022.11.21 |
[텍스트마이닝] 단어 빈도 비교하기 (0) | 2022.11.21 |
[텍스트마이닝] 단어 빈도 분석 관련 연습문제 (0) | 2022.11.18 |
[텍스트마이닝] 텍스트 마이닝 관련 실습 (0) | 2022.11.16 |