Skip to content

Commit

Permalink
Add & Change Remark
Browse files Browse the repository at this point in the history
주석 추가 및 내용이 모호한 주석 수정
  • Loading branch information
lumyjuwon authored May 29, 2019
1 parent 83206d4 commit fc75280
Showing 1 changed file with 8 additions and 4 deletions.
12 changes: 8 additions & 4 deletions korea_news_crawler/articlecrawler.py
Original file line number Diff line number Diff line change
Expand Up @@ -66,18 +66,19 @@ def make_news_page_url(self, category_url, start_year, end_year, start_month, en
month = "0" + str(month)
if len(str(month_day)) == 1:
month_day = "0" + str(month_day)
# page 날짜 정보만 있고 page 정보가 없는 url 저장

# 날짜별로 Page Url 생성
url = category_url + str(year) + str(month) + str(month_day)

# totalpage는 네이버 페이지 구조를 이용해서 page=10000으로 지정해 totalpage를 알아냄
# page=10000을 입력할 경우 페이지가 존재하지 않기 때문에 page=totalpage로 이동 됨
# page=10000을 입력할 경우 페이지가 존재하지 않기 때문에 page=totalpage로 이동 됨 (Redirect)
totalpage = self.parser.find_news_totalpage(url + "&page=10000")
for page in range(1, totalpage + 1):
made_url.append(url + "&page=" + str(page))
return made_url

def crawling(self, category_name):
# MultiThread PID
# Multi Process PID
print(category_name + " PID: " + str(os.getpid()))

# csv 파일 이름에 들어갈 month 자릿수 맞추기
Expand All @@ -91,10 +92,11 @@ def crawling(self, category_name):
save_endmonth = str(self.date['end_month'])

# 각 카테고리 기사 저장 할 CSV
# Windows use euc-kr
# Windows uses euc-kr
if self.user_operating_system == "Windows":
file = open('Article_' + category_name + '_' + str(self.date['start_year']) + save_startmonth
+ '_' + str(self.date['end_year']) + save_endmonth + '.csv', 'w', encoding='euc-kr', newline='')
# Other OS uses utf-8
else:
file = open('Article_' + category_name + '_' + str(self.date['start_year']) + save_startmonth
+ '_' + str(self.date['end_year']) + save_endmonth + '.csv', 'w', encoding='utf-8', newline='')
Expand Down Expand Up @@ -130,6 +132,7 @@ def crawling(self, category_name):
for content_url in post: # 기사 URL
# 크롤링 대기 시간
sleep(0.01)

# 기사 HTML 가져옴
request_content = requests.get(content_url)
document_content = BeautifulSoup(request_content.content, 'html.parser')
Expand All @@ -155,6 +158,7 @@ def crawling(self, category_name):
text_company = text_company + str(tag_company[0].get('content'))
if not text_company: # 공백일 경우 기사 제외 처리
continue

# CSV 작성
wcsv.writerow([news_date, category_name, text_company, text_headline, text_sentence, content_url])

Expand Down

0 comments on commit fc75280

Please sign in to comment.