天天看点

python爬取天气预报数据并保存为txt格式_今天分享一个用Python来爬取小说的小脚本!(附源码)...

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

以下文章天气预报数据分析与统计之美 ,作者:❦大头雪糕❦

Python GUI制作小说下载器教学讲解

https://www.bilibili.com/video/BV13a4y1E7Tb/

前言

很多同学都喜欢看小说,尤其是程序员人群,对武侠小说,科幻小说都很着迷,最近的修仙的小说也很多,类似凡人修仙传,武动乾坤,斗破苍穹等等,今天分享一个用Python来爬取小说的小脚本!

目标

爬取一本仙侠类的小说下载并保存为txt文件到本地。本例为“大周仙吏”。

python爬取天气预报数据并保存为txt格式_今天分享一个用Python来爬取小说的小脚本!(附源码)...

项目准备

软件:Pycharm

第三方库:requests,fake_useragent,lxml

网站地址:**https **: //book.qidian.com

网站分析

网址:

python爬取天气预报数据并保存为txt格式_今天分享一个用Python来爬取小说的小脚本!(附源码)...

网址转化:https : //book.qidian.com/info/1020580616#Catalog

判断是否为静态加载网页,Ctrl + U打开源代码,Ctrl + F打开搜索框,输入:第一章。

python爬取天气预报数据并保存为txt格式_今天分享一个用Python来爬取小说的小脚本!(附源码)...

在这里是可以找到的,判定为静态加载。

反爬分析

同一个IP地址去多次访问会面临被封掉的风险,这里采用fake_useragent,产生随机的User-Agent请求头进行访问。

代码实现

1.引入相对应的第三方库,定义一个类类继承对象,定义初始方法继承自己,主函数main继承自己。

import requests

from fake_useragent import UserAgent

from lxml import etree

class photo_spider(object):

def __init__(self):

self.url = 'https://book.qidian.com/info/1020580616#Catalog'

ua = UserAgent(verify_ssl=False)

#随机产生user-agent

for i in range(1, 100):

self.headers = {

'User-Agent': ua.random

}

def mian(self):

pass

if __name__ == '__main__':

spider = qidian()

spider.main()

2.发送请求,获取网页。

def get_html(self,url):

response=requests.get(url,headers=self.headers)

html=response.content.decode('utf-8')

return html

3.获取图片的链接地址。

import requests

from lxml import etree

from fake_useragent import UserAgent

class qidian(object):

def __init__(self):

self.url = 'https://book.qidian.com/info/1020580616#Catalog'

ua = UserAgent(verify_ssl=False)

for i in range(1, 100):

self.headers = {

'User-Agent': ua.random

}

def get_html(self,url):

response=requests.get(url,headers=self.headers)

html=response.content.decode('utf-8')

return html

def parse_html(self,html):

target=etree.HTML(html)

links=target.xpath('//ul[@class="cf"]/li/a/@href')#获取链接

names=target.xpath('//ul[@class="cf"]/li/a/text()')#获取每一章的名字

for link,name in zip(links,names):

print(name+'\t'+'https:'+link)

def main(self):

url=self.url

html=self.get_html(url)

self.parse_html(html)

if __name__ == '__main__':

spider=qidian()

spider.main()

打印结果:

python爬取天气预报数据并保存为txt格式_今天分享一个用Python来爬取小说的小脚本!(附源码)...

4.解析链接,获取每一章内容。

def parse_html(self,html):

target=etree.HTML(html)

links=target.xpath('//ul[@class="cf"]/li/a/@href')

for link in links:

host='https:'+link

#解析链接地址

res=requests.get(host,headers=self.headers)

c=res.content.decode('utf-8')

target=etree.HTML(c)

names=target.xpath('//span[@class="content-wrap"]/text()')

results=target.xpath('//div[@class="read-content j_readContent"]/p/text()')

for name in names:

print(name)

for result in results:

print(result)

打印结果:(以下内容过多,只贴出一部分。)

python爬取天气预报数据并保存为txt格式_今天分享一个用Python来爬取小说的小脚本!(附源码)...

5.保存为txt文件到本地。

with open('F:/pycharm文件/document/' + name + '.txt', 'a') as f:

for result in results:

#print(result)

f.write(result+'\n')

效果显示:

python爬取天气预报数据并保存为txt格式_今天分享一个用Python来爬取小说的小脚本!(附源码)...

文件目录:

python爬取天气预报数据并保存为txt格式_今天分享一个用Python来爬取小说的小脚本!(附源码)...

完整代码

import requests

from lxml import etree

from fake_useragent import UserAgent

class qidian(object):

def __init__(self):

self.url = 'https://book.qidian.com/info/1020580616#Catalog'

ua = UserAgent(verify_ssl=False)

for i in range(1, 100):

self.headers = {

'User-Agent': ua.random

}

def get_html(self,url):

response=requests.get(url,headers=self.headers)

html=response.content.decode('utf-8')

return html

def parse_html(self,html):

target=etree.HTML(html)

links=target.xpath('//ul[@class="cf"]/li/a/@href')

for link in links:

host='https:'+link

#解析链接地址

res=requests.get(host,headers=self.headers)

c=res.content.decode('utf-8')

target=etree.HTML(c)

names=target.xpath('//span[@class="content-wrap"]/text()')

results=target.xpath('//div[@class="read-content j_readContent"]/p/text()')

for name in names:

print(name)

with open('F:/pycharm文件/document/' + name + '.txt', 'a') as f:

for result in results:

#print(result)

f.write(result+'\n')

def main(self):

url=self.url

html=self.get_html(url)

self.parse_html(html)

if __name__ == '__main__':

spider=qidian()

spider.main()