使用python批量获取百度图片
有时候当我们想要批量下载图片的时候,python就可以非常方便地帮助我们。
在python里面,有个非常强大的库叫做requests,这个库强大到没有朋友,用过之后都说好,如果你还在用urllib等库请求网络资源的话,我强烈建议你更换成requests.
request的官网地址为:
https://2.python-requests.org/en/v1.1.0/
下面简单介绍下百度批量下载代码的原理。
第一步、分析出批量下载的url
第二步、批量获取到需要下载的图片url
第三步、将图片保存到本地
具体代码如下:
import requests
import re
import os
import time
# 获取图片url连接
def get_parse_page(pn,name):
for i in range(int(pn)):
# 1.获取网页
print('正在获取第{}页'.format(i+1))
# 百度图片首页的url
# name是你要搜索的关键词
# pn是你想下载的页数
url = 'https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%s&pn=%d' %(name,i*20)
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4843.400 QQBrowser/9.7.13021.400'
}
response = requests.get(url, headers=headers)
html = response.content.decode()
# "objURL":"http://n.sinaimg.cn/sports/transform/20170406/dHEk-fycxmks5842687.jpg"
results = re.findall('"objURL":"(.*?)",', html) # 返回一个列表
# 根据获取到的图片链接,把图片保存到本地
save_to_txt(results, name, i)
# 保存图片到本地
def save_to_txt(results, name, i):
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36"}
proxies = {
"http": "",
"https": "",
}
j = 0
# 在当目录下创建文件夹
if not os.path.exists('./' + name):
os.makedirs('./' + name)
# 下载图片
for result in results:
print('正在保存第{}个'.format(j))
pic = requests.get(result, headers=headers,proxies=proxies)
try:
print(result)
pic = requests.get(result, headers=headers,proxies=proxies)
print(pic)
time.sleep(1)
except:
print('当前图片无法下载')
j += 1
continue
# 把图片保存到文件夹
file_full_name = './' + name + '/' + str(i) + '-' + str(j) + '.jpg'
with open(file_full_name, 'wb') as f:
f.write(pic.content)
j += 1
if __name__ == "__main__":
name = input('请输入你要下载的关键词:')
pn = input('请输入下载页数:')
get_parse_page(pn, name)
pass
使用方法非常简单,执行python index.py(这个文件名)
然后输入想要下载的关键词,想要下载的页数,然后程序就会自动下载了。