前言
本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。
作者: GitPython
PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取
/d/file/titlepic/id=3054cce4add8a909e784ad934f956cef&type=note
首先,打开百度图片首页,注意下图url中的index
接着,把页面切换成传统翻页版(flip),因为这样有利于我们爬取图片!
对比了几个url发现,pn参数是请求到的数量。通过修改pn参数,观察返回的数据,发现每页最多只能是60个图片。
注:gsm参数是pn参数的16进制表达,去掉无妨
然后,右键检查网页源代码,直接(ctrl+F)搜索 objURL
这样,我们发现了需要图片的url了。
现在,我们要做的就是将这些信息爬取出来。
注:网页中有objURL,hoverURL…但是我们用的是objURL,因为这个是原图
那么,如何获取objURL?用正则表达式!
那我们该如何用正则表达式实现呢?其实只需要一行代码…
results = re.findall('"objURL":"(.*?)",', html)
1.获取图片url代码:
# 获取图片url连接def get_par_page(pn,name): for i in range(int(pn)): # 1.获取网页 print('正在获取第{}页'.format(i+1)) # 百度图片首页的url # name是你要搜索的关键词 # pn是你想下载的页数 url = '/d/file/titlepic/image.baidu.com' %(name,i*20) headers = { 'Ur-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4843.400 QQBrowr/9.7.13021.400'} # 发送请求,获取相应 respon = requests.get(url, headers=headers) html = respon.content.decode() # print(html) # 2.正则表达式解析网页 # "objURL":"/d/file/titlepic/dHEk-fycxmks5842687.jpg" results = re.findall('"objURL":"(.*?)",', html) # 返回一个列表 # 根据获取到的图片链接,把图片保存到本地 save_to_txt(results, name, i)
2.保存图片到本地代码:
# 保存图片到本地def save_to_txt(results, name, i): j = 0 # 碟仙诡谭在当目录下创建文件夹 if not os.path.exists('./' + name): os.makedirs('./' + name) # 下载图片 for result in results: print('正在保存第{}个'.format(j)) try: pic = requests.g南京医科大et(result, timeout普陀山三日游=10) time.sleep(1) except: print('当前图片无法下载') j += 1 continue # 可忽略,这段代码有bug # file_name = result.split('/') # file_name = file_name[len(file_name) - 1] # print(file_name) # # end = re.arch('(.png|.jpg|.jpeg|.gif)$', file_name) # if end == None: # file_name = file_name + '.jpg' # 把图片保存到文件夹 file_full_name = './' + name + '/' + str(i) + '-' + str(j) + '.jpg' with open(file_full_name, 'wb') as f: f.write(pic.content) j += 1
3.主函数代码:
# 主函数if __name__ == '__main__': name = input('请输入你要下载的关键词:') pn = input('你想下载前几页(1页有60张):') get_par_page(pn, name)
# 配置以下模块import requests import reimport osimport t氢氧化钙与碳酸钠ime# 1.运行 py源文件# 2.输入你想搜索的关键词,比如“柯基”、“泰迪”等# 3.输入你想黑龙江民族职业学院下载的页数,比如5,那就是下载 5 x 60=300 张图片
收藏 举报
本文发布于:2023-03-26 14:11:25,感谢您对本站的认可!
本文链接:https://www.wtabcd.cn/fanwen/zuowen/6a601e9c2b7ff9790e7c8a430b274298.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文word下载地址:爬虫下载图片打不开是什么原因,最新简易爬虫教程.doc
本文 PDF 下载地址:爬虫下载图片打不开是什么原因,最新简易爬虫教程.pdf
留言与评论(共有 0 条评论) |