侧边栏壁纸
博主头像
爱运维 博主等级

行动起来,活在当下

  • 累计撰写 197 篇文章
  • 累计创建 143 个标签
  • 累计收到 21 条评论

目 录CONTENT

文章目录

python3 麦子学院视频下载爬虫

Administrator
2017-12-27 / 0 评论 / 0 点赞 / 4 阅读 / 0 字

没有任何错误判断,直接上源码


#coding=utf8
#麦子学院视频爬虫
import requests,random,time,re,os
from bs4 import BeautifulSoup
def get_down_url(url,name,dir_name):
    x=requests.get(url)
    req_url=re.findall(r"lessonUrl = \"(.*)\"",x.text)[0]
    print ("\t\t下载视频地址:",req_url)
    save_m4v(req_url,name,dir_name)
def get_liebiao_url(URL):
    #获取视频所有的课程列表URL
    shop=BeautifulSoup(requests.get(URL).text,'html.parser')
    dir_name=shop.select("h1")[0].text
    for i in shop.select(".lesson-lists li"):
        print ("http://www.maiziedu.com"+i.select('a')[0]['href'],i.select('a')[0].text)
        get_down_url("http://www.maiziedu.com"+i.select('a')[0]['href'],i.select('a')[0].text,dir_name)
def save_m4v(url,name,dir_name):
    name=str(name).split(':')[0]+'.'+str(url).split('.')[-1]
    print(name)
    try:
        os.makedirs(dir_name)
    except Exception:
        pass
    f=open(dir_name+"\\"+name,'wb')
    #x=requests.get(url).text
    f.write(requests.get(url).content)
    #print(x)
    f.close()
get_liebiao_url("http://www.maiziedu.com/course/304/")#传入下载URL列表地址
爬取的一步视频截图:



0

评论区