找回密码
 立即注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

楼主: pythoner

[资源与教程] 机器学习入门必备书籍免费下载

0

主题

1

帖子

1

积分

贫民

积分
1
wx_R1NX05Xg 发表于 2018-7-23 04:39:09 | 显示全部楼层
学习学习学习
回复 支持 反对

使用道具 举报

0

主题

1

帖子

1

积分

贫民

积分
1
raindrop7 发表于 2018-7-23 16:06:47 | 显示全部楼层
肯定要看看
回复 支持 反对

使用道具 举报

0

主题

1

帖子

1

积分

贫民

积分
1
weinengplay 发表于 2018-7-23 18:12:54 | 显示全部楼层
真正好的书籍确实不多
回复 支持 反对

使用道具 举报

0

主题

1

帖子

1

积分

贫民

积分
1
syxabg1230 发表于 2018-7-28 15:16:51 | 显示全部楼层
感谢分享
回复

使用道具 举报

0

主题

1

帖子

1

积分

贫民

积分
1
恩祈 发表于 2018-7-30 11:52:12 | 显示全部楼层
阿达萨达
回复

使用道具 举报

0

主题

1

帖子

1

积分

贫民

积分
1
jasonkwong 发表于 2018-7-30 21:00:08 | 显示全部楼层
学习一下,谢谢分享
回复 支持 反对

使用道具 举报

0

主题

2

帖子

2

积分

贫民

积分
2
kmm359644767 发表于 2018-8-12 11:09:21 | 显示全部楼层
感谢楼主分享
回复 支持 反对

使用道具 举报

0

主题

1

帖子

1

积分

贫民

积分
1
兰多夫 发表于 2018-8-12 18:15:54 | 显示全部楼层
很好嗯嗯嗯
回复 支持 反对

使用道具 举报

0

主题

1

帖子

1

积分

贫民

积分
1
royaa 发表于 2018-8-14 18:01:06 | 显示全部楼层
感谢楼主,学习下
回复 支持 反对

使用道具 举报

0

主题

1

帖子

1

积分

贫民

积分
1
15562573678 发表于 2018-8-20 23:50:04 | 显示全部楼层
#!/usr/bin/env python
#-*- coding: utf-8 -*-
#通过urllib(2)模块下载网络内容
import urllib,urllib2,gevent
#引入正则表达式模块,时间模块
import re,time
from gevent import monkey
   
monkey.patch_all()
   
def geturllist(url):
    url_list=[]
    print url      
    s = urllib2.urlopen(url)
    text = s.read()
    #正则匹配,匹配其中的图片
    html = re.search(r'<ol.*</ol>', text, re.S)
    urls = re.finditer(r'<p><img src="(.+?)jpg" /></p>',html.group(),re.I)
    for i in urls:
        url=i.group(1).strip()+str("jpg")
        url_list.append(url)
    return url_list
   
def download(down_url):
    name=str(time.time())[:-3]+"_"+re.sub('.+?/','',down_url)
    print name
    urllib.urlretrieve(down_url, "D:\\TEMP\\"+name)
   
def getpageurl():
    page_list = []
    #进行列表页循环
    for page in range(1,700):
        url="http://jandan.net/ooxx/page-"+str(page)+"#comments"
        #把生成的url加入到page_list中
        page_list.append(url)
    print page_list
    return page_list
if __name__ == '__main__':
    jobs = []
    pageurl = getpageurl()[::-1]
    #进行图片下载
    for i in pageurl:
        for (downurl) in geturllist(i):
            jobs.append(gevent.spawn(download, downurl))
    gevent.joinall(jobs)
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表