找回密码
 立即注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

查看: 1966|回复: 0

[求助] python爬取网站板块的一个小问题(似乎是个很简单的项目....

1

主题

1

帖子

1

积分

贫民

积分
1
runfortheworld 发表于 2019-6-3 16:42:10 | 显示全部楼层 |阅读模式
想爬取小木虫首页那些板块的名字(似乎是个很简单的项目....)
写了如下代码
为何既没有我create的文件,又没有爬取结果
请大侠们给出修改意见==
谢谢!!

import requests
from requests.excepti** import RequestException
import re
import json

url = 'http://muchong.com/bbs/post.php?action=newthread'
def getpage(url):
    try:
        headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}
        resp**e = requests.get(url,headers=headers)
        if resp**e.status_code == 200:
            return resp**e.text
        return None
    except RequestException:
        return None
            
def parse(html):
    html = getpage(url)   
    pattern = re.compile('<td width="25%">.*?xmc_blue xmc_ft14.*?target="_blank">(.*?)</a></h4>',re.S)
    items = re.findall(pattern,html)
    write_to_file(items)
    print(items)
      
def write_to_file(content):
    with open('xiaomuchong.txt', 'a', encoding='utf-8') as f:#a代表追加
        f.write(json.dumps(content, ensure_ascii=False) + '\n')#.想输出真正的中文需要指定ensure_ascii=False
if __name__ == '__main__':
    main()

谢谢,初学python,希望大家指点!!




回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表