感悟网 导航

怎么使用python来爬取网页上的表格信息 Python爬取网站信息(随便一个网站就行),并导入Exce...

作者&投稿:军欢 (若有异议请与网页底部的电邮联系)
求教如何通过python抓取网页中表格信息~

看你抓的是静态还是动态的了,这里是静态表格信息的代码:
from BeautifulSoup import BeautifulSoup import urllib2 import re import string def earse(strline,ch) : left = 0 right = strline.find(ch) while right !=-1 : strline = strline.replace(ch,'') right = strline.find(ch) return strline url = r"http://www.bjsta.com" resContent = urllib2.urlopen(url).read() resContent = resContent.decode('gb18030').encode('utf8') soup = BeautifulSoup(resContent) print soup('title')[0].string tab= soup.findAll('table') trs = tab[len(tab)-1].findAll('tr') for trIter in trs : tds = trIter.findAll('td') for tdIter in tds : span = tdIter('span') for i in range(len(span)) : if span[i].string : print earse(span[i].string,' ').strip(), else : pass print

使用的python的request、csv模块
import requesimport reimport csv_re = requests.get(url)re_text = re.findall(str, _re.text, re.S) # str 正则with open('1.csv', 'wb') as f: csv.writer(f).writerow(re_text)

稍微说一下背景,当时我想研究蛋白质与小分子的复合物在空间三维结构上的一些规律,首先得有数据啊,数据从哪里来?就是从一个涵盖所有已经解析三维结构的蛋白质-小分子复合物的数据库里面下载。这时候,手动一个个去下显然是不可取的,我们需要写个脚本,能从特定的网站选择性得批量下载需要的信息。python是不错的选择。

import urllib #python中用于获取网站的模块
import urllib2, cookielib

有些网站访问时需要cookie的,python处理cookie代码如下:
cj = cookielib.CookieJar ( )
opener = urllib2.build_opener( urllib2.HttpCookieProcessor(cj) )
urllib2.install_opener (opener)

通常我们需要在网站中搜索得到我们需要的信息,这里分为二种情况:

1. 第一种,直接改变网址就可以得到你想要搜索的页面:

def GetWebPage( x ): #我们定义一个获取页面的函数,x 是用于呈递你在页面中搜索的内容的参数
url = 'http://xxxxx/xxx.cgi?&' + ‘你想要搜索的参数’ # 结合自己页面情况适当修改
page = urllib2.urlopen(url)
pageContent = page.read( )
return pageContent #返回的是HTML格式的页面信息

2.第二种,你需要用到post方法,将你搜索的内容放在postdata里面,然后返回你需要的页面

def GetWebPage( x ): #我们定义一个获取页面的函数,x 是用于呈递你在页面中搜索的内容的参数
url = 'http://xxxxx/xxx' #这个网址是你进入搜索界面的网址
postData = urllib.urlencode( { 各种‘post’参数输入 } ) #这里面的post参数输入需要自己去查
req= urllib2.Request (url, postData)
pageContent = urllib2.urlopen (req). read( )
return pageContent #返回的是HTML格式的页面信息

在获取了我们需要的网页信息之后,我们需要从获得的网页中进一步获取我们需要的信息,这里我推荐使用 BeautifulSoup 这个模块, python自带的没有,可以自行百度谷歌下载安装。 BeautifulSoup 翻译就是‘美味的汤’,你需要做的是从一锅汤里面找到你喜欢吃的东西。

import re # 正则表达式,用于匹配字符
from bs4 import BeautifulSoup # 导入BeautifulSoup 模块

soup = BeautifulSoup(pageContent) #pageContent就是上面我们搜索得到的页面

soup就是 HTML 中所有的标签(tag)BeautifulSoup处理格式化后的字符串,一个标准的tag形式为:

hwkobe24

通过一些过滤方法,我们可以从soup中获取我们需要的信息:

(1) find_all ( name , attrs , recursive , text , **kwargs)
这里面,我们通过添加对标签的约束来获取需要的标签列表, 比如 soup.find_all ('p') 就是寻找名字为‘p’的 标签,而soup.find_all (class = "tittle") 就是找到所有class属性为"tittle" 的标签,以及soup.find_all ( class = re.compile('lass')) 表示 class属性中包含‘lass’的所有标签,这里用到了正则表达式(可以自己学习一下,非常有用滴)

当我们获取了所有想要标签的列表之后,遍历这个列表,再获取标签中你需要的内容,通常我们需要标签中的文字部分,也就是网页中显示出来的文字,代码如下:

tagList = soup.find_all (class="tittle") #如果标签比较复杂,可以用多个过滤条件使过滤更加严格

for tag in tagList:
print tag.text
f.write ( str(tag.text) ) #将这些信息写入本地文件中以后使用

(2)find( name , attrs , recursive , text , **kwargs )

它与 find_all( ) 方法唯一的区别是 find_all() 方法的返回结果是值包含一个元素的列表,而 find() 方法直接返回结果

(3)find_parents( ) find_parent( )

find_all() 和 find() 只搜索当前节点的所有子节点,孙子节点等. find_parents() 和 find_parent() 用来搜索当前节点的父辈节点,搜索方法与普通tag的搜索方法相同,搜索文档搜索文档包含的内容

(4)find_next_siblings() find_next_sibling()

这2个方法通过 .next_siblings 属性对当 tag 的所有后面解析的兄弟 tag 节点进代, find_next_siblings() 方法返回所有符合条件的后面的兄弟节点,find_next_sibling() 只返回符合条件的后面的第一个tag节点

(5)find_previous_siblings() find_previous_sibling()

这2个方法通过 .previous_siblings 属性对当前 tag 的前面解析的兄弟 tag 节点进行迭代, find_previous_siblings()方法返回所有符合条件的前面的兄弟节点, find_previous_sibling() 方法返回第一个符合条件的前面的兄弟节点

(6)find_all_next() find_next()

这2个方法通过 .next_elements 属性对当前 tag 的之后的 tag 和字符串进行迭代, find_all_next() 方法返回所有符合条件的节点, find_next() 方法返回第一个符合条件的节点

(7)find_all_previous() 和 find_previous()

这2个方法通过 .previous_elements 属性对当前节点前面的 tag 和字符串进行迭代, find_all_previous() 方法返回所有符合条件的节点, find_previous()方法返回第一个符合条件的节点

具体的使用方法还有很多,用到这里你应该可以解决大部分问题了,如果要更深入了解可以参考官方的使用说明哈!

《怎么使用python来爬取网页上的表格信息》
答:return pageContent #返回的是HTML格式的页面信息 在获取了我们需要的网页信息之后,我们需要从获得的网页中进一步获取我们需要的信息,这里我推荐使用 BeautifulSoup 这个模块, python自带的没有,可以自行百度谷歌下载安装。 BeautifulSoup 翻译就是‘美味的汤’,你需要做的是从一锅汤里面找到你喜欢吃的...

《python 怎样爬去网页的内容》
答:用python爬取网页信息的话,需要学习几个模块,urllib,urllib2,urllib3,requests,httplib等等模块,还要学习re模块(也就是正则表达式)。根据不同的场景使用不同的模块来高效快速的解决问题。最开始我建议你还是从最简单的urllib模块学起,比如爬新浪首页(声明:本代码只做学术研究,绝无攻击用意):这...

《怎样用python爬取疫情数据》
答:\[.+\]', text)[0]4.把json格式转换为python类型 last_day_corona_virus = json.loads(json_str)5.以json格式保存最近一日数据 with open('data/last_day_coronavirus.json', 'w') as fp:json.dump(last_day_corona_virus, fp, ensure_ascii=False)...

《如何自学python爬虫?》
答:2.学习网络基础:理解HTTP协议和HTML/CSS是编写爬虫的关键。你可以在网上找到许多关于这些主题的资源,例如MozillaDeveloperNetwork的Web开发指南。3.学习解析网页:Python有几个库可以帮助你解析网页,例如BeautifulSoup和lxml。你需要学习如何使用这些库来提取网页中的数据。4.学习数据存储:一旦你从网页中提取...

《如何入门 Python 爬虫》
答:个人觉得:新手学习python爬取网页先用下面4个库就够了:(第4个是实在搞不定用的,当然某些特殊情况它也可能搞不定)1. 打开网页,下载文件:urllib 2. 解析网页:BeautifulSoup,熟悉JQuery的可以用Pyquery 3. 使用Requests来提交各种类型的请求,支持重定向,cookies等。4. 使用Selenium,模拟浏览器...

《如何使用 Python 抓取雪球网页》
答:header 数据都可以从 Developer Tools 里拿到。这次顺利抓到页面内容。一般网站或多或少都会对请求来源做一些阻拦,通过加 header 可以搞定大部分情况。Step.3 提取数据 因为这个数据比较明显,直接用通过一些字符串查找和截取操作就可以取出来。pos_start = html.find('SNB.cubeInfo = ') + len('SNB...

《python3 怎样爬取动态加载的网页信息》
答:方法1 寻找页面中的xhr请求, 并得到实际的请求参数. 直接获取相关搜索的请求返回代码, 然后进行数据整理.方法2 模拟浏览器操作, 比如使用Selenium 模块.

《如何用Python抓取动态页面信息》
答:很早之前,学习Python web编程的时候,就涉及一个Python的urllib。可以用urllib.urlopen("url").read()可以轻松读取页面上面的静态信息。但是,随着时代的发展,也来越多的网页中更多的使用javascript、jQuery、PHP等语言动态生成页面信息。因此,用urllib再去抓取页面HTML就不足以达到我们想要的效果。解决思路...

《如何用Python爬取搜索引擎的结果》
答:我选取的是爬取百度知道的html 作为我的搜索源数据,目前先打算做网页标题的搜索,选用了 Python 的 scrapy 库来对网页进行爬取,爬取网页的标题,url,以及html,用sqlist3来对爬取的数据源进行管理。爬取的过程是一个深度优先的过程,设定四个起始 url ,然后维护一个数据库,数据库中有两个表,...

《怎么样python爬虫进行此网站爬取》
答:解密后文件是压缩过的,解压即可得到一个JSON。这部分解压我没仔细看他的算法,好像是gzip,直接用【Python:import gzip】解压有点出错,可能没用对或者不是这个算法,你在研究一下。第二种投机的方法就是,可以通过【Python:import execjs】直接调用他的pako.js文件的JS的inflate()函数来解压这块。JS...

   

返回顶部
本页内容来自于网友发表,若有相关事宜请照下面的电邮联系
感悟网