文档章节

使用正则表达式,从网站上获取指定数据

白志华
 白志华
发布于 2015/10/18 10:55
字数 976
阅读 16
收藏 0

       最近做的一个项目中,其中有这样一个需求:用户要求我们实时在地图上显示某些指定景点的人数,但是却没有给我们数据的接口。不过可以从网页上获取到最新的数据,每小时更新一次。所以经理安排我做一个实时从网页上抓取数据的功能。

       既然是网页,那么无用的数据肯定是非常多的,所以就需要用正则表达式来过滤出自己所需要的数据。

       不得不说,正则表达式比substring好用多了,而且效率也很不错。下面来分享一下我的这段代码吧:

/**
	 * 从网站获取日期信息
	 * 
	 * @Title: getDate
	 * @Date : 2014-8-12 上午09:42:26
	 * @return
	 */
	private String getDate() {

		// 从网站抓取数据
		String table = catchData();
		String date = "";

		// 使用正则表达式,获取对应的数据
		Pattern places = Pattern.compile("(<p align=\"center\">)([^\\s]*)");
		Matcher matcher = places.matcher(table);
		while (matcher.find()) {
			System.out.println(matcher.group(2));
			date = matcher.group(2);
		}
		return date;
	}

	/**
	 * 从网站抓取数据(未经处理)
	 * 
	 * @Title: getData
	 * @Date : 2014-8-12 上午09:34:30
	 * @return
	 */
	@SuppressWarnings("unchecked")
	private String catchData() {
		String table = "";
		try {
			Map map = new HashMap();
			map.put("a", "1");// 莫删,否则报错
			table = AsyncRequestUtil.getJsonResult(map, "http://s.visitbeijing.com.cn/flow.php");
		} catch (Exception e) {
			e.printStackTrace();
		}
		return table;
	}

【AsyncRequestUtil.java】

package com.zhjy.zydc.util;

import java.util.Map;


/**
 * 异步请求数据
 * @author  	: Cuichenglong
 * @group   	: tgb
 * @Version 	: 1.00
 * @Date    	: 2014-5-28 上午09:54:20
 */
public class AsyncRequestUtil {

	/**
	 * 异步请求数据
	 * @Title: getJsonResult
	 * @param map
	 * @param strURL
	 * @return
	 */
	public static String getJsonResult(Map<String, Object> map, String strURL)throws Exception {

		/** 跨域登录,获取返回结果  **/
		String result = null;
		result = UrlUtil.getDataFromURL(strURL, map);
		if (result!=null && result.startsWith("null{")) {
			result = result.substring("null".length());
		}
		return result;
	}

}
UrlUtil .java
package com.zhjy.zydc.util;

import java.io.BufferedReader;
import java.io.InputStreamReader;
import java.io.OutputStreamWriter;
import java.io.UnsupportedEncodingException;
import java.net.URL;
import java.net.URLConnection;
import java.net.URLDecoder;
import java.net.URLEncoder;
import java.util.ArrayList;
import java.util.Enumeration;
import java.util.HashMap;
import java.util.Iterator;
import java.util.List;
import java.util.Map;
import java.util.Set;

import javax.servlet.http.HttpServletRequest;
import javax.servlet.http.HttpSession;

/**
 * url跨域获取数据
 * @author  	: Cuichenglong
 * @group   	: Zhong Hai Ji Yuan
 * @Version 	: 1.00
 * @Date    	: 2014-5-27 下午04:14:26
 */
public final class UrlUtil {

	/**
	 * 根据URL跨域获取输出结果
	 * @Title: getDataFromURL
	 * @param strURL 要访问的URL地址
	 * @param param 参数
 	 * @return 结果字符串
	 * @throws Exception
	 */
	public static String getDataFromURL(String strURL, Map<String, Object> param) throws Exception{
		URL url = new URL(strURL);
		URLConnection conn = url.openConnection();
		conn.setDoOutput(true);	
		conn.setConnectTimeout(5000); //允许5秒钟的延迟:连接主机的超时时间(单位:毫秒)
		conn.setReadTimeout(5000); //允许5秒钟的延迟 :从主机读取数据的超时时间(单位:毫秒)

		OutputStreamWriter writer = new OutputStreamWriter(conn.getOutputStream());
		final StringBuilder sb = new StringBuilder(param.size() << 4); // 4次方
		final Set<String> keys = param.keySet();
		for (final String key : keys) {
			Object value = param.get(key);
			sb.append(key); // 不能包含特殊字符
			sb.append('=');
			//如果格式为String类型,则进行2次解码、2次编码操作
			if (value instanceof String) // String
			{
//				value = (URLDecoder.decode(URLDecoder.decode((String)value, "utf-8"),
//						"utf-8"));
//				value = (Object)(URLEncoder.encode(URLEncoder.encode((String)value, "utf-8"),
//						"utf-8"));
				value = URLEncoder.encode((String)value, "utf-8");
			}
			sb.append(value);
			sb.append('&');
		}
		// 将最后的 '&' 去掉
		sb.deleteCharAt(sb.length() - 1);
		// writer.write("email=pk3589@163.com&password=123");
		writer.write(sb.toString());
		writer.flush();
		writer.close();

		InputStreamReader reder = new InputStreamReader(conn.getInputStream(), "utf-8");

		BufferedReader breader = new BufferedReader(reder);

		// BufferedWriter w = new BufferedWriter(new FileWriter("d:/1.txt"));

		String content = null;
		String result = null;
		while ((content = breader.readLine()) != null) {
			result += content;
		}
	
		return result;

	}
}
       这是一段很简单的代码。是从http://s.visitbeijing.com.cn/flow.php网址中抓取日期的代码。

       其实只有2步,第一步是通过java.net.URL后台访问指定网址,并且拿到页面的html源码。第二步从html源码中通过正则表达式,获取日期。这里说一下正则表达式:

Pattern places = Pattern.compile("(<p align=\"center\">)([^\\s]*)");

       其中^表示屏蔽,\s表示空格,所以^\\s表示屏蔽空格,这里第一个\是转移字符。*表示匹配多个字符。

       通过matcher,获取匹配的值。在一次matcher.find()获取每一次匹配的数据,一个括号对应一个group。如果取matcher.group(1),则会取到<p align="center">。matcher.group(2)可以取到匹配的值。

      了解了这些,我们就可以随意的从某些网址上抓取数据了。有了数据,还有什么可以挡住我们前进的脚步!!!

版权声明:本文为博主原创文章,未经博主允许不得转载。

本文转载自:http://blog.csdn.net/xiaoxian8023/article/details/38309125

共有 人打赏支持
白志华
粉丝 31
博文 265
码字总数 57524
作品 0
长沙
程序员
私信 提问
爬虫课堂(二十二)|使用LinkExtractor提取链接

在爬取一个网站时,要爬取的数据通常不全是在一个页面上,每个页面包含一部分数据以及到其他页面的链接。比如前面讲到的获取简书文章信息,在列表页只能获取到文章标题、文章URL及文章的作者...

小怪聊职场
03/27
0
0
[python爬虫] 正则表达式使用技巧及爬取个人博客实例

这篇博客是自己《数据挖掘与分析》课程讲到正则表达式爬虫的相关内容,主要简单介绍Python正则表达式爬虫,同时讲述常见的正则表达式分析方法,最后通过实例爬取作者的个人博客网站。希望这篇...

Eastmount
2017/10/18
0
0
使用正则表达式实现网页爬虫的思路详解

网页爬虫:就是一个程序用于在互联网中获取指定规则的数据。这篇文章主要介绍了使用正则表达式实现网页爬虫的思路详解,需要的朋友可以参考下 网页爬虫:就是一个程序用于在互联网中获取指定规...

前端小攻略
12/14
0
0
shell学习之正则表达式【基础篇】

什么是正则表达式: 是你定义的、linux工具用来过滤文本的模式模板。Linux工具(比如sed编辑器或gawk)能够在数据流向工具时对数据进行正则表达式模式匹配。如果数据匹配模式,它就会被接受并...

白羊IT
2017/04/15
0
0
在C#中使用正则表达式自动匹配并获取所需要的数据

正则表达式能根据设置匹配各种数据(比如:e-mail地址,电话号码,身份中号码等等)。正则表达式功能强大,使用灵活,C#,Java,JavaScript等多种语言都支持正则表达式。在互联网上“抓取数据...

postdep
2013/03/05
0
0

没有更多内容

加载失败,请刷新页面

加载更多

oh-my-zsh 自定义

GitHub 地址 基于 oh-my-zsh 的自定义配置,增加了一些个人常用插件与皮肤。 采用的是 git submodule 来维护,包括 oh-my-zsh,之所以这么搞,主要是手头有多台 linux 需要维护, 每台机器、...

郁也风
今天
6
0
Docker安装踩坑:E_FAIL 0x80004005的解决

参考 菜鸟教程--Windows Docker 安装 http://www.runoob.com/docker/windows-docker-install.html 官方文档-Install Docker Toolbox on Windows https://docs.docker.com/toolbox/toolbox_in......

karma123
今天
5
0
js垃圾回收机制和引起内存泄漏的操作

JS的垃圾回收机制了解吗? Js具有自动垃圾回收机制。垃圾收集器会按照固定的时间间隔周期性的执行。 JS中最常见的垃圾回收方式是标记清除。 工作原理:是当变量进入环境时,将这个变量标记为“...

Jack088
昨天
17
0
大数据教程(10.1)倒排索引建立

前面博主介绍了sql中join功能的大数据实现,本节将继续为小伙伴们分享倒排索引的建立。 一、需求 在很多项目中,我们需要对我们的文档建立索引(如:论坛帖子);我们需要记录某个词在各个文...

em_aaron
昨天
27
0
"errcode": 41001, "errmsg": "access_token missing hint: [w.ILza05728877!]"

Postman获取微信小程序码的时候报错, errcode: 41001, errmsg: access_token missing hint 查看小程序开发api指南,原来access_token是直接当作parameter的(写在url之后),scene参数一定要...

两广总督bogang
昨天
33
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部