[转]php采集类 snoopy

Snoopy是一个php类,用来模拟浏览器的功能,能够获取网页内容,发送表单。
Snoopy的一些特色:
1抓取网页的内容 fetch
2 抓取网页的文本内容 (去除HTML标签) fetchtext
3抓取网页的连接,表单 fetchlinks fetchform
4 支持代理主机
5支持基本的用户名/密码验证
6 支持设置 user_agent, referer(来路), cookies 和 header content(头文件)
7支持浏览器重定向,并能控制重定向深度
8能把网页中的连接扩展成高质量的url(默认)
9提交数据而且获取返回值
10 支持跟踪HTML框架
11支持重定向的时候传递cookies
要求php4以上就能够了 因为自己是php一个类 无需扩支持 服务器不支持curl时候的最好选择,
类方法:
fetch($URI)
———–
这是为了抓取网页的内容而使用的方法。
$URI参数是被抓取网页的URL地址。
抓取的结果被存储在 $this->results 中。
若是你正在抓取的是一个框架,Snoopy将会将每一个框架追踪后存入数组中,而后存入 $this->results。
fetchtext($URI)
—————
本方法相似于fetch(),惟一不一样的就是本方法会去除HTML标签和其余的无关数据,只返回网页中的文字内容。
fetchform($URI)
—————
本方法相似于fetch(),惟一不一样的就是本方法会去除HTML标签和其余的无关数据,只返回网页中表单内容(form)。
fetchlinks($URI)
—————-
本方法相似于fetch(),惟一不一样的就是本方法会去除HTML标签和其余的无关数据,只返回网页中连接(link)。
默认状况下,相对连接将自动补全,转换成完整的URL。
submit($URI,$formvars)
———————-
本方法向$URL指定的连接地址发送确认表单。$formvars是一个存储表单参数的数组。
submittext($URI,$formvars)
————————–
本方法相似于submit(),惟一不一样的就是本方法会去除HTML标签和其余的无关数据,只返回登录后网页中的文字内容。
submitlinks($URI)
—————-
本方法相似于submit(),惟一不一样的就是本方法会去除HTML标签和其余的无关数据,只返回网页中连接(link)。
默认状况下,相对连接将自动补全,转换成完整的URL。
类属性: (缺省值在括号里)
$host 链接的主机
$port 链接的端口
$proxy_host 使用的代理主机,若是有的话
$proxy_port 使用的代理主机端口,若是有的话
$agent 用户代理假装 (Snoopy v0.1)
$referer 来路信息,若是有的话
$cookies cookies, 若是有的话
$rawheaders 其余的头信息, 若是有的话
$maxredirs 最大重定向次数, 0=不容许 (5)
$offsiteok whether or not to allow redirects off-site. (true)
$expandlinks 是否将连接都补全为完整地址 (true)
$user 认证用户名, 若是有的话
$pass 认证用户名, 若是有的话
$accept http 接受类型 (image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, */*)
$error 哪里报错, 若是有的话
$response_code 从服务器返回的响应代码
$headers 从服务器返回的头信息
$maxlength 最长返回数据长度
$read_timeout 读取操做超时 (requires PHP 4 Beta 4+)
设置为0为没有超时
$timed_out 若是一次读取操做超时了,本属性返回 true (requires PHP 4 Beta 4+)
$maxframes 容许追踪的框架最大数量
$status 抓取的http的状态
$temp_dir 网页服务器可以写入的临时文件目录 (/tmp)
$curl_path cURL binary 的目录, 若是没有cURL binary就设置为 false php


如下是demo
include "Snoopy.class.php";
$snoopy = new Snoopy;
$snoopy->proxy_host = "http://www.jb51.net";
$snoopy->proxy_port = "80";
$snoopy->agent = "(compatible; MSIE 4.01; MSN 2.5; AOL 4.0; Windows 98)";
$snoopy->referer = "http://www.jb51.net";
$snoopy->cookies["SessionID"] = 238472834723489l;
$snoopy->cookies["favoriteColor"] = "RED";
$snoopy->rawheaders["Pragma"] = "no-cache";
$snoopy->maxredirs = 2;
$snoopy->offsiteok = false;
$snoopy->expandlinks = false;
$snoopy->user = "joe";
$snoopy->pass = "bloe";
if($snoopy->fetchtext("http://www.jb51.net"))
{
echo "".htmlspecialchars($snoopy->results)."\n";
}
else
echo "error fetching document: ".$snoopy->error."\n"; html

 


如下是一些代码片断:
一、获取指定url内容
fetch($url); //获取全部内容
echo $snoopy->results; //显示结果
//可选如下
$snoopy->fetchtext //获取文本内容(去掉html代码)
$snoopy->fetchlinks //获取连接
$snoopy->fetchform //获取表单
?> 数组

 


2 表单提交
表单提交地址
$snoopy->submit($action,$formvars);//$formvars为提交的数组
echo $snoopy->results; //获取表单提交后的 返回的结果
//可选如下
$snoopy->submittext; //提交后只返回 去除html的 文本
$snoopy->submitlinks;//提交后只返回 连接
?>
既然已经提交的表单 那就能够作不少事情 接下来咱们来假装ip,假装浏览器
3 假装
cookies["PHPSESSID"] = 'fc106b1918bd522cc863f36890e6fff7'; //假装sessionid
$snoopy->agent = "(compatible; MSIE 4.01; MSN 2.5; AOL 4.0; Windows 98)"; //假装浏览器
$snoopy->referer = http://www.jb51.net; //假装来源页地址 http_referer
$snoopy->rawheaders["Pragma"] = "no-cache"; //cache 的http头信息
$snoopy->rawheaders["X_FORWARDED_FOR"] = "127.0.0.101"; //假装ip
$snoopy->submit($action,$formvars);
echo $snoopy->results;
?> 浏览器

 


原来咱们能够假装session 假装浏览器 ,假装ip, haha 能够作不少事情了。
例如 带验证码,验证ip 投票, 能够不停的投。
ps:这里假装ip ,实际上是假装http头, 因此通常的经过 REMOTE_ADDR 获取的ip是假装不了,
反而那些经过http头来获取ip的(能够防止代理的那种) 就能够本身来制造ip。
关于如何验证码 ,简单说下:
首先用普通的浏览器, 查看页面 , 找到验证码所对应的sessionid,
同时记下sessionid和验证码值,
接下来就用snoopy去伪造 。
原理:因为是同一个sessionid 因此取得的验证码和第一次输入的是同样的。
4 有时咱们可能须要伪造更多的东西,snoopy彻底为咱们想到了
proxy_host = "http://www.jb51.net";
$snoopy->proxy_port = "8080"; //使用代理
$snoopy->maxredirs = 2; //重定向次数
$snoopy->expandlinks = true; //是否补全连接 在采集的时候常常用到
// 例如连接为 /images/taoav.gif 可改成它的全连接 http://www.jb51.net/images/taoav.gif
$snoopy->maxframes = 5 //容许的最大框架数
//注意抓取框架的时候 $snoopy->results 返回的是一个数组
$snoopy->error //返回报错信息
?> 服务器

顺便说下,通常来讲有些网站采用的防采集手段,这时候 咱们本身在作才采集的时候不要用open来直接打开。 cookie

相关文章
相关标签/搜索