最近使用curl的时候,发现了一个比较好用的函数,当然是初级者适用的一个函数,就是curl_getinfo(),
在抓取一个页面的时候,会遇到302页面跳转的情况,刚开始处理的时候,是用curl抓取一个域名页面的内容,适用curl_exec,抓取页面全部内容,然后用正则匹配出来用户域名url,通过此域名再次抓取此地址的内容,这样做挺麻烦的,后来发现curl_getinfo(),返回来一个数组类型的值,里面有一个url,有一个http_code,http_code可以是302,200,404,500等,如果是302的话,就是页面跳转,直接可以得到跳转的页面的url。这样,就可以直接跳过抓取域名地址哪一步,直接获得跳转页面的链接,直接抓取内容就好了,下面是例子:
<?php $url = ‘sunking18.tk’; $ch = curl_init(); $header = array (); $header [] = ‘sunking18.tk’; $header [] = ‘User-Agent: Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.8) Gecko/20100722 Firefox/3.6.8′; $header [] = ‘Accept: text/html,application/xhtml+xml,application/xml;q=0.9,/;q=0.8′; $header [] = ‘Accept-Encoding: gzip, deflate’; $header [] = ‘Accept-Language: zh-cn,zh;q=0.5′; $header [] = ‘Accept-Charset: GB2312,utf-8;q=0.7,*;q=0.7′; $header [] = ‘Keep-Alive: 115′; $header [] = ‘Connection: Keep-Alive’; $header [] = ‘Referer: sunking18.tk’;
$ch = curl_init(); curl_setopt ($ch, CURLOPT_TIMEOUT, 100); curl_setopt ($ch, CURLOPT_URL,$url); curl_setopt ($ch, CURLOPT_HTTPHEADER,$header); curl_setopt ($ch, CURLOPT_HEADER,true); curl_setopt ($ch, CURLOPT_RETURNTRANSFER, true); curl_setopt ($ch, CURLOPT_ENCODING, “gzip” ); //设置为客户端支持gzip压缩 $re = curl_exec($ch); $res = curl_getinfo($ch); echo “<pre>”; print_r($res);
?>
打印结果如下:
Array ( [url] => HTTP://sunking18.tk [content_type] => text/html [http_code] => 302 [header_size] => 311 [request_size] => 387 [filetime] => -1 [ssl_verify_result] => 0 [redirect_count] => 0 [total_time] => 1.467 [namelookup_time] => 1.014 [connect_time] => 1.03 [pretransfer_time] => 1.03 [size_upload] => 0 [size_download] => 167 [speed_download] => 113 [speed_upload] => 0 [download_content_length] => 167 [upload_content_length] => 0 [starttransfer_time] => 1.467 [redirect_time] => 0 [certinfo] => Array ( ) )
其中,url就是302跳转页面url,http_code就是http状态码,如果想要单独获得其中的一个参数,只要在curl_getinfo($ch,**)设置你想要的参数就可以了,比如,你想要获得http_code,就可以使用:curl_getinfo($ch,CURLINFO_HTTP_CODE),则会返回一个http_code字符串。很方便使用。
curl_getinfo 共有20个参数,如下:
这个参数可能是以下常量之一:
- CURLINFO_EFFECTIVE_URL – 最后一个有效的URL地址
- CURLINFO_HTTP_CODE – 最后一个收到的HTTP代码
- CURLINFO_FILETIME – 远程获取文档的时间,如果无法获取,则返回值为“-1”
- CURLINFO_TOTAL_TIME – 最后一次传输所消耗的时间
- CURLINFO_NAMELOOKUP_TIME – 名称解析所消耗的时间
- CURLINFO_CONNECT_TIME – 建立连接所消耗的时间
- CURLINFO_PRETRANSFER_TIME