=for advent_year 2009 =for advent_day 7 =for advent_title Web::Scraper 简介 =for advent_author cnhackTNT 爬虫是一个非常有意思的话题。大家都知道在这个信息时代,数据就是宝藏,当你写好并部署完一批爬虫,然后敲下命令看着它们欢快而又卖力地去爬页面的时候,就像看到它们搬回了一堆堆的钻石原矿一样,绝对有快感的 --- 当然,咱说的是合法地抓取数据,而不是无耻地吸血 ^_^。 Web 发展之初,Perl 就得益于强大的文本处理能力而被用来编写各种各样的爬虫程序,今天这篇文章不会讨论真正的爬虫,因为这是一个非常复杂的系统,有非常多复杂的因素需要考虑,我们这篇文章将要说的是非常简单的从特定网页掘取你所需要的数据的方法, 而不是要实现一个完整而成熟的爬虫系统,当然对爬虫感兴趣的同学可以参看 CPAN 上的爬虫框架 M。 大部分的网页都是由一堆堆定义好的标签(Tag)和需要展示的内容所组成的, 这堆标签就是超文本标记语言(HTML/XHTML),网页的作者提供内容,超文本标记语言负责告诉浏览器将这些内容渲染成丰富多彩的网页。超文本标记语言并不是为了用作数据交换而设计的,因此面对形形色色画里胡俏的网页,你要想写个程序把其中你感兴趣的内容抓出来还真是不容易,很传统的做法就是用 Perl 里的 M 模块把网页抓回来,然后用正则表达式去匹配出你想要的内容。但一旦碰到干扰因素很多的网页,用正则匹配的方式就很不方便了,挠破后脑勺也不一定能想出一句漂亮而优雅的正则表达式来实现你的目标。那有没有更方便的方式去定位某个 HTML 网页中的内容呢? 哈!当然有!知道 CSS,用过 A 的朋友肯定对其中无比方便的 CSS 选择子倾爱有加,这个东东用来定位 HTML 中的元素实在是太方便了,那我们在 Perl 中怎样能用这样的方式去解析并挖掘特定网页中的内容呢?答案就是 A 编写的 M 模块。 =head3 安装 M 很简单: =begin pre $ sudo cpan Web::Scraper =end pre =head3 任务 让我们先设一个网页信息采集类的任务然后看看怎样用 M 来完成吧。 比如说我最近在做网络安全方面的分析,我需要收集最近的恶意软件,钓鱼或被挂马网站的域名列表,然后再进一步分析。那么我可能会去 A 网站的A收集它最近列出来的域名。页面中我们需要的信息以一个表格的方式呈现,看起来像这样: 我只需要表格中的第一个字段:B。祭出 A 中的 A 插件,很容易获知,我们所需要的信息都在一个 id 为 B 的 B 中,并且我想要收集的域名,就是这个表格主体内容 B 的每一个 B 的第一个孩子元素 B,取得这部分表格中所有的行 B,然后取出每行的第一个 B 中 B 标签的内容,也就是一个个的 B 所有的内容抓出来,然后在这些内容中解析出每一个 B,并将 B 中代表表格每一行的 B 解析出来丢给那个嵌套的 B,在嵌套的 B 中,我们再对 B 这一行进行解析,取出这一行所有的字段,也就是所有的 B
的文本部分,看起来像这样: 那么我们的方法是这样:抓取A,然后将该页面交给 M 来处理,解析出我们想要的内容,然后以所需的格式组织好输出就大功告成了,简单吧。 =head3 Web::Scraper 提供的方法 M 提供的方法很少很简单,就三个:B,B,B。 =head4 scraper() 方法 该方法负责按照你提供的参数来创建 M 对象,我们将会用这个对象来完成网页的解析。M 对象是可以嵌套的。相当于你列一张需要解析内容的单子。 =head4 scrape() 方法 这个方法告诉 M 对象从所给的网页(可以是 M 对象, M 对象,或者是字符串)中解析出你想要的内容。相当于你把这个单子交给具体的执行人,让他按照这个单子上规定的内容把东西取出来。 建议将 M 或者 M 对象作为参数传给 scrape() 方法,这样的话它会自动根据 HTTP 的 I 头和网页中的 I 字段来解决编码的问题,如果你直接传给它字符串形式的网页内容,你就得自己处理编码的问题了。 =head4 process() 方法 这个方法非常重要,通过它,我们可以用 CSS 选择子或者 XPath 语句来定位网页中的元素,从而取得我们需要的部分内容。相当于那个单子上所列出的具体的一项项工作内容,它告诉 M 对象该在网页中什么位置,取什么样格式(TEXT,HTML 或者 XML)的内容出来。 =head3 通过 process() 方法,用 CSS 选择子来标记我们需要的内容 很简单,经过上面的分析,我们可以这样来表示我们所需要解析的域名信息: =begin code process "#tablesorterID > tbody tr td:first-child", "domains[]" => "TEXT"; =end code 解释一下,上面语句的意思是:找到 id 为 B 的表格,接着找到这个表格中的主体部分 B
元素的文本内容,并把内容存到一个数组中,这个数组会被放到 M 对象调用 B 方法后返回的哈希中,并且你可以用 B 作为 I 来从这个哈希中取到解析出的所有域名。 =head3 构造一个 URI 对象 很简单: =begin code URI->new("http://www.malwareurl.com/listing-urls.php"); =end code =head3 组装代码 我们把全部代码写出来: =begin code #!/usr/bin/perl # filename: malscraper.pl use strict; use warnings; use URI; use Web::Scraper; my $url = "http://www.malwareurl.com/listing-urls.php"; my $worker = scraper { process "#tablesorterID > tbody tr td:first-child", "domains[]" => "TEXT"; }; print "Starting...\n"; my $result = $worker->scrape( URI->new($url) ); for my $domain ( @{ $result->{domains} } ) { print "$domain\n"; } =end code 运行一下验证看看: =begin pre $ perl malscraper.pl Starting... mediadatastorage.net multimediafact.com armyprotection01.com iwant2berich.cn 64.191.63.223 x000x.cn 91.213.126.93 print-design.cn 66.220.17.200 c24845.upd.host255-255-255-0.com y7099.nb.host-domain-lookup.com x2827.nb.host192-168-1-2.com upd.netbios-wait.com ciduninstall.com movngs.cn ... 省略内容 ... =end pre 瞧!很简单很方便不是?:-) =head3 增加需求 OK,现在我们有新需求了,我需要抓取刚才那个表格中的 B,B 和 B 字段,怎么办?没关系,先来分析一下: 表格中的每一行就是 B
块,我们需要这些 B 标签中的 I 内容(I,I)以及那面小国旗图片的URL中代表国家的两个简写字母(比如 A 中的 B)。 这样,解决方法就出来了,我们可以把 B
的文本部分以及代表 B 的图片地址。重新构造一下我们的 B: =begin code scraper { process "#tablesorterID > tbody tr", "rows[]" => scraper { process "td", "cols[]" => 'TEXT'; process "td > div > img", country => '@src'; }; }; =end code 解释一下,上面我们使用了嵌套的 B,这是啥意思呢?第一个 B,我们先找到 id 为 B 的表格,然后找到它的主体部分 B
标签的文本部分,存到一个数组里,这个数组会被作为一个数组引用保存在一个结果哈希中,其 I 就是 B。同时,我们还取出每一行中唯一的图片URL,以 B 为 I, 也保存在结果哈希中。 此时,结果 B<$result> 看起来像: =begin code $result->{rows} = [ { 'country' => bless( do{\(my $o = 'http://www.malwareurl.com/img/flags/US.gif')}, 'URI::http' ), 'cols' => [ 'mediadatastorage.net', "69.10.41.147\x{a0}", "reverse41-146.reserver.ru\x{a0}", "AS19318 (NJIIX) \x{a0}", "Fast Flux Trojan\x{a0}", "Patrick F Godwin / patrickf\@loveable.com\x{a0}", "\x{a0}", "2009-12-05\x{a0}", 'details' ] }, { 'country' => bless( do{\(my $o = 'http://www.malwareurl.com/img/flags/US.gif')}, 'URI::http' ), 'cols' => [ 'multimediafact.com', "69.10.41.147\x{a0}", "reverse41-146.reserver.ru\x{a0}", "AS19318 (NJIIX) \x{a0}", "Fast Flux Trojan\x{a0}", "Patrick F Godwin / patrickf\@loveable.com\x{a0}", "\x{a0}", "2009-12-05\x{a0}", 'details' ] }, # ... omit the rest part of codes ... =end code 于是,整个结构就很清晰了,只需要对结果集做一些处理便可以满足我们的需求了。 完整代码: =begin code #!/usr/bin/perl # filename: malscraper.pl use strict; use warnings; use URI; use Web::Scraper; my $url = "http://www.malwareurl.com/listing-urls.php"; my $worker = scraper { process "#tablesorterID > tbody tr", "rows[]" => scraper { process "td", "cols[]" => 'TEXT'; process "td > div > img", country => '@src'; }; }; print "Starting...\n"; my $result = $worker->scrape( URI->new($url) ); printf "%-50s \| %-15s \| %-2s\n", "Domain", "IP", "Country"; print "-"x80, "\n"; for my $row ( @{ $result->{rows} } ) { my ($domain, $ip) = @{ $row->{cols} }[0,1]; my ($country) = $row->{country} =~ /\/(\w+)\.gif$/; $ip =~ s/\xA0$//; # truncate "\xA0" at the end printf "%-50s \| %15s \| %-2s\n", $domain, $ip, $country; } =end code 运行一下看看效果: =begin pre $ perl malscraper.pl Starting... Domain | IP | Country -------------------------------------------------------------------------------- mediadatastorage.net | 69.10.41.147 | US multimediafact.com | 69.10.41.147 | US armyprotection01.com | 88.198.160.57 | DE iwant2berich.cn | 64.191.63.233 | US 64.191.63.223 | 64.191.63.223 | US x000x.cn | 210.51.166.119 | CN 91.213.126.93 | 91.213.126.93 | UA print-design.cn | 193.104.22.20 | UA 66.220.17.200 | 66.220.17.200 | US c24845.upd.host255-255-255-0.com | 66.220.17.200 | US y7099.nb.host-domain-lookup.com | 66.220.17.200 | US x2827.nb.host192-168-1-2.com | 66.220.17.200 | US upd.netbios-wait.com | 66.220.17.200 | US ciduninstall.com | 66.220.17.200 | US movngs.cn | 210.51.166.241 | CN ... 省略结果 ... =end pre 哦耶!很 Cool! =head3 疑问:谁帮我抓的网页内容? 好问题!M 有用到 M,如果你给 B 方法的参数是一个 M 对象,那么 M 内部会把参数传给 M 叫它去抓网页,然后返回一个 M 对象再进行下一步处理。 M 模块本身不是一个特别复杂的模块,你可以查看它的源码以获取更多的细节。 如果有任何问题,请来 A询问。(或发送任意邮件到 B 申请加入列 表) Enjoy!