`
webcode
  • 浏览: 5947448 次
  • 性别: Icon_minigender_1
  • 来自: 上海
文章分类
社区版块
存档分类
最新评论

多线程带智能采集策略的采集系统

 
阅读更多
去年年底的时候曾经发过一个数据采集器《网页数据采集器》,那是专门针对某一个网站来进行采集的,如果需要采集新的网站内容,就需要修改代码并重新编译。

昨晚完成了一个带智能策略的采集系统。其实,这个策略的方案三年前就想好了,那时候打算用VB做,做了一半就搁置了。现在用C#才终于把这个方案实现了。

整个方案大概是这样的:

需要建立一个AC数据库,MSSQL也行,有四个表:PageType用于记录页面的种类,比如列表页和详细页两类;Url表用于记录要采集的网址,另外 还有一个字段TypeID标明该网址属于哪一种页面类型,比如是列表页还是详细页;Rule表记录着各种规则,主要有三个字段,FromTypeID源页 类型,ToTypeID目的页类型,Pattern规则;CjPage用于存储采集到的网页内容,还包含网址和页面种类。

采集策略的核心就在于规则库Rule。

工作过程大概这样:
1,采集线程从Url表抽取一个网址,并马上在表中将其删除,为了防止冲突,这个过程需要用多线程同步解决;
2,用WebClient请求该网址的页面内容;
3,取得内容后,给线程池的线程来分析处理,本线程回到1,继续去Url表取下一个网址;
4,线程池在有空闲线程时,会调用分析函数ParsePage去处理上次获得的页面内容;
5,先到Rule中取所有FromTypeID为当前网址TypeID;
6,如果没有取到任何规则Rule,则将本页内容写入到CjPage中;
7,如果取到规则,那么遍历规则,为每条规则执行ParseUrl方法;
8,ParseUrl根据规则的Pattern匹配到页面内容中的所有网址,并记录到Url中,规则的ToTypeID就是Url的TypeID。

至此,整个流程就完成了。下面举一个实际例子来说明一下:
我要截取动网开发者网络的所有ASP文章http://www.cndw.com/tech/asp/
首先,在页面类型库中加入列表页和详细页两行,再把http://www.cndw.com/tech/asp/写入到Url中,页面类型是列表页;
其次,在Rule中加入两条规则:
一,从列表页取得详细页的网址FromTypeID=1 ToTypeID=2,Pattern是· <a href="([^>]*)" target=_blank>,这条规则将会识别列表页上的所有详细页的链接,并记入到Url中,TypeID是详细页;
二,从列表页取得列表页的网址FromTypeID=1 ToTypeID=1,Pattern是<a href='([^>]*)'>下一页<//a>,这条规则将会取得当前列表页上的下一页的链接,并记入到Url中,TypeID还是列表页。
采集器工作时,如果采集的是详细页的内容,将会直接写入到CjPage中,因为没有FromTypeID=2的规则;而采集的是列表页的内容时,就要做两 件事了,因为有两条FromTypeID=1的规则,一件事是识别当前列表页中所有文章的链接并存入Url,另一件事是识别下一列表页链接并存入Url。
由于规则具有递归性,使得采集器能递归采集到所有的文章。

下面是一些核心源码(没有公开的都是一些数据层的添删改查的代码):

以下是代码片段:

using System;
using System.Collections.Generic;
using System.Text;
using System.Net;
using System.Threading;
using CJData;
using System.Text.RegularExpressions;
using NLog;

namespace CJ
{
/// <summary>
/// 写日志委托
/// </summary>
/// <param name="log"></param>
public delegate void WriteLogCallBack(String log);
/// <summary>
/// 采集
/// </summary>
public class CaiJi
{
private WebClient _wc;

public WebClient Wc
{
get
{
if (_wc == null) _wc = new WebClient();
return _wc;
}
}
private Thread thread;

public String Name = "";
public event WriteLogCallBack OnWriteLog;

/// <summary>
/// 开始工作
/// </summary>
public void Start()
{
if (thread != null) return;
thread = new Thread(new ThreadStart(Work));
thread.Start();
}
/// <summary>
/// 停止工作
/// </summary>
public void Stop()
{
if (thread != null) thread.Abort();
thread = null;
}

private void Work()
{
int times = 0;
while (times < 100)
{
Url url = Url.SelectOne();
try
{
if (url != null)
{
String page = Wc.DownloadString(url.UrlAddress);
if (!String.IsNullOrEmpty(page))
{
OnWriteLog(Name + " 成功抓取:" + url.UrlAddress);
times = 0;
ThreadPool.QueueUserWorkItem(new WaitCallback(ParsePage), new Object[] { url, page });
}
}
else
{
//OnWriteLog(Name + " 没有工作,休息半秒");
times++;
//没有工作,休息半秒
Thread.Sleep(500);
}
}
catch (ThreadAbortException e)
{
OnWriteLog(Name + " 外部终止");
break;
}
catch (Exception e)
{
times++;
OnWriteLog(Name + " 赚取" + url.UrlAddress + "出错,休息半秒。" + e.Message);
Trace.WriteLine(url.UrlAddress);
//出错,休息半秒
Thread.Sleep(500);
}
}
OnWriteLog(Name + " 完成!");
}

private void ParsePage(Object state)
{
Object[] objs = (Object[])state;
Url url = objs[0] as Url;
String page = (String)objs[1];
IList<Rule> rs = Rule.SelectAll(Rule._.FromTypeID, url.TypeID);
//if (url.PageType.TypeName == "详细页")
if (rs == null || rs.Count < 1)
{
CjPage cp = new CjPage();
cp.CjTime = DateTime.Now;
cp.Content = page;
cp.Url = url.UrlAddress;
cp.TypeID = url.TypeID;
cp.Insert();
}
else
{
foreach (Rule r in rs)
{
ParseUrl(url, r, page);
}
}
}
private void ParseUrl(Url u, Rule r, String page)
{
Regex reg = new Regex(r.Pattern, RegexOptions.Compiled | RegexOptions.IgnoreCase);
MatchCollection ms = reg.Matches(page);
foreach (Match m in ms)
{
Url url = new Url();
url.TypeID = r.ToTypeID;
url.UrlAddress = m.Groups[1].Value;
if (!url.UrlAddress.StartsWith("http://"))
{
if (url.UrlAddress.Substring(0, 1) == "/")
{
url.UrlAddress = u.UrlAddress.Substring(0, u.UrlAddress.IndexOf("/", 8)) + url.UrlAddress;
}
else
{
if (u.UrlAddress.Substring(u.UrlAddress.Length - 1) == "/")
url.UrlAddress = u.UrlAddress + url.UrlAddress;
else
if (u.UrlAddress.LastIndexOf("/") < u.UrlAddress.LastIndexOf("."))
url.UrlAddress = u.UrlAddress.Substring(0, u.UrlAddress.LastIndexOf("/") + 1) + url.UrlAddress;
else
url.UrlAddress = u.UrlAddress + "/" + url.UrlAddress;
}
}
url.Insert();
}
}
}
}

以下是代码片段:

using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Drawing;
using System.Text;
using System.Windows.Forms;
using System.Net;

namespace CJ
{
public partial class Form1 : Form
{
public Form1()
{
InitializeComponent();
}

CaiJi[] cjs;
private void button1_Click(object sender, EventArgs e)
{
Button btn = sender as Button;
if (btn.Text == "停止")
{
foreach (CaiJi cj in cjs)
{
if (cj != null) cj.Stop();
}
cjs = null;
btn.Text = "开始";
return;
}

richTextBox1.Text = "";
btn.Text = "停止";

int k = 100;
if (!int.TryParse(textBox1.Text, out k)) k = 100;
cjs = new CaiJi[k];
for (int i = 0; i < cjs.Length; i++)
{
cjs[i] = new CaiJi();
cjs[i].Name = "线程" + i.ToString("00");
cjs[i].OnWriteLog += new WriteLogCallBack(cj_OnWriteLog);
}
foreach (CaiJi cj in cjs)
{
cj.Start();
}
}

void cj_OnWriteLog(string log)
{
if (richTextBox1.InvokeRequired)
{
richTextBox1.Invoke(new WriteLogCallBack(cj_OnWriteLog), new object[] { log });
}
else
{
if (richTextBox1.Lines.Length > 3000) richTextBox1.Text = "";
richTextBox1.Text = log + Environment.NewLine + richTextBox1.Text;
}
}
}
}


posted on 2007-08-18 10:45 大石头 阅读(1999) 评论(10) 编辑 收藏
<!-- <rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:trackback="http://madskills.com/public/xml/rss/module/trackback/"> <rdf:Description rdf:about="http://www.cnblogs.com/nnhy/archive/2007/08/18/860656.html" dc:identifier="http://www.cnblogs.com/nnhy/archive/2007/08/18/860656.html" dc:title="多线程带智能采集策略的采集系统" trackback:ping="http://www.cnblogs.com/nnhy/services/trackbacks/860656.aspx" /> </rdf:RDF> --><script type="text/javascript"> //<![CDATA[ Sys.WebForms.PageRequestManager._initialize('AjaxHolder$scriptmanager1', document.getElementById('Form1')); Sys.WebForms.PageRequestManager.getInstance()._updateControls(['tAjaxHolder$UpdatePanel1'], [], [], 90); //]]> </script>

Feedback

#re: 多线程带智能采集策略的采集系统 2007-08-18 11:07 cnitsky.net
这些是次要的吧 主要的还是采集规则回复更多评论

#re: 多线程带智能采集策略的采集系统 2007-08-18 11:32 大石头
是的,我主要想说明的就是采集的策略设计。
我这样设计的策略,可以递归回复更多评论

#re: 多线程带智能采集策略的采集系统 2007-08-18 12:13 progame
智能体现在哪?回复更多评论

#re: 多线程带智能采集策略的采集系统 2007-08-18 13:01 dominic
没看出什么地方特别的。

还不如把程序发布了方便一些人。回复更多评论

#re: 多线程带智能采集策略的采集系统 2007-08-18 13:15 admi
很不错再接再历

-------------------------

专业中文站内全文搜索技术提供商
本站是专业的中文全文检索产品网站,本站提供了性价比很高的全文检索产品,可以使企业很容易的实现网站站内全文搜索功能
http://www.molchina.com回复更多评论

#re: 多线程带智能采集策略的采集系统 2007-08-18 13:16 T.t.T!Ck.
没看出哪里智能了?
就是因为应用了规则了?
但是不同的页面有不同的规则哦,虽然你这样做有点模板的味道,但是如果是根据单一内容自动生成正则表达式的话就够智能了
对于网页正文的抽取没有这么简单吧,连广告内容也采集回来这个可不是大家愿意看到的吖
如果是基于统计理论的信息抽取才算智能哦

一点愚见,多多指教回复更多评论

#re: 多线程带智能采集策略的采集系统 2007-08-19 00:09 overred
数据采集通用组件:OverredGatherCom发布(并附带使用demo)2007/08/08更新:支持集合值

http://www.cnblogs.com/overred/archive/2007/08/07/OverredGatherCom.html回复更多评论

#re: 多线程带智能采集策略的采集系统 2007-08-19 17:54 大石头
看到很多人关注的是我这个所谓的“智能”吧。

做过采集程序的人都应该知道,刚开始的时候,很多都是针对某些网站写的采集,所有规则,都是定好了的;到了后来,出现了根据ID列表采集、指定要 采集页面哪部分等较为智能的采集,但是,这些智能还是有非常大的局限性的。现在的很多采集程序,所能做到的最多的莫过于执行采集一个网页的某一部分内容 了,比如识别出一个网页哪里是标题,哪里是内容,这些已经没什么新意了,我也不多说。

文中我提到的智能,其实有点类似大学时候学的人工智能。使用者只需要指定规则,给出初始化条件,然后随着程序的执行,某些条件处理后,将会得到更多条件,而某些条件处理后,将会得到结果。

我这样做,尽管不是最好的,但是对于采集的页面,比起传统的方法来,已经好些了。

我非常赞同“T.t.T!Ck. ”的说法,基于统计理论,这个想法,我也想过,只是时间问题没有做出来。
一个页面,如果大量存在同样格式的数据,那么,就可以把这些判定为列表页,如果存在大量的内容,就可以判定为详细页。这样做,尽管不能涵盖全部,但也能应用到很多采集上去了。

没有做过采集的人,是很难看出这个“智能”的。

我写的程序,只是为了证实我这个想法是否可行,我不喜欢给出所有代码,抱歉!~回复更多评论

#re: 多线程带智能采集策略的采集系统 2007-08-20 12:43 gongzhw
顶帖 别沉了

个人签名~~
---------------------------
惊爆支持ASP、ASP.NET2.0空间500M+SQL数据库100M 特惠价格:128一年
支持asp 300M 虚拟主机68一年
支持asp.net2.0 300M 虚拟主机88一年,快抢拉~~~~~
虚拟主机 网站空间 域名注册 主机托管 免费主机 免费空间 免费asp空间 免费虚拟主机
免费试用~~~

联系QQ:43909413
<a href="http://www.myidc.info/webhost/stylehost.aspx">http://www.myidc.info/webhost/stylehost.aspx</a>
硬件配置图:
http://www.myidc.info/images/adyj.gif回复更多评论

#re: 多线程带智能采集策略的采集系统 2007-08-20 12:44 gongzhw
个人签名~~
---------------------------
惊爆支持ASP、ASP.NET2.0空间500M+SQL数据库100M 特惠价格:128一年
支持asp 300M 虚拟主机68一年
支持asp.net2.0 300M 虚拟主机88一年,快抢拉~~~~~
虚拟主机 网站空间 域名注册 主机托管 免费主机 免费空间 免费asp空间 免费虚拟主机
免费试用~~~

联系QQ:43909413
http://www.myidc.info/webhost/stylehost.aspx
硬件配置图:
http://www.myidc.info/images/adyj.gif回复更多评论
分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics