采集变原创,SEO优化提高搜索率

网络技术 1437 0 2013-01-14

采集变原创,SEO优化提高搜索率

如何增加网站内容,如何创作独有内容,是个人网站的一个瓶颈。采集风行,用户和搜索引擎都对此反感。有效的技巧可以暂时避开搜索引擎的注意,但最终开是需要网站主有效地组织起内容来取得网络受众的欣赏。完全靠采集得来的流量,必不长久。

首先是内容的选择

网上世界千奇百怪,各个站长都千方百计地研究如何吸引眼珠。这做站如同做文章,不可能把所有的东西都收罗进来,要懂得取舍 再好的内容与你的网站主题也要符合,即使垃圾站(即无原创内容大部分是采集他人内容的站)初期阶段可能不予计较,但时间长了,垃圾站的目标仍是把垃圾做成 精品,否则就死定了。

如何选择好的内容,我认为要做好以下几个方面:

①选择内容要你的站的主题符合的比较好。

比如做轴承站的可以采集轴承新闻、轴承技术什么的,也可以大一点采集机械制造方面的,但不要太偏离了,就不要选择美女图片这样的内容,虽然这类内容 吸引人,但一方面给人造成的感觉不专业,另一方面也容易被百度K。 如果你觉得非采这个不可。可以搞个二级域名的方式专门建个相对独立的站,如pic.xxx.com,和主站相对脱节。 字串7

②采集的内容的格式尽量统一。

尽量选择些精品网站进行采集,采集内容的风格和格式要尽量统一,否则会显得不专业,显得太散乱,影响客户的访问情绪。

③不要一次性采集太多。在建站初期各个栏目适当采集几百条垫底就行了然后每天都采集一些,否则初期太多的流量对一个新站来说也无太大裨益,而且很危险,容易被百度K站。

④采集内容要选好关键字,做好网站的tag,不要见内容就收,否则真成垃圾了 查关键字在百度中的排位情况,是不是有可能冲击前几位,有一二个关键字就够了,这个是流量的保证,就是网站的SEO的一部分,最近才学的,不太懂哈。

⑤为避免百度K站,选择不同编码的站是个不错的建议,比如可以采集big5的繁体站转化成自己的gbk的,有能力的甚至可以通过机器翻译把英文的变 成中文站,这样都是原创性的了,被百度K的可能性就是0。 我有一个客户把百度知识的东西通过翻译引擎直接做了个英文知识站。 招数千变,唯一的目标是有安全的流量。

⑥要采集的源站要有持续更新的能力,尽量不要采死站,呵呵, 一方面能经常采集,另一方面这样的站的信息有时效性,可保证你采集的内容新鲜。

采集工具的选择

采集工具不下几十种,如何选择适当的工具要看各位的爱好,其实学好一二种采集工具就可以了。 有cms系统自带的如帝国cms自带的采集, 有专门的采集的软件如火车头、小蜜蜂、贴探小黑、守望、三人行、ET等等,下面简单介绍一下:

①火车头采集软件,这个是最早的采集的软件,也是大名鼎鼎的采集软件, 软件安装有点麻烦,软件采用.net 架构,不过也容易搞定。 字串8 软件的优点很多,规则制订也相对简单,可以制订整个站的规则,也可以本地入库同步发布到网站。 缺点是发布模块不容易找,而且难于开发,对新手来说很难发布成功。 因为作者近半年都没更新,bug比较多,最新的V3.2快出来了,还是值得期待的。

②小蜜蜂采集,这个可以和他的BBWPS--小蜜蜂商务网站门户系统整合使用,也可以单独用,需要本地装php环境,也半年没更新了 不过对国外的一些cms如joomla支持,还是不错的。刚才有问做英文站采集,用这个也是可以的

③贴探小黑 这个是收费的采集器,对新手来说还比较好用, 但规则制订感觉好别扭,比较好的解决了发布的问题,速度也很快,最新的4.0出来后作者可能会停止开发了 这个对论坛采集比较好,对网站的cms还不支持,还有不能多页采集,缺陷比较多。

④三人行 这个软件还是下了很多功夫的,界面有些粗糙,感觉不到位,有些作弊功能很不错,比如论坛同时在线、批量发贴等等 呵呵,平时很少用。由于作者的功利因素有很多不同名字的软件版本,功能基本一样,有些混乱。

⑤守望。这也是php的平台开发的,可直接安装在网站服务器上,直接采集到服务器上,这个比较好,免除了数据上传时间。

⑥ET。这个可谓后起之秀,比较好用,制订规则也简单灵活,但有的地方还不成熟。支持的系统还不多,不过潜力很大,新出的模拟提交,基本上绝大部分类型的采集都可做了。

以上是采集工具的介绍,哪种好用要看各位的偏好了。

采集用到的工具还包括抓包分析工具,如sniffer,wsockexpert等。

ASP的采集器

源代码分析工具,对于地址隐藏的网页用遨游自带的viewpage也挺好, 好象火车头3.2附带的新的源代码分析工具放出来了,对一些难采集的网站可以试试。

一般大家喜欢用2000/xp自带的记事本查看源代码,建议升级到vistia的记事本,支持繁体和框架,绝对好用更深一步的还要学习破解 ajax,就里就不介绍了。 第三个方面我讲采集数据的加工。数据采集来固然可以直接发布到网上去,但经过加工效果会更好。 数据的加工包括去掉别人的广告,换上自己的广告,过滤掉一些外站的链接

数据格式的简繁转换及编码转换

网站优化SEO处理等等 这里要注意的问题是别人广告一定要过滤干净,否则自己得不到广告费,别人的GG帐户也不安全,反而也害了别人。 还有SEO处理不要过份,适可而止,否则只会起反作用。 更高层次的采集是把采集内容变成自己的原创,这个需要高手自编程序对数据进行处理。

目前为止还没见过这样的工具,不过有《疯狂作文》这样的软件出来,相信也不是做不到。

第四个方面是后续维护

这个后续维护也可以翻陈出新,把已采集的数据进行再加工,添加新的关键字,新瓶也可以装旧酒。

通过我对几十个客户的采集教程,谈下我的体会。 采集内容要关注一定热度的内容,比如QQ空间、QQ表情这些流量是很猛的,还有私服发布站、游戏类型的网站, 有针对性群体的网站也比较好做。我一个客户一个月前采集的女性论坛站,数据有4万,现在基本在线在150人左右,日发新贴140篇。还有一个台湾客户2个 月前采集的verycd电影站,现在日增新注册用户50左右,可见垃圾站还是有做头的。大体内容就讲这些了,有什么需要了解的请朋友们提出来!

上一篇:XSLT

下一篇:网站设计的专业性从何体现

讨论数量:1

天涯网魂 3 杠 5 星2013-01-14 10:53:54

说白了吧,采集器都不好用。因为这种工具是属于专业性的工具,并不是那种大众化的软件,所以,都需要具备一定的基础,譬如:至少要知道如何查看网页源代码吧,呵呵。
现在市面上有一些可视化的采集器,但这种采集器可适用的采集网站数据非常少,毕竟采集的需求及网站的结构是多变的,且有时候会很复杂。

如果从采集器这个范围来看,我建议是要明确您的需求,要采集那种类型的数据,文章居多,还是结构化的表格数据居多,是否需要登录采集,是否存在post提交的问题,采集后的数据是直接发布,还是存入数据库进行二次加工,再发布或分析。

如果是采集论坛、博客、文章的信息,建议可以考虑狂人、三人行、及火车头。
如果是采集结构化的表格数据,可考虑网络矿工、火车头、网络神采
如果侧重数据加工,则可考虑网络矿工,其对采集数据的加工能力非常强大,非常适合不懂技术的人员来使用。

使用简易型方面而言,基本都差不多,火车头比较复杂一些,但功能也很强,但总觉得功能很多,都不是特别有用。
网络神采使用也算简单,但其价格比较贵。
网络矿工使用比上面都简单一些,功能还实用一些,但由于刚推出不久,稳定性不是特别好。

看你自己选择了

请先登录再发表讨论。 2024-04-25

天涯网魂
3 杠 5 星
TA 的文章
TA 的随言
TA 的资源链