如何防止辛苦写的原创内容被采集

本站运营有一年了,没有进行主动推广和引流,完全靠自己的原创文章,慢慢爬上来的。居然发现有人对自己的博客内容进行采集,特别是被某些权重较高,流量较大的站采集,这个叫痛啊,不过还好,采集的帖子排名都还在我的后面。

但是面对这个“共享”的互联网,有良心的站长还是存在,给你留个链接宣传一下。不想做杨白劳,还是为防止采集做点事情吧。

为文章中的图片加水印

这个方法适合博客类的站点,博客类的站点内容都需要原创或者高度伪原创才行,不然很容易被百度判断为低质量内容,不给于权重。但是图片站就没必要加了,越干净越能来IP,大部分的网友都希望自己找来的图片能减少P图的工作时间。万一有人要采集,也有办法对付,后面有介绍。

文章图片使用原则:图片与文章内容切合,网上不缺图!找就是了,图片不要小于400*400,大小不要大于100kb,水印不要太夸张,这个影响用户体验的。

随机穿插一些自己网站的名字

这个方法对用机器采集的方法还是有效,一般来说,采集编写规则里面从某个<p class=””>开始,到某个</p>结束,也会对非站内链接进行过滤,但并不对内容本身进行过滤。

但是对手动复制编辑的方法还是没辙,就跟家门口的锁一样,没有解不开的锁,只是增加解锁人的难度而已。

文章内容适当的地方加写推荐的内容链接

这个在编辑的时候多花点心思,推荐内容可以很明显,这个对用户体验来说也是合理的,参考文章《SEO优化编辑文章内容新手必知技巧》

尽量在晚上更新文章

除非你的内容非常多,质量非常高,才会引起采集者的注意,别人想尽办法来采集,摸清你的更新习惯,不怕贼偷就怕贼惦记。搜索引擎对文章原创以更新时间为判断标准,很少有人在晚上守着你的网站。对于自动或半自动采集的人,唯一的办法是下面这种。

文章编辑好了之后立即手动提交给百度

提交内容给百度是必须要做的,谁提交的得早就判断为谁是原创,当然权重高的不必多说,有可能排名在你的前面。

提交链接给百度现在有主动提交和手动提交,具体看看百度站长教程就好了,其实很简单把相关代码加到页面的尾部就好。参考文章《新网站快速提高SEO索引量文章链接推送到百度》

推荐用sitemap提交和主动推送(实时)相结合,两者并不冲突,观察一段时间后,自动提交的有实效些,几乎每天都向百度提交页面,但是sitemap有两种格式:xml和html。后者对用户来说较为友好,前者是蜘蛛要用的。

有效防采集技巧

前面有介绍防采集的技巧,不建议用隐藏链接或文字的方式防止采集,这个对百度评判标准来说是属于黑链,会给予降权。具体有效防采集的方法参考文章《dede防采集功能的隐藏文字链接是黑帽技术作弊吗》。

打造中小型企业高权重网站指南

网站如何才能快速达到关键词排名,获取高权重、高流量、高粘度呢?或许这是大家绞尽脑汁都想知道的答案,针对地域不同,行业竞争度等环境下,关键词竞争度也不尽相同。

特别是中小型企业,各方面的条件都不允许专门设立一个部门搞优化,一般都交由优化公司去做。秀站技术员小美来谈谈快速排名吧。

中小型企业网站基本情况

中小型企业网站的流量相对其他论坛、平台的少,甚至做得一般的每天只能来100-200个IP,没流量,排名总是上不去,要是建站公司跟你承诺一个月就能把网站排名做上去,你信吗?我信。

但是是有条件的,从某个优化公司了解到,一般能把排名快速提升到前3名,是要求关键词到了前20左右。其实只要有资源(本人亲测过)确实能通过交换链接、点击流量排名等操作进行快速排名,而且不低于24天。

这就是我们要讨论的高权重了吗?网站有全网锚文本换链接作为权重衡量依据。如果新站被很多老站推荐,那排名相对来说是有所提升的,但是如果用户体验不好,不久也会被拉下来。

一 用户体验度是首位

怎么提高体验度呢?高权重的用户体验是较好的,因为每个优秀的站长都会进行数据分析,包括热力点击图分析,点击链接图分析等,良好的布局是关键。

1.深入挖掘用户需求

才能懂得用户真正需要什么,换句话说是站在用户的角度思考问题。特别营销型网站或像淘宝、京东店铺在布局的时候,往往把最新的促销信息放在最前面,这无可厚非,但是如果没有差异化,恐怕没哪个会有欲望看广告。

2.原创内容

这里会有人问,原创内容就是全部自己写?错!原创内容也需要模仿,即是差异化竞争,如果某件商品或者某项技术都被每一位站长抄袭,为什么还收录你的或者为什么给你较高权重。原创内容切记长篇大论,时间有限,解决问题即好。

二 由上引出打造高权重网站的SEO优化重点

1.相关问题被提出来,收集并分析重点

寻找用户需求,是你做排名的主要手段,我们会通过许多工具,如百度指数、百度知道等,寻找用户搜索的相关热点问题,整理成档。列出重点关键词,围绕这些关键词寻找长尾关键词。

2.很多人回答问题,但并没有找到合适答案

人们为了寻找这个关键词的其他相关内容,会在搜索引擎下留下痕迹并被百度记录下来以供分析,比如:关键词“装修”会延伸出:装修效果图、装修公司、装修合同等。如果很多人都搜索这些问题,站长对相关内容进行推荐(或回答该问题),而百度指数还没显示该问题需求降低,证明还是没找到合适的答案,可以进一步挖掘。

3.站内进行差异化竞争

大家都容易找到的内容可以一笔带过,重点优化挖掘尚未被人解决的问题或者提出自己独特看法,结合相应的文字、图片、数据进行阐述,让用户的兴趣增强。

4.让用户贪小便宜得逞

知道“免费经济”给营销带来什么吗?比如很多站长需要站长图库,但大多数网站都需要注册后付费下载或靠发帖(或上传你的其他图库)换积分下载。而你只需要让用户@你的微博号,订阅微信或让用户玩在线flash小游戏,奖品就是兑换积分。换一种思维,其实互联网就是因为共享精神才让越来越多的人参与进来。

5.成全用户拿到看到的东西

不要让用户保存图片、复制内容、下载高清无码大图都成为障碍,甚至有的站点先注册才能登入站点,这对搜索引擎本来就不友好,何况挑剔的用户呢?换个方式说,既然来了,多少还是要扒点东西走。如果那么“大公无私”,下次我还来扒!成全用户就是成全我们自己,流量上了,还愁没合作的人吗!

6.定时(及时)更新增加信任度的内容

中小企业站的内容是非常好做的,主要是中小企业站的竞争对手都比较弱,缺少相关人员更新内容,甚至从建站公司拿到手后,就丢着不管,哪里会有业务来?

更新内容主要集中在用户信任度:适用人群、如何使用、效果如何、安全保障、发货物流保障等。不必发布行业信息,行业信息的发布渠道应该是新闻媒体,何况你也竞争不过新闻媒体。

总结

综上所述,快速打造高权重的中小型网站的技巧就是深入挖掘用户需求,全面提高用户体验及信任度,才能让各项优化指标健康向上发展。最后快速排名的捷径只有一个:认真对待每一个用户的需求,你满足了用户,获取的流量就越快,排名越靠前,获得优秀排名时间也会缩短。

解释DedeCMS数据库完整备份还原功能

再次强调,做任何修改之前请备份数据库!Dedecms在做一些操作的时候,比如更换新的内容模型,后台就会显示什么文章都没有,如果被收录了,再想修改就比较麻烦了。站点更换空间或服务器(网站搬家),需要进行数据库的备份。查看文章最全dedecms数据库及服务器空间更换教程

建议站长们每半个月进行一次数据库备份,1-2个月进行整站的备份,万一出现问题数据库的备份能让我们的损失最小。

1.DedeCMS后台备份

具体步骤:登陆后台程序>系统>数据库备份/还原>备份表结构信息>提交。

 往下拉直接备份就好了。

2.在服务器空间上备份

一般的服务器空间或虚拟主机上都有数据备份的功能,以万网主机为例,步骤如下:登陆万网主机管理控制台>工具&服务>备份恢复>备份站点。

3.以上两处数据库恢复还原

方法与备份方法相似,这里就不累述了。

SEO查询百度索引量和收录量的区别

做网站SEO的时候经常用到SEO命令site命令,查询自己网站的收录情况,收录量与索引量的数据并不相同,网站的权重应该以哪个作为主要参考呢,对网站优化又有什么启示呢?

百度索引量

百度官方给出的解释:索引量仅指被百度搜索引擎建立了索引的网页总量。不同网页因内容重要性、稀缺性不同,被展现的几率有很大差别。

索引量是蜘蛛对一个网站内容页面的抓取,整理所形成的一个数据库。网站的页面越多,这个数据库就越大。百度官方的索引量工具可以查询网站的索引量数据,这个数据相对来说还是比较准确的。

百度收录量

收录量是指搜索引擎对网站页面的收录数据。蜘蛛首先爬取网站,建立一个索引库,然后放出的页面数量就是收录量,一般Site命令查询出来的数据结果就是收录的数据,这个数据不是非常准确,作参考指标

收录意味着每个页面至少会对应一个网页快照,快照页面是参与SEO排名的,收录量越多,参与SEO排名的页面也就越多,相对来说获得流量的范围就越大,自然排名越好。

索引量和收录量的对SEO优化的意义

从SEO优化角度来说,网站优化应该分三步:

第一步建立索引,蜘蛛抓取网站,建立索引页面;

第二步收录,蜘蛛根据页面内容和权重等因素放出网站的快照页面,从而可以参与关键词的排名;

第三步关键词排名优化,争取获取更多的SEO流量。

索引量多于收录量

一般来说,索引量数据大于收录数据,特别是对于新站来说,刚开始面临审核周期,索引数据不断增加,收录却很难增长。

当索引量高于收录很多的时候,应该把重点集中在内容质量上。增加原创文章的更新,减少转载,特别是一些低质量内容的转载。

索引量少于收录量

索引量少于收录量情况毕竟不多,这两个数据应该相差不会太多,相差太大的话一般都是网站出现了问题。如果网站索引量和收录量完全一致,是不是就不存在问题?其实,收录数据(Site命令)是实时变动的,也不是非常准确,如果索引量和收录量完全一致的话,只能说是巧合。用SEO命令的时候需要清除一下缓存,不然出现的结果时常有误差。

索引量和收录数据能够在一定程度上反映出蜘蛛对网站喜好和信任程度,单纯的看这两个数据还是不够的,还要结合网站的页面数量,快照的更新时间以及网页的收录时间等,通过综合的数据表现,发现网站潜在的问题,评估工作内容的效果和下一步工作重点。

快速提交索引到百度方法

百度站长工具有链接提交的工具,参考文章《新网站快速提高SEO索引量文章链接推送到百度》,第一时间提交到百度,能保护自己的原创文章本身的权重,也能吸引蜘蛛过来抓取新的内容建立索引。

索引量和收录量总结

索引量的多少一般由网站页面数量决定,要想索引量不断增加,就需要创造高质量的页面内容,不断吸引蜘蛛爬取,索引量数据出现了大的波动,蜘蛛抓取的次数和频率也会有相应的变化,这种变化是关联的,收录也会随着索引的增加而增长,两者的数据可能不一致,但是这种变化趋势应该一致,这种数据趋势可以体现出网站目前的状态,对后续的SEO工作有很大的指导作用。

百度算法升级削弱外链功能,增强用户体验和高质量原创内容

       2015年7月3号,百度站长发布了《》的重要文章,百度站长平台的外链拒绝功能按钮取消了,呼吁站长不要再为了做外链而浪费时间和金钱了。

       权重即是对用户有价值的就给予投票(权重得分),外链有没有价值?在互联网抄袭泛滥的情况下,用户希望找到原文的出处,这个是有意义的外链。至于被降低权重得分,笔者只提出:外链对权重的影响的已经达到历史上最低,友情链接不受影响反而得到重视,百度会保留和信任非常小范围的重要外链。

这是白帽seo和黑帽seo的战争

       在重庆seo优化中,仍有许多站点没有按用户的角度做网站,某些站点资金雄厚,砸钱做竞价(SEM),但转化率低仍是不争的事实。这次超链算法升级好坏掺半。

       好处:优化团队苦于做外链,花费大量时间刷论坛、博客。现只需交换高质量的友情链接或在知名度高的相关网站做外链即可,百度会自动过滤垃圾外链

       坏处:利用外链提高排名的优化方法效果不明显,网站优化无从下手。其实百度目的是为用户着想,不让垃圾站点再占用宝贵的前几位。笔者自己用百度,更研究百度,希望展现出来的是自己想要的,而不是赤裸裸的广告!接下来重庆seo优化该怎么做?

一 减少做网站外链,重视友情链接

       算法扩大了垃圾外链的覆盖面,不需手动拒绝垃圾外链。百度仍信任小部分站点,如新浪、搜狐、腾讯等类似网站。再继续做B2B、分类信息、论坛等外链,可能徒劳无功,不能触及绿萝算法。《什么是百度绿萝算法该如何深入解读》

二 加大网站内容建设,注重用户体验

       百度一来是推广自身的产品,二来提醒站长们站在用户的角度去思考问题。希望网站提供给有价值的内容,而不是东搬西凑。站长们都不可能做到全原创,笔者的优化角度是:大家有的一笔带过,做好差异化竞争,赢得用户信任

       一篇优质内容需要一天以上进行整理筛选,找到最大需求。如百度百科,对词库内容修改,需向百度提交相关的资料,以提高信任度,且对资料来源也有较高要求。网站seo优化也是如此,用户粘度是建立在信任度的基础上,需要其他平台的支持。

       有多少站长站在用户的角度做页面设计?京东、天猫这些购物平台不注重体验,进入网站后全部是广告,且不经过审核,用户感觉是一个杂货铺。这样的网站如何能产生粘度!

三 日常工作计划要进行调整

       平日的工作是发外链、做内容、调整页面、分析数据等,职能划分也有外链专员、网站编辑、网页设计、网站美工等。这些职能部门必须重新规划,才能让效果最大化。很多中小型公司连最基本的人员职能都没弄清楚,更没有工作职能范围划分,具体工作要根据实际情况来调整。

外链算法总结

       如果你从事SEO,注定了是一个与时俱进,站长时代前沿的工作,需要不断的完善自己,按照数据及实际情况调整自己,才能够站在这个行业的顶峰。越来越多的站长认为,工作的难度并没有提高,反而是回到正途,算法的改进正是让许多妄图走捷径的站长们重新看看自己是不是走错了。

百度广告位调整对SEO排名影响

       2016年高考在即,百度2016年5月25日终于做出调整推广广告位的通知,这则“广告位调整”是考验“SEO学子”的重要命题,如果你一直坚持注重用户体验,那就能脱颖而出,把“百度输血”网站、垃圾网站摔几百条街。

       这则“广告位调整”命题告诉我们百度竞价广告位只保留了左侧的四个广告位,右侧广告位去除。这个对SEO自然排名是好还是坏呢?站长们的讨论值得大家重新拾起SEO排名的信心。

①广告位的调整(主要是广告位数量和位置)对白帽SEO有什么好处;
②新形式下如何精准推广,减少不必要的浪费;
③引流方式的改变,SEOer需要怎么做。

       很长一段时间百度的左侧广告位长达半页以上之多,让做SEO站长实在是烦恼。有些土豪让关键字宽泛匹配,自己浪费钱不说,让真正想搜索的人找到的结果都是广告页,传说中的用户体验呢?一则“魏则西”事件发生后,百度被扒下一大块肉,与其说百度一直在慢慢改进不如泼冷水说是故意而为之,回想当年谷歌对我们这些要写毕业设计的童鞋是多么强大,图书馆找不到的内容在谷歌里基本能找到!

       对“百度推广”这几个字在这段时间内来说是一个刺眼的词,或多或少影响了正常的推广效果,反而唤起了人们对严格的自然排名网站的青睐,这可不是秀站网SEO说着乐呵,如果你有网站看看效果就知道了。

       回到正题,广告位的减少对很多站点的被动流量带来诸多影响,需要利用其它资源增加网站流量。如果你是公司网站的运营,就应该看看新制度下,如何为网站带来可观的流量。

做好站内的搜索引擎优化SEO

检查网站站内基础优化

       就跟每年的高考一样,80%-90%都是基础题,只有这10%左右才是决定命运的时候。所谓的基础优化的内容相当多,参考相关文章集《网站站内优化》。秀站网SEO认为,没有最好的内容,却有最优的结构。百度蜘蛛或其他蜘蛛说白了都是围绕着站内链接爬取某个页面的内容。蜘蛛不能爬取或者再次访问已经放出的快照时已经不存在页面了,这些情况都会降权。

       因此经常检查自己网站的链接情况,有助于让蜘蛛更好的爬取内容,增加更多的索引量,让自然排名更好。

用户需求“关键词数据池”

       自然排名最重要的莫过于站内的优化,不是为百度增加内容,而是解决用户需求的优质内容。你可以不一定是原创内容,这里要提到“关键词数据池”的概念,每一个需求都会存在非常多的关键词或长尾关键词,这个数据池会在特定的范围内发生变化,但是总体的数据池是保持稳定的状态。

写关键词相关内容而非口水话的叙述

       我们做SEO就要根据数据池做相关内容,而许多做SEO的并不知道如何正确摘抄的别人的内容来获得流量,反而觉得越口水化的文章越是“原创”。就跟真正的原创音乐和粗制滥造的网络音乐,你愿意听哪种呢?

做好站外流量引流工作

解读整改意见:百度不能单纯以出价决定排名,必须调整算法兼顾用户体验和用户反馈

       秀站网SEO不是懒,是站内做好了,其实都不太愿意发“外链”了。如果你的网站本来就缺流量,就应该以引流为重心,通过后台反馈的信息做站内调整。

       这里指的不是上个世纪的垃圾链接,而是口碑的推广。比如百度知道、百度口碑、百度百科等。百度知道稍微容易些,后面的难度稍大。

       从这样来说,凡是能提升用户体验、企业口碑、企业信誉度的方式都可以做

       记得有一家装修公司就不怎么弄自己的官网,反而把自己的百度百科推到首页,大多数公司运营官是为了提高自己线下的转化率,其实这也是是一种引流的好方法,也是口碑营销的重要手段,但也要注意官网本身的转化率问题,不能说是土豪的做法,每年烧个50多万是正常的。

要给企业加“V”(虽然讨厌)

解读整改意见:百度出台相应的消费者保障机制

       加“V”不知道什么时候成为了中国人判断好坏和装13的标准,你看到百度搜索栏的 右侧那个“百度搜索 有V有保障”这样的对用户的引导,还有“官网认证”等烧钱的伎俩,都是给企业站的土豪们准备的。

其他百度寻客推广、知心推广等

      笔者尚未清楚,可留意网上其他相关内容。付费推广不一定是砸钱打水漂,了解其他推广:360推广、搜狗推广等,多多对比,或许能找到适合自己的省钱、效果又好的网站的推广方式。

删除旧域名百度快照集中权重

   前段时间增加了建站二级域名,原来博客站的主域名不带www,把主域调整为www.xiuzhanwang.com之后,需要做几个重要修改,否则权重就会分散,降低网站权重。分享血的教训,让新站长少走弯路。

       本博客刚开始的时候主域是xiuzhanwang.com,但很多带www的页面被收录,不想让百度再抓取这些页面,如何删除呢?这让秀站网秀站网相当烦恼。

重复收录页面的原因

1.动态内容已被抓取

      百度蜘蛛会根据页面的链接情况爬取并放出快照,如页面内容调整或者删除了,快照就较难删除。

常见的有:
/tag.php?/%CF%D6%B4%FA%BC%F2%D4%BC/  (tag标签)
/plus/list.php?tid=3   (dede动态列表)               
/plus/list.php?tid=85&zxfg=%CF%D6%B4%FA%BC%F2%D4%BC等   (dede筛选)

       有的朋友说把那些页面设置为404就好,参考文章《网页404页面制作及注意事项》但是已经被删除的静态页面还好,动态页面就没办法。建议新手采用静态页面的方式学习SEO

2.仍存在相对路径

相对路径形式
/web/   (目录)
/seo/    (目录)
/images/logo.png
/css/style.css
绝对路径形式
http://www.xiuzhanwang.com/web/  (目录)
http://www.xiuzhanwang.com/seo/  (目录)
http://www.xiuzhanwang.com/images/logo.png  (文件)
http://www.xiuzhanwang.com/css/style.css    (文件)

       www.xiuzhanwang.com的实际上是二级域名(和m.xiuzhanwang.com是同等的权重),如果两个域名都被抓取了,并且URL是相对路径,百度蜘蛛会在两个域名下重复抓取,放出的快照是有一些www,一些又没有www。建议URL路径采用绝对路径的方式,即使被收录了,久而久之也会慢慢的恢复,只是时间比较长。设置方法参考文章《什么是URL绝对路径和相对路径SEO优化重要环节》

3.突然改变主要域名

原主域名xiuzhanwang.com 修改为www.xiuzhanwang.com

       90%以上的新网站都没做好301,不然为什么还有这么网站需要优化呢?301原来用得比较多的是换域名,现在做网站SEO游湖是不可能找个新域名,地球人都知道老域名相对更容易些。

       中途才做的301,旧快照消失经常持续几个月不等,很明显感觉排名受影响。百度蜘蛛经常对正常优化方法有延后性,但是对黑帽的却响应及时得很…改变域名的影响参考文章《避免更换域名或改版带来的损失降到最小》

4.中途才设置伪静态

       搜索引擎确实对静态页面有青睐,但每次都要生成,如果虚拟空间支持.htaccess的就能做伪静态,形式如:

动态:
http://www.xiuzhanwang.com/plus/list.php?tid=1
伪静态:
http://www.xiuzhanwang.com/list-1.html

       秀站网已经写了很多关于伪静态的文章了,点击查看伪静态设置,一般伪静态是后面进阶优化的时候才做的,一般SEOer接手的网站都是较差的…这样的情况解决起来比较棘手。

5.自带的临时三级域名被收录

       每个购买的空间都有一个临时域名,其实被抓取临时域名这样的情况还是比较多见,所以在刚开始建站的时候用robots屏蔽全站,建设好了才让蜘蛛抓取,解决的办法只能是301。参考文章《什么是robots协议对seo的影响》

6.网站多次改版

       一个网站刚开始的时候都会进行或多或少的调整,包括结构调整和内容调整等,有很多死链产生。拿到手的网站都比较差的原因,死马当活马医的情况还是比较多,除非网站有上千个被收录,这时死链比较影响权重。

       一些情况较差的网站就可以调整后重新生成网站地图,向百度提交死链。设置方法:网站地图sitemap,如果是有规律的话可以提交网站改版,写好改版规则即可,最终完成全部改版时间也是1-3个月不等。

删除重复收录的百度快照方法

1.闭站保护

       找了很多网上资源,由于站内写了比较多的.htaccess规则,比较麻烦,还是选择百度工具的“闭站保护”功能,有朋友误解为能删除这些快照,其实这些快照不被人看到而已,还是存在索引。当然而且又一定的时间限制。

        把不想被抓取的域名申请闭站保护,一般都会通过,也不需要让页面返回404,会在2小时左右闭站成功。

2.全部链接换成绝对路径

        不管被抓取的页面如何,如果里面的路径都是主要域名的路径,权重也不会分散到哪里,蜘蛛就不会重复爬取页面。

3.加大更新高质量原创文章

        在做了必要的301重定向和绝对路径修改之后,百度会进一步考察新域名的情况,这个时候一定要加大高质量的文章内容,这样新域名和老域名的情况就有不同,蜘蛛会积极爬取,久而久之百度就停止老域名的抓取。

4.对已被搜索引擎抓取的页面处理

      静态页面直接向百度提交404就好, 针对某些动态页面,比如搜索页面、问答页面等,这些如果被抓取了很有可能会影响我们网站的关键词库,方法有很多:

①声明该页面不建立索引,在源代码</head>之前加

<meta name="robots" content="noindex">

②robots声明不允许抓取;

③在页面的<title><keywords><description>不调用任何搜索词,动态搜索页面是不那么容易被删除的,前段时间还有万网搜索让黑客注入大量的垃圾信息,造成SEO排名下降,就是调用了这些搜索词;

       剩下的就是等搜索引擎进一步处理了,这时候应该多更新高质量内容吸引蜘蛛来爬取页面。

TAG标签使用与整理注意事项

       网站TAG标签也称标签云,是对网站内容的细分,对栏目分类的补充与细化。TAG标签不是神话,利用好会让网站排名有一定帮助;利用不好极易造成页面权重分散。

使用TAG标签的技巧:

①如果还没有足够多的内容,建议用robots屏蔽搜索引擎抓取,保持原页面权重;

②TAG标签URL是动态,搜索引擎会认为这些页面不稳定,可采用URL伪静态的方法;

③CMS利用keywords生成TAG标签,注意页面的关键词与内容的匹配关系;

④TAG标签是含有同一个keywords的文章聚合,极大的满足用户需求和搜索引擎的匹配关系;

⑤不要频繁修改、增加TAG标签,已删除的TAG标签页面并不会返回404错误,参考⑨;

⑥尽量不和网站主关键词相同,造成和主页关键词竞争,权重分散;

⑦字数不宜超过6个,也不可太少如一个字;

⑧一篇文章最好不要超过3个TAG,要与文章内容匹配,该TAG下文章最少要有3-5篇;

⑨整理TAG标签请参考⑥⑦⑧的原则,对已经收录的TAG标签,删除后的操作参考文章《删除已收录的TAG标签后如何删除动态页面快照》、《DedeCMS删除tag标签后返回404状态码》。

DedeCMS获取、整理TAG标签

       TAG标签实际上是页面的keywords而来,必须先整理好每一篇文章的关键词,再进行如下操作

1.获取文章关键词

       核心 -> 批量维护 -> 文档关键词维护 -> 检测已有的关键词

       建议不自动获取关键词,会出现非常多的垃圾分词。

2.获取TAG标签

       核心 -> 批量维护 -> TAG标签管理 -> 获取tags

3.整理、删除文章关键词和TAG标签

      如果在获取文章关键词的时候出现许多乱七八糟的分词,请仔细检查全部文章的关键词后再重新获取。如果逐个删除这些关键词是很麻烦的,建议用SQL命令或者用navicat打开数据库对应的表进行操作:

关键词相关表:dede_keywords
TAG标签相关表:dede_taglist,dede_tagindex

mysql让自增ID归0方法:

①如果曾经的数据都不需要的话,可以直接清空所有数据,并将自增字段恢复从1开始计数。

truncate table 表名

②不清空已有数据,操作比较灵活,不仅可以将自增值归零,也适用于删除大量连续行后,重新设置自增值并插入新的数据。

dbcc checkident ('table_name', reseed, new_reseed_value)

       当前值设置为 new_reseed_value。如果自创建表后没有将行插入该表,则在执行 DBCC CHECKIDENT 后插入的第一行将使用 new_reseed_value 作为标识。否则,下一个插入的行将使用 new_reseed_value + 1。如果 new_reseed_value 的值小于标识列中的最大值,以后引用该表时将产生 2627 号错误信息。

网站内容布置SEO内链策略提高网站权重及排名

       网站SEO内链布局对排名有多大的影响,这里提到用户体验,用户体验越好,百度给予的页面权重越高。用户在进入网站后,是根据搜索的关键字找相应的内容。按照这个规律去布局是围绕着用户体验展开SEO,这就是SEO优化的思维。

依据网站、行业特点进行布局

行业特点及页面的特性分析

       在做页面特性分析的时候,一定要了解网站的类型,分析这类的用户需求,依据用户需求来展开。用户来网站的目的是什么,链接对用户有什么引导作用?换位思考,把自己当成用户,而不是单方面推广自己的产品或服务,就像百度推广的宽泛匹配关键字。

       比如视频类网站的用户要分两种:一种知道知道自己要看什么,一种是不知道自己看什么。而页面布局没有绝对的相同的,每一种布局都有一定的引导作用。

       用户知道自己要看什么内容,会直接在头部里面搜索。如果页面太复杂,用户不知道怎么找得到,那页面布局是失败的。如果在搜索栏里能按照搜索排名进行下拉需求,那就能解决部分不知道自己看什么的用户的需求。 

       一般来说对网站比较熟悉的用户会搜索相关的内容,应该注重搜索功能,对新网站搜索功能可以忽略。

引导用户点击链接,而不是欺骗

       用户进入到网站后需要找到他们的相关内容,这时站内的问答、新闻、产品页面,能引导用户进行点击,不显眼、没有吸引力、目的性不强,这样的页面布局是糟糕的。

导航、副导航、面包屑导航的使用规范

       这里要提到一个被称为“F”区的概念。因为大多数的网站引导用户进行浏览相应的页面。按照重要性从左到右,从上到下的顺序进行布局。

       知道上面这个规律后,合理布局导航,遵循:位置优先、活跃优先、固定优化。

列表页页面布局特点:引导用户点击

       列表页内容是对相关内容的集合,SEO优化的时候按照用户的几大需求进行布局,最好在导航区做几个重要的分类链接,方便用户直接进入;也可以把该列表点击量最高的文章或内容展示出来。

       列表页主要功能是对重点内容整合、推荐、引导点击。

内容页布局特点:提高转化率

       内容页是对相关内容的展现,也是最重要的部分,直接影响着转化率。

       很多企业网站忽略了这点,把自己公司简介写得天花乱坠,各种大写的电话号码充斥着屏幕,生怕别人找不到。但是产品详情页却是一些图片,缺乏实拍、安装、实际效果、用户反馈等。

       内容页或产品详情页等页面最重要的就是完整展示自己的优势、作用、用途范围、详细参数等,增加一些在线留言或者评论等,让用户能全方位了解后,才能达到较高的转化率。

       在内容页的下方位置网站要有推荐内容或者其他相关内容链接,和页面两侧的功能是一样的,不仅是对内容的补充,也让蜘蛛继续的爬取链接。

页面两侧布局特点:内容的补充

       页面布局不推荐两侧同时,或左或右一栏即可。用户看到了详情页之后有可能没有完全解决他的需求,这个时候就应该对相关内容或其他重点内容进行推荐,让用户继续在页面里面寻找。

       页面左侧或则右侧根据实际情况安排,列表页的两侧最好是精选的优质内容而不是最新内容、在线客服、地址信息等可以不出现,在导航里面一定要出现;内容详情页两侧只需要保留相关推荐就好,因为详情页底部已经给了很多推荐了。

       内容的编辑也属于内链系统,篇幅有限参考文章《》

SEO页面布局详解总结

        网上确实有很多人教你怎么做,但是每个行业都有自己的特点,要结合自己行业特点来设计,网页前端设计者不应只是简单的布局,更重要的是对各方面的知识的积累,久而久之,也就知道怎么打造高转化率的网站了。

别让网站的robots成为最大的安全漏洞

       你的网站信息安全吗?树大招风,一些公司往往再收到攻击之后,才想起网站安全。网站注册的个人信息能被黑客们轻易的拿下,对用户造成的损失无法估量。没有100%安全而完美的系统,黑客们乐此不彼的研究着这些网站的安全漏洞,总有一天会被攻破。

       网站根目录下的robots.txt文件告诉搜索引擎的访问范围,使用方法很简单,但是搜索引擎还是个人来说都是可以访问的, 很多新人不知道这个文件的重要性,对于渗透测试人员或黑客,可以通过robots.txt文件发现敏感信息,比如猜测这是什么后台用什么数据库等,意味着自己的网站是真空上阵。

如何防止别人访问呢?

       网上有人这么做:在IIS中,选中robots.txt,右键属性里,选中重定向到URL,输入任意一个非本站的URL路径,勾选“上面准确的URL”以及“资源的永久重定向”,有点基础的童鞋知道,访问 http://域名/robots.txt 时,是自动跳转到指定的那个非本站URL路径。 这个方法在Apache环境中可以借助.htaccess达到这个重定向的目的。

       但是对于蜘蛛来说,这样的跳转意味着站内不存在这个文件,那蜘蛛就不会遵守这个规则,把能发现的URL都抓了。

       为防止别人利用robots文件泄露了网站的结构,做其他手脚,站长们是绞尽脑汁。不让搜索引擎来抓这个文件,那就不遵从抓取范围,都会放进索引库,对不想让搜索引擎建立索引的方法参考:页面不让搜索引擎建立索引。

实用的防护措施,推荐采用通配符(*)替换敏感文件或文件夹

      比如某个重要文件夹为admin,可以这样写robots

User-agent:
Disallow:/a*/

       意思是禁止所有搜索引擎索引根目录下a开头的目录,一般的网站的比较通用的命名有admin,include,templets,plus等,这些都是重要的文件夹,可以修改文件名,但是其他关联一并修改,否则系统会出错。

用.htaccess禁止垃圾蜘蛛访问

一搜YisouSpider   #无视robots规则
宜搜EasouSpider   #无视robots规则
易查   #无视robots规则
MSNmsnbot-media
有道youdao
必应bingbot

       当然你也要看流量来源,如果有,那就不要屏蔽,实在是少得很有每天很勤快的来访的话,可以屏蔽。

robots屏蔽蜘蛛

User-agent: YisouSpider
Disallow: /
User-agent: EasouSpider
Disallow: /
User-agent: msnbot-media
Disallow: /
User-agent: YoudaoBot
Disallow: /
User-agent: bingbot
Disallow: /

.htaccess屏蔽蜘蛛

SetEnvIfNoCase User-Agent "^Yisou" bad_bot
SetEnvIfNoCase User-Agent "^Easou" bad_bot
SetEnvIfNoCase User-Agent "^Youdao" bad_bot
SetEnvIfNoCase User-Agent "^msn" bad_bot
Deny from env=bad_bot 

       或者如下写法,中间加就行了

RewriteCond %{HTTP_USER_AGENT} (jikeSpider|easouSpider|YisouSpider|bingbot|YoudaoBot|) [NC]