支付宝彩票新快3
您现在的位置: 网站首页 / seo优化 / 正文

网站建设-怎样建设对搜索引擎友好的站点

作者: admin 发布: 2014-12-18 17:42:1 分类: seo优化 阅读: 次 查看评论

  我们可以借用郭小四的名言来形容现今的搜索引擎时代——这是一个最好的时代,也是最坏的时代。搜索引擎技术飞速发展,对网站的解析越来越充分,而各家网站也面临着强劲的对手竞品,如何让自己的网站对搜索引擎对百度更加友好,是站长要充分考虑的问题。

  本篇的主旨就告诉站长:怎样建设对搜索引擎友好的站点。

目前分为五个章节:友好抓取链接建设网站安全网站变更其他

  第一节-友好抓取

  如何正确识别Baiduspider移动ua

  新版移动ua:

  Mozilla/5.0 (Linux;u;Android 4.2.2;zh-cn;) AppleWebKit/534.46 (KHTML,like Gecko) Version/5.1 Mobile Safari/10600.6.3 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)

  PC ua:

  Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)

  之前通过“+http://www.baidu.com/search/spider.html”进行识别的网站请注意!您需要修改识别方式,新的正确的识别Baiduspider移动ua的方法如下:

  1. 通过关键词“Android”或者“Mobile”来进行识别,判断为移动访问或者抓取。

  2. 通过关键词“Baiduspider/2.0”,判断为百度爬虫。

  另外需要强调的是,对于robots封禁,如果封禁的agent是Baiduspider,会对PC和移动同时生效。即,无论是PC还是移动Baiduspider,都不会对封禁对象进行抓取。之所以要强调这一点,是发现?#34892;?#20195;码适配站点(同一个url,PC ua打开的时候是PC页,移动ua打开的时候是移动页),想通过设置robots的agent封禁达到只让移动Baiduspider抓取的目的,但由于PC和移动Baiduspider的agent都是Baiduspider,这种方法是非常不可取的。

  如何识别百度蜘蛛

  百度蜘蛛对于站长来说可谓上宾,可是我们曾经遇到站长这样提问:我们如何判断疯狂抓我们网站内容的蜘蛛是不是百度的?其实站长可以通过DNS反查IP的方式判断某只spider是否来自百度搜索引擎。根据?#25945;?#19981;同验证方法不同,如linux/windows/os三种?#25945;?#19979;的验证方法分别如下:

  1、在linux?#25945;?#19979;,您可以使用host ip命令反解ip来判断是否来自Baiduspider的抓取。Baiduspider的hostname以 *.baidu.com 或 *.baidu.jp 的格式命名,非 *.baidu.com 或 *.baidu.jp ?#27425;?#20882;充。

  

  2、在windows?#25945;?#25110;者IBM OS/2?#25945;?#19979;,您可以使用nslookup ip命令反解ip来 判断是否来自Baiduspider的抓取。打开命令处理器 输入nslookup xxx.xxx.xxx.xxx(IP地 址)就能解析ip, 来判断是否来自Baiduspider的抓取,Baiduspider的hostname以*.baidu.com 或*.baidu.jp 的格式命名,非 *.baidu.com 或 *.baidu.jp ?#27425;?#20882;充。

  3、 在mac os?#25945;?#19979;,您可以使用dig 命令反解ip来 判断是否来自Baiduspider的抓取。打开命令处理器 输入dig xxx.xxx.xxx.xxx(IP地 址)就能解析ip, 来判断是否来自Baiduspider的抓取,Baiduspider的hostname以 *.baidu.com 或*.baidu.jp 的格式命名,非 *.baidu.com 或 *.baidu.jp ?#27425;?#20882;充。

  Baiduspider IP是多少

  即便很多站长知道了如何判断百度蜘蛛,仍然会不断地问“百度蜘蛛IP是多少”。我们理解站长的意思,是想将百度蜘蛛所在IP加入白名单,只准白名单下IP对网站进行抓取,避免被采集等?#24418;?/p>

  但我们不建议站长这样做。虽然百度蜘蛛的确有一个IP池,真实IP在这个IP池内切换,但是我们无法保证这个IP池整体不会发生变化。所以,我们建议站长勤看日志,发现恶意蜘蛛后放入黑名单,以保证百度的正常抓取。

  同时,我们再次强调,通过IP来分辨百度蜘蛛的属性是非常可笑的?#34385;椋?#25152;谓的“沙盒蜘蛛”“?#31561;?#34584;蛛”等等是从来都不存在的。

  robots写法

  robots是站点与spider沟通的重要渠道,站点通过robots文件声明该网站中不想被搜索引擎?#31456;?#30340;部分或者指定搜索引擎只?#31456;?#29305;定的部分。请注意,仅当您的网站包含不希望被搜索引擎?#31456;?#30340;内容时,才需要使用robots.txt文件。如果您希望搜索引擎?#31456;?#32593;站上所有内容,请勿建立robots.txt文件。

  robots文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:

  "<field>:<optional space><value><optionalspace>"

  在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:

  User-agent:该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均?#34892;В?#22312;"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

  Disallow:该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的?#24378;?#21069;缀,以Disallow项的值开头的URL不会被 robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。

  Allow:该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。

  使用"*"and"$":Baiduspider支持使用通配符"*"和"$"来模糊匹配url。

  "*" 匹配0或多个?#25105;庾址?/p>

  "$" 匹配行结束符。

  最后需要说明的是:百度会严格遵守robots的相关协议,请注意区分您不想被抓取或?#31456;?#30340;目录的大小写,百度会对robots中所写的文件和您不想被抓取和?#31456;?#30340;目录做精确匹配,否则robots协议无法生效。

  robots需求用法对应表

  上面说?#22235;?#20040;多理论,有没有简单对照表格告诉我,怎样的需求场景下应该怎样撰写robots文件?有的:

  

  除robots外其它禁止百度?#31456;?#30340;方法
  Meta robots标签是页面head部分标签的一种,也是一种用于禁止搜索引擎索引页面内容的指令。目前百度仅支持nofollow和noarchive

  nofollow:禁止搜索引擎跟踪本页面上的链接

  如果您不想搜索引擎追踪此网页上的链接,?#20063;?#20256;递链接的权重,请将此元标记置入网页的<HEAD> 部分:<meta name="robots" content="nofollow">

  如果您不想百度追踪某一条特定链接,百度还支持更精确的控制,请将此标记直接写在?#31243;?#38142;接上:<a href="signin.php" rel="nofollow">signin</a>

  要允许其他搜索引擎跟踪,但仅防止百度跟踪您网页的链接,请将此元标记置入网页的<HEAD> 部分:<meta name="Baiduspider" content="nofollow">

  noarchive:禁止搜索引擎在搜索结果中显示网页快照

  要防止所有搜索引擎显示您网站的快照,请将此元标记置入网页的<HEAD>部分:<meta name="robots" content="noarchive">

  要允许其他搜索引擎显示快照,但仅防止百度显示,请使用以下标记:<meta name="Baiduspider" content="noarchive">

  注:此标记只是禁止百度显示该网页的快照,百度会继续为网页建索引,并在搜索结果中显示网页摘要。

  使用robots巧妙避免蜘蛛黑洞

  对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量?#38382;?#36807;多、内容类同但url不同的动态URL ,就像一个无限循环的“黑洞“,将spider困住。spider浪费了大量资源抓取的却是无效网页。

  如很多网站?#21152;?#31579;选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分是检索价值低质的页面。如“500-1000之间价格的租房?#20445;?#39318;先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这?#26088;?#32034;习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额,那么该如何避免这种情况呢?

  1. 我们以?#26412;?#32654;团网为例,看看美团网是如何利用robots巧妙避免这种蜘蛛黑洞的:

  2. 对于普通的筛选结果页,使用了静态链接,如:

  3. http://bj.meituan.com/category/zizhucan/weigongcun

  4. 同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同?#38382;?#30340;动态链接,而且?#35789;?#26159;同一种排序条件(如:都是按销量降序排列),生成的?#38382;?#20063;都是不同的。如:http://bj.meituan.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhekhttp://bj.meituan.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

  对于美团网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带?#38382;?#30340;结果排序页面则通过robots规则拒绝提供给搜索引擎。在robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。美团网恰是通过这种方式,对spider优先展示高质量页面、屏蔽?#35828;?#36136;量页面,为spider提供了更友好的网站结构,避免了黑洞的形成。

  禁止百度图片搜索?#31456;?#26576;些图片的方法
  
目前百度图片搜索也使用了与百度网页搜索相同的spider,如果想禁止Baiduspider抓取网站上所有图片、禁止或允许Baiduspider抓取网站上的某种特定格式的图片文件可以通过设置robots实现:

  

  503状态码的使用场景及与404的区别

  Html状态码也是网站与spider进行交流的渠道之一,会告诉spider网页目前的状态,spider再来决定下一步该怎么做——抓or不抓or下次再来看看。对于200状态码大家已经很熟了,那么我们来介绍几种常见的失效网页使用的状态码:

  【404】404返回码的含义是“NOT FOUND?#20445;?#30334;度会认为网页已经失效,那么通常会从搜索结果中删除,并且短期内spider再次发现这条url也不会抓取。

  【503】503返回码的含义是“Service Unavailable?#20445;?#30334;度会认为该网页临时不可访问,通常网站临时关闭,带宽有限等会产生这种情况。对于网页返回503,百度spider不会把这条url直接删除,短期内会再访问。届时如果网页已?#25351;矗?#21017;正常抓取;如果继续返回503,短期内还会反复访问几次。但是如果网页长期返回503,那么这个url仍会被百度认为是失效链接,从搜索结果中删除。

  【301】301返回码的含义是“Moved Permanently?#20445;?#30334;度会认为网页当前跳转至新url。当遇到站点迁移,域名更换、站点改版的情况时,推荐使用301返回码,尽?#32771;?#23569;改版带来的流量损失。虽然百度spider现在对301跳转的响应周期较长,但我们还是推荐大家这么做。

  一些网站把未建好的页面放到线上,并且这些页面在被百度抓取的时候返回码是404,于是页面被百度抓取后会?#22351;?#25104;死链直接删除。但是这个页面在第二天或者过几天就会建好,并上线到网站内展现出来,但是由于之前已经被百度当做死链删除,所以要再次等这些链接被发现,然后抓取才能展现,这样的操作最终会导致一些页面在一段时间内不会在百度出现。比如某个大型门户网站爆出大量新闻时效性很强的专题未被百度及时?#31456;?#30340;问题,经检查验证后发现就是因为页面未建成就放置在线上,并返回404状态码,被百度当成死链删除,造成?#31456;己?#27969;量损失。

  对于这样的问题,建议网站使用503返回码,这样百度的抓取器接到503返回码后,会在隔一段时间再去访问这个地址,在您的页面建好上线后,就又能被重新抓取,保证页面及时被抓取和索引,避免未建好的内容设为404后带来不必要的?#31456;己?#27969;量损失。

  其它建议和总结:

  1、如果百度spider对您的站点抓取压力过大,请尽量不要使用404,同样建议返回503。这样百度spider会过段时间再来尝试抓取这个链接,如果那个时间站点空闲,那它就会被成功抓取了

  2、如果站点临时关闭或者页面暂未建好上线,当网页不能打开时以及没有建好时,不要立即返回404,建议使用503状态。503可以告知百度spider该页面临时不可访问,请过段时间再重试。

  连通率为0的前因后果及预防补?#21364;?#26045;

  https站点如何做才能对百度友好

  2015年5月25日,百度站长?#25945;?#21457;布公告,宣布全面放开对https站点的?#31456;跡琱ttps站点不再需要做任何额外工作即可被百度抓收。采用了本文之前建议的https站点可以关闭http版,或者将http页面跳转到对应的https页面。  ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

  百度搜索引擎目前不主动抓取https网页,导致大部分https网页无法?#31456;肌?#20294;是如果网站一定要使用https?#29992;?#21327;议的?#26696;?#22914;何做到对百度搜索引擎友好呢。其实很简单:

  1,为需要被百度搜索引擎?#31456;?#30340;https页面制作http可访问版。

  2,通过user-agent判断来访者,将Baiduspider定向到http页面,普通用户通过百度搜索引擎访问该页面时,通过301重定向?#26009;?#24212;的https页面。如图所示,上图为百度?#31456;?#30340;http版本,下图为用户点击后会自动跳入https版本。

  

  

  3,http版本不是只为首页制作,其它重要页面也需要制作http版本,?#19968;?#30456;链接,切不要出现这种情况:首页http页面上的链接依然链向https页面,导致Baiduspider无法继续抓取——我们曾经遇到这种情况,导致整个网点我们只能?#31456;?#19968;个首页。如下面这个做法就是错误的:http://www.abc.com/ 链向https://www.adc.com/bbs/

  4,可以将部分不需要?#29992;?#30340;内容,如资讯等使用二级域名?#24615;亍?#27604;如支付宝站点,核心?#29992;?#20869;容放在https上,可以让Baiduspider直接抓取的内容都放置在二级域名上。

  

  第二节:链接建设

  买卖链接对站点的危害

  众所周知,搜索引擎会对站点获得链接的数量和质量进行分析,从而做出对网站的评价,最终影响站点在搜索结果中的表现。在搜索引擎看来,站点的链接质量比数量更为重要,然而愈演愈烈的链接买卖风?#20445;?#24050;经开始威胁到搜索引擎的公正性。为此百度质量团队推出了绿萝算法对买卖链接?#24418;?#36827;行打击。

  搜索引擎认为站点每发出一个链接指向另一个站点,都是一次投票?#24418;?#35831;您珍惜每一次投票的权力,而不是将这个权力出售,更不应该打包卖给链接中介公?#23613;?#22914;果搜索引索发现站点有出售链接的?#24418;?#21017;会影响到站点在搜索引擎?#20302;?#20013;的整体表现。对于广告类的链接,请您使用nofollow属?#36234;?#34892;设置。除不出售链接外,您还应该关注建站程序的安全更新,及时安?#23433;?#19969;程序;经常对网站发出的链接进行检查,看是否有多余的、非主观意愿存在的链接,以免站点在不知情的情况下被黑帽SEO添加链接。

  建议您不要企?#35760;?#21161;于黑帽SEO和链接中介公司,他们很有可能使用极不正当的手段令站点在短时间内获得一定效果,但是搜索引擎有专门的程序去识别各种手段和?#24418;?#19968;旦被发现,站点会无法得到预期的效果,甚至被搜索引擎?#22836;?#22788;理。最后,希望各位站长放眼于长远的未来,不要为眼前的蝇头小利所迷惑。将精力放在在自身内容和品牌建设上,拓展更多良性发展的盈利模式。

  内链建设的大忌

  在《百度搜索引擎工作原理?#25151;?#31243;中我们提到过,Baiduspider需要知道站点里哪个页面更重要,其中一个渠道就是内链。那么内链建设有哪些大忌呢:

  死循环链接:死循环链接是搜索引擎蜘蛛最郁闷的?#34385;?#20102;,往往会把搜索引擎蜘蛛卡在一个角落中,无限的循环而走不出来,不仅白白浪费蜘蛛体力,也会占用网站大量爬取频率,造成有价值的网页抓取不全。比如万年历?#30830;?#24120;实用的工具网站,很多时候这些工具你都可以无限的点击,每次点击都产生一个新的url,如果你没有屏蔽蜘蛛爬取这些内容,那么蜘蛛有可能会被带入到一个无限循环的境地,这样的做法对任?#25105;?#20010;搜索引擎都是不友好的。

  还有一种就是动态、带“?”号的url。这是由于动态网站的一个动态文件(如.php)可以产生上万个或者无数个链接,如果部分php文件内部又再次链向自己。蜘蛛进去就很?#35328;?#29228;出来。

  链接404后不消除内链入口:页面404后,除了需要向百度站长?#25945;?#25552;交外,应该尽量关闭其在网站内部的入口,一来死链对用户的伤害是极大的,二来避免令蜘蛛产生错觉,认为你网站死链?#29616;亍?/p>

  只有入链没有出链:?#34892;?#20154;认为网页上的出链太多会分散页面本身的得分,所以在重要页面上不设计出链,实际这与百度的?#29616;?#26159;相悖的,百度认为一个优质的网站结构应该像一张网,所有页面都会与其他页面产生链接,蜘蛛会顺着一个页面遍历所以页面。只有入链而没有出链的结构对蜘蛛来说是不友好的。当然,整个网站仅一两个网页只有入链没有出链是无所谓的,但数量千万不要多。

  无返回上级目录的链接:我们提倡尽量在每个页面上使用面包屑?#24049;劍?#20197;告诉搜索引擎页面内容与首页的关系及距离;同时对于用户来说,面包屑?#24049;?#20063;是延长用户平均访问时长的重要工具。只有内容而没有返回上级目录的页面就像一本永远无法访问目录的书,听起来是不是?#27490;?#30340;?

  错误的锚文本:内链的作用并不仅仅是页面权值传递和内部投?#20445;?#30334;度还会通过锚文本辅助判断网页的内容,错误的锚文?#31454;?#21487;能会误导百度对于相关性的计算,对搜索排序产生?#22909;?#24433;响。同时对于只能通过锚文本来判断是否要点击打开新网页的用户来说,无疑也是一种伤害。

  网站应该拒绝哪些外链

  百度搜索引擎虽然降低了对超链的依赖,但依然没有放弃对不同质量链接的识别,制定了一套针对优质外链、普通外链、垃圾外链、作弊外链的识别原则和方法。在继续信任优质外链的同时,加大对作弊外链的打击,同时对部分作弊外链的受益站点进行打击。为了避免被百度搜索引擎怀疑为超链作弊,建议站长定期检查站点的外链情况,发现异常及时通过百度站长?#25945;?#30340;拒绝外链工具进行自我保护。同时如果你之前有过购买链接、群发外链的?#24418;?#21487;以通过拒绝外链工具进行修正。

  那么除了要拒绝被黑网页发出的链接、买来的链接外,还有哪些链接应该被拒绝呢。

  1, 来自垃圾站群的链接:?#34892;?#40657;帽会通过非法手段在你的站点产生大量页面,再组织站群发送外链至这批页面上。这样的链接必须及时处理。

  2, 来自不相关低质站点群的链接:百度认为相同主题网站之间的链接更友好,所以,如果你的网站被一批其它主题网站链接了,一定要及时查看这批网站的质量,如果质量不高,尽量拒绝。

  使用拒绝外链工具还有一些注意事项:

  1,您通过工具拒绝外链的需求将无法撤销或删除,所以需要谨慎使用

  2,我们不能保证短时间内就能去掉垃圾作弊外链对网站的?#22909;?#24433;响,清理过程可能长达数周,请站长耐心等待

  第三节:网站安全

  UGC站点如何进行防护工作

  由于大多数UGC建站?#20302;?#23384;在漏洞,攻克技术成本较低,且群发软件价格低廉,容易被作弊者利用,近期我们发现大量UGC站点被群发的垃圾信息困扰。这些垃圾群发内容无孔不入,除论?#22330;?#21338;客等传统的UGC站点受到困扰外,现已蔓延到微博、SNS、B2B商情页、公司黄页、分类信息、视频站、网盘等更多领域内,甚至连新兴的分享社区也受到了影响。从以前的论?#31243;?#23376;、博客日志,扩展到供求信息页、视频页、用户资料页,这些任何由用户填写和生成内容的地方,都会被作弊者发掘利用,形成大量的UGC性质的垃圾页面。

  搜索引擎在发现UGC性质的垃圾页面后必将做出相应应对,但对真正操作群发的作弊者很难?#34892;?#30340;打击,所以作弊者容易利用UGC站点极低成本且自身安全这些特点,做出更多危害网站、危害用户、危害搜索引擎的?#24418;?#33509;网站自身管理不严控制不力,很容易成为垃圾内容的温床;?#34892;?#32593;站为了短期流量而对垃圾内容置之不理,这无异于饮鸩止渴。网站不应仅仅是?#25945;?#30340;提供者,更应该是内容的管理者,积极维护网站自身质量非常重要。若网站任由垃圾内容滋长,不仅会影响网站的用户体验,同时也会破坏网站口碑和自身品牌建设,造成正常用户流失,?#29616;?#26102;,还会使搜索引擎降低对网站的评价。

  对于作弊者来说,在UGC站点上发布垃圾内容的目的就是被搜索引擎?#31456;跡?#22914;果不能让垃圾页面在网站和搜索引擎上消失,他们依然会?#20013;?#19981;断地产生更多垃圾内容。百度站长?#25945;?#24076;望和站长一起打击垃圾页面,帮助网站良性发展,共同维护互联网生态环?#22330;?/p>

  一,UGC垃圾典型case

  1、与网站或论坛版块主题不符的内容

  2、欺骗搜索引擎用户的内容

  1)使用夸大诱人的标题,或在内容?#20889;?#25554;堆积?#35753;?#20851;键词

  2)?#34892;?#25991;章看标题以为在说A事,而主要内容却在讲B,且与A毫无关系

  3)视频或音频文件标题所述不符

  4)欺骗网站诈取分帐式广告收益的内容

  5)专?#29228;?#29992;UGC网站为自己做推广、谋福利

  6)诈骗中奖、虚假联系电话、不良信息

  二,UGC管理员该怎么做

  1,删除垃圾内容,并将这些页面设置为404页面后,及时通过百度站长?#25945;?#30340;死链工具提交死链列表

  2,提高注册用户门槛,限制机器注册

  ? 群发软件通常使用自动的程序?#35762;?#35770;坛默认的注册文件名、发帖文件名。管理员可以不定期的修改注册用户文件名、发帖文件名;注册、发帖按钮使用图片;与程序默认的不同,可以防止被自动程序搜索到。

  ? 发帖机通常是机器注册,?#24418;?#27169;式单一。管理员可添加一些需要人工操作的步骤,有助于限制机器注册。如使用验证码;限制同一邮箱注册ID的数量,同时启用邮箱验证;使用更为复杂的验证机制;经常更换注册问答。

  ? 除了在注册处设置门槛外,还可以控制新用户权限。如要求完成上传头像、完善用户信息等人工操作步骤后才开放发帖功能;在一定时间内限制新用户发帖;限制新用户发布带链接的帖子,待达到一定级别后再放开。

  3,严控机器发帖?#24418;?#22914;使用验证码、限制短时间内连续发帖等

  4,建立黑名单机制,将群发常用词、广告电话和网址等加入黑名单,对含有黑名单内容的帖子进行限制或清除。黑名单应该不断维护

  5,对站内异常内容进行监控,发现爆增数据后及时查?#20197;?#22240;

  6,对站点内用户的?#24418;?#36827;行监控

  ? 部分异常用户的ID结构有别于普通用户,如使用无意义的字母数字、或几个单个汉字的无序组合

  如:gtu4gn6dy1、蝶淑琴;使用商业?#39318;?#20026;ID,如:轴承天地7、hangkongfuwu123

  ? 发布内容间隔过短

  ? 发布的内容绝大部分非常类似

  ? 发布的大部分内容里含有类似的特征,如某个网址、电话、QQ号码等联系方式

  7,不允许发布带有可执行代码的内容,避免弹窗、跳转等?#29616;?#24433;响用户体验的情况发生。

  8,对部分UGC位置提及的链接,使用“nofollow”进行标记,如:bbs签名内的链接、BLOG回复ID自置的链接

  9,论坛中的广告、灌水版块,建议加上权限限制,或者禁止搜索引擎?#31456;肌?/p>

  10,关注建站程序的安全更新,及时安?#23433;?#19969;程序。保障用户账号安全,避免发生盗用正常用户账号或历史?#33391;?#29992;户账号发布垃圾内容的情况发生。

  网站安全之防止被黑

  这里所说的被黑,指黑客通过网站漏洞篡改网页内容、为网站恶意添加许多垃圾页面,内容往往与博彩、游戏等?#35753;?#20851;键?#35270;?#20851;,然后利于网站在搜索引擎中的天然优?#30772;?#21462;更多流量。互联网上所有网站其实?#21363;?#22312;被黑的可能,尤其是?#35328;?#25628;索引擎中获得较好表现的站点更要注意,千万不要让被黑令自己的心血付之东流。

  一,如何判断网站被黑

  先通过外界对网站进行观察,如果有如下现象,那您的网站可能被黑了

  1、通过百度站长?#25945;?#30340;索引量工具,发现站点?#31456;劑看?#22686;;再通过搜索关键词工具发现,站点获得流量的关键?#25163;?#26377;很多与本站点无关。

  2、通过Site语法查询站点,显示搜索引擎?#31456;?#20102;大量非本站应有的页面。

  注:site查询结合一些常见的色情、游戏、境外博彩类关键字,可帮助站长更快的找到异常页面,例如“site:www.abcxyz.com 博彩”

  3、从百度搜索结果中点击站点页面,跳转到了其他站点。

  4、站点内容在搜索结果中被提示存在风险。

  5、从搜索引擎带来的流量短时间内异常暴增。

  二,进一步难证网站是否被黑

  通过上述方法站长怀疑自己的网站被黑了,那么该如何对黑出来的内容进行排查呢?

  1、分析?#20302;?#21644;服务器日志,检查自己站点的页面数量、用户访问流量等是否有异常波动,是否存在异常访问或操作日志;

  2、检查网站文件是否有不正常的修改,尤其是首页等重点页面;

  3、网站页面是否引用了未知站点的资源(图片、JS等),是否被放置了异常链接;

  4、检查网站是否有不正常增加的文件或目录;

  5、检查网站目录中是否有非管理员打包的网站源码、未知txt文件等;

  6、使用百度站长?#25945;?#25235;取诊断工具,诊断网页是否被加了黒链、隐藏文本

  *每个站点每月可使用300次,抓取结果只展现百度蜘蛛可见的前200KB内容

  【重要提示】若直接访问网站时一切正常,但在百度的搜索结果展现了异常的快照内容,这可能是黑客做了特殊处理,只让百度蜘蛛抓取到异常的页面,以此来增加隐蔽性,让站长难以发现;同理,若直接访问网站正常,但从百度搜索结果页进行访问时,出现了异常页面,这是黑客针对百度来源(refer)做了特殊处理

  三,网站被黑怎么办

  1、立即停止网站服务,避免用户继续受影响,防止继续影响其他站点(建议使用503返回码)。

  2、如果同一主机提供商同期内有多个站点被黑,您可以联系主机提供商,敦促对方做出应对。

  3、清理已发现的异常,排查出可能的被黑时间,和服务器上的文件修改时间相比对,处理掉黑客上传、修改过的文件;检查服务器中的用户管理设置,确认是否存在异常的变化;更改服务器的用户访问密码。

  注:可以从访问日志中,确定可能的被黑时间。不过黑客可能也修改服务器的访问日志。

  4、做好安全工作,排查网站存在的漏洞,防止再次被黑。

  网站安全之域名被劫持

  2014年5月14日,前瞻网官方微博发布公告,宣?#21152;?#21517;?#22351;了?#22833;过亿。在黑客遍行的今天,域名?#22351;?#34987;劫?#26088;负?#27599;天都在发生。百度搜索引擎希望站长在关注?#31456;肌?#27969;量、变现的同时,多多关注域名安全,毕竟域名安全是生存之本。在之前与站长接触中,发现站长?#21152;?#22914;下心理:域名控制权完全在服务商,我们处于被动的一方。那么站长就真的什么都不用做、什么都无法做了么?

  一,域名被劫持的?#29616;?#21518;果

  1,域名被解析到其它地址,用户无法正常访问,网站流量受损

  2,通过泛解析生成大量子域名,共同指向其它地址(往往是恶意垃圾网站)

  3,域名被解析到恶意钓鱼网站,导致用户财产损失

  4,当域名被劫持后的内容干扰搜索结果时,为保障用户的使用体验和安全,百度搜索引擎会暂时关闭对域名的?#31456;己?#23637;示,待严格审核确认后才会再度放开

  二,如何降低域名被劫?#22336;?#38505;,减少损失

  1, 为域名注册商和注册用邮箱设置复?#29992;?#30721;,且经常更换。使用单独的DNS服务,也需要对密码进行上述设置。同时注意不要在多个重要注册地使用相同的用户名和密码。

  2, 将域名更新设置为锁定状态,不允许通过DNS服务商网站修改记录

  *使用此方法后,需要做域名解析?#23478;?#36890;过服务商来完成,时效?#36234;?#24046;

  3, 定期检查域名帐户信息、域名whois信息,每天site网站检查是否有预期外网页,或使用百度云观测进行监控——当域名被解析到恶意站点时可以第一时间收到报警(百度云观测关于域名安全的介绍)

  4, 网站运营和优化人?#26412;?#24120;详细检查网站索引和外链信息,有异常一定要检查清楚

  三,域名被劫持后该怎么做

  1,立即修改域名服务商和邮箱密码,使用复杂度高的密码且经常更换

  2,删除不属于你的DNS解析,?#25351;碊NS设置

  3,如果使用的是第三方DNS服务,应立即修改第三方DNS服务端帐户密码,锁定帐户信息,开启帐户短信邮箱类提醒

  4, 收集全部被非法添加的页面并设置404,使用百度站长?#25945;?#24037;具提交死链

  5,如果该服务商下域名经常出现被劫持事件,可考虑更换更安全稳定的服务商。有能力的网站可自建DNS服务,自主运维自负风险

  第四节:网站变更

  网站改版该如何通知百度

  为了改变站点运营效果,部分站长会选择对网站进行改版。百度站长?#25945;?#31449;在搜索引擎的角度给站长朋友一些建议:首先站长们应该明确,网站只要发生大大的变化(如换域名、子目录改版为二级域名等),流量就会受到损失;其次,百度站长?#25945;?#20250;帮助站长尽量将损失降到最低。请站长?#26469;?#36208;完以下步骤以减少损失。

  第一步:设置301跳转

  使用301跳转进行重定向,跳转最好有规律可循,百度搜索引擎会自动进行处理

  提醒:301跳转要保持一段时间,直至新网页的抓取、?#31456;肌?#25490;序达到预期。

  第二步:使用改版工具

  使用百度站长?#25945;?#24037;具,可加速百度搜索引擎对301跳转的处理,尽快完成新旧内容的衔接。目?#26696;?#29256;工具除了支?#21482;?#22495;名外,还可以支持站点级改版和目?#25216;?#25913;版,都是通过工具的“目录改版”功能实现的。

  工具地址:http://zhanzhang.baidu.com/rewrite/index

  1,当站点级改版时,需要在“目录改版 改版?#27573;А?#22788;提交站点级首页URL

  如www.example.com/,百度将会对该站点下的所有页面进行改版处理。

  2,当站点要进行目?#25216;?#25913;版时,依然在“目录改版 改版?#27573;А?#22788;进行提交,但提交的应该是需要改版的目录,而非站点级首页URL。

  如提交“www.example.com/a/?#20445;?#30334;度会对www.example.com/a/,包括www.example.com/a/b/进行改版处理。

  具体使用方法可参考百度站长?#25945;?#24050;有的文章《网站改版工具帮助

  网站换域名该如何通知百度

  部分站长会选择通过换域名来提高站点运营效果,但站长们应该明确一点:网站只要发生大大的变化(如换域名、子目录改版为二级域名等),流量就会受到损失;其次,百度站长?#25945;?#20250;帮助站长尽量将损失降到最低。请站长?#26469;?#36208;完以下步骤以减少损失。

  第一步?#21644;?#36807;301完成新旧内容跳转

  使用301跳转对页面进行重定向,不仅首页需要设置,旧域名所有页面?#21152;?#35813;301指向新域名的相应页面。百度搜索引擎会自动进行处理

  提醒:原网页301跳转要保持一段时间,直至新网页的抓取、?#31456;肌?#25490;序达到预期。

  第二步:使用改版工具

  使用改版工具,可加速百度搜索引擎对301跳转的处理,尽快完成新旧内容的衔接。

  工具地址:http://zhanzhang.baidu.com/rewrite/index

  要求站长在百度站长?#25945;?#39564;证旧网站和新网站,验证生效后在改版工具中选择“域名改版?#20445;?#22635;入旧网站域名后进行确认提交。

  *改版工具还提供站点级改版、目?#25216;?#25913;版。具体使用方法可参考百度站长?#25945;?#24050;有的文章《网站改版工具帮助

  第三步:使用抓取异常工具

  ?#35328;?#25913;版工具中提交改版规则后,随时关注新内容的抓取情况。如果不符?#26174;?#26399;,可使用抓取异常工具查?#20063;?#20998;原因,排除由服务器、运营商、DNS、IP、UA等导致的抓取不及时。

  工具地址: http://zhanzhang.baidu.com/crawl/index

  具体可参考百度站长?#25945;?#24050;?#24418;?#31456;《抓取异常工具帮助?#32602;?#37324;面对每项因素?#21152;?#35814;细说明和解决办法。

  第四步:使用抓取频次工具

  抓取频次工具提供站点在百度近一个月的天级抓取量曲线图,如果新内容抓取量不符?#26174;?#26399;可在工具中进行反馈,spider会根据站长的申请和实?#26159;?#20917;对抓取频次进行调整。

  工具地址:http://zhanzhang.baidu.com/pressure/index

  具体使用方法可参考百度站长?#25945;?#24050;?#24418;?#31456;《抓取频次工具帮助

  第五步:使用百度索引量工具

  一个站点的被抓取量多与少并不是重点,重点是索引量,只有被建为索引的页面才有可能展现在用户面前。站长可以通过百度索引量工具来对比新旧内容被建索引的数量,来确认改版后站点在百度搜索引擎的?#31456;?#26159;否已?#25351;?#27491;常。

  工具地址:http://zhanzhang.baidu.com/indexs/index

  该工具使用起来非常简单,可参考百度站长?#25945;?#20043;前的文章《百度索引量工具帮助

  网站换空间(IP)该如何通知百度
  在与站长朋友私下交流中,站长表示:最怕改版,最怕换空间换IP,每次都是万?#22351;?#24050;身不由己。改版还好些,有改版工具可以使用。换了空间和IP都不知道怎么通知百度。其实,登录百度站长?#25945;ǎ?#20351;用抓取诊断工具,换空间和IP真的不是愁事。

  抓取诊断工具会检查站点与百度的连接是否畅通,若站长发现IP信息还是老旧的,可以通过“报错”通知百度搜索引擎更新IP,如下图所示:

  

  重要提示:由于spider精力有限,如遇报错后网站IP依旧没有变化,站长可进行多次尝试,直?#38142;?#21040;预期。

  第五节:其他

  关于网站建设,其实还有很多零碎的问题要注意,所以在这里单启一篇,日后再根据反馈不断补充完善。

  二级域名和子目录,哪个更有利于SEO

  一,二级域名的特点

  搜索引擎往往将二级域名当作一个独立的网站看待,同时会视情况将主域名的评价传递一部分给二级域名。使用二级域名会使同domain下站点变多,但是每个站点的体量变小。二级域名的SEO特点是:

  1, 二级域名对用户来说也是一个完整的域名,显得更有权威性

  2, 二级域名网页之间相关性更强,对于搜索引擎来说主题更集中

  3,相较子目录更易形成品牌

  二,子目录的特点

  将不同内容通过子目录的情况放在同一个网站下,会使网站体量变得越来越大,可以使网站积累更多的投?#20445;?/p>

  1, 相较二级域名,可以更好地继承主域名的评价数据

  2, 与站点关系更密切,同时不失灵活,搜索引擎对站点内容的识别早以细化到目?#25216;?#21035;

  三,二级域名与子目录的选择

  选择使用二级域名还是子目录来分配网站内容,对网站在搜索引擎中的表现会有较大的影响,为此百度站长?#25945;?#24314;议:

  1, 在某个频道的内容没有丰?#22351;?#21487;以当作一个独立站点存在之前,使用目录形式?#22351;?#39057;道下积累了足够的内容,再通过改版成二级域名的形式。

  一个网页能否排到搜索引擎结果的前面,“出身”很重要,如果出自一个站点评价?#32454;?#30340;网站,那排到前面的可能性就较大,反之则越小。通常情况下,二级域名会从主站点继承一部分权重,继承多少视二级域名质量而定。

  在内容没有丰?#22351;?#21487;以作为一个独立站点之前,使用子目录更能在搜索引擎中获得较好表现。

  2, 内容差异较大、关联度不高的内容,建立使用二级域名的形式。

  搜索引擎会识别网站的主题,如果网站中各子目录的内容关联度不高,可能导致搜索引擎错误地判断网站的主题。所以,关联度不高的内容放在不同的二级域名中,可以帮助搜索引擎更好的理解网站的主题。

  3, 二级域名间的服务器权限应该严格控制,a.domain.com下的内容,最好不能域名替换通过b.domain.com访问。如:a.domain.com/abc.html 不应该通过b.domain.com/abc.html访问到。

  二级域名的内容能?#25442;?#30456;访问,可能会被搜索引擎当作重复内容进行去重处理,保留的URL不一定能符合站长预期。

  4, 不要滥用二级域名

  没有丰富的内容就大量启用二级域名,极容易被搜索引擎当作作弊?#24418;头!?/p>

  多域名同内容的常见问题

  网站在生存发展中会遇到很多问题,会因为各种原因产生不同的域名,而这些域名的内容却都是相同的。百度一直在说拒绝重复内容,那么,多域名同内容是否会对SEO产生负影响呢?我们收集了众多站长对多域名同内容的问题后,请百度spider专家做了统一解答,现公布出来供各站长参考。

  问:多个域名指向同一个域名算是作弊么?

  答:如果某公司从品牌保护或长远发展角度出发,注册了多个域名,且多域名301重定向指向一个常用域名,那此?#24418;?#26412;身不属于作?#20303;?#20294;是如果进行301重定向的多域名本身有作弊?#24418;?#37027;么被指向的域名有可能受到牵连。

  问:多个域名同内容是否有利于提高排名?

  答:此举非常不利于提高排名,因为多个域名会分散原本应该属于单独域名的外链进而影响权重,不利于单独域名获得更好的排名。

  问:我们先推个测试域名,走上正轨后再启用正?#25509;?#21517;,会有什?#20174;?#21709;吗?

  答:如果两个域名的内容完全一样,对正?#25509;?#21517;的?#31456;?#21487;能会有影响。搜索引擎会认为这两个网站重复,在已经?#31456;?#20102;前者的前提下,会对后者限制?#31456;肌?#30340;确曾经有某理财网站先搞一个临时域名在搜索引擎试水,结果等正牌域名上线后却迟迟得?#22351;絞章?#30340;?#34385;?#21457;生。

  问:如果公司已经有多个域名是相同内容该怎么处理?

  答:先确认一个好记易懂的域名作为“唯一域名?#20445;?#36827;行重点宣传?#24179;椋?#20854;余的域名也千万不能放任自流,尤其是当测试域名已经有了较好的?#31456;己团?#20301;时,可以设置301重定向,指向唯一域名。同时登录百度站长?#25945;?#23545;新旧网站进行验证,然后在网站改版工具中进行相应的操作,可以让“唯一域名”继?#24615;?#22495;名已获得的权重。

  网站改版工具地址&帮助说明

  来源:SEO自学网 转载注明出处!

? 上一篇下一篇 ?   本文关键词: 网站建设  百度官方资料  



评论列表:

站长SEO学院
第一节:百度搜索引擎工作原理
第二节:建设对搜索引擎友好的站点
第三节:如何进行网站内容建设
第四节:整体优化、结构优化、网页优化
第五节:移动搜索-明确移动搜索优化标准
百度SEO资料文档
百度搜索引擎优化?#25913;?.0
百度移动搜索优化?#25913;?.0
网站分析白皮书(站长版)
移动站点该如何优化
建设对百度友好的站点
百度搜索引擎网页质量白皮书
石榴算法-绿萝算法-冰桶算法
新搜索时代下的优化策略
更多百度SEO资料文档
站长推荐
DIV+CSS布局实例教程-Web标准
网站SEO优化常见问题汇总
SEO优化推广方案该如何写
SEO优化方案步骤
影响网站关键词排名因素总结
影响谷歌搜索引擎排名的因素调查
手机移动端站点适配优化
最近发表
网站收藏
支付宝彩票新快3