站内搜索被恶意利用如何处理

多数大型网站考虑用户体验问题,会增设一些站内搜索功能,不过一些不良用户使用软件(或其他手段)在网站内搜索一批敏感词,网站上就会产生这一批敏感词对应搜索结果页(即大量垃圾搜索结果页)。

出现这种现象对网站的收录和权重还是有危害的

1.影响网站其他页面被抓取

搜索引擎对每个站的抓取频次是有限定的,当这些垃圾搜索结果网址(url)被蜘蛛抓取到,网站的其他页面网址就可能因为这个网站的抓取频次到达上限而不被抓取。

2.垃圾搜索页网址被搜索引擎收录

如下图,对网站在搜索结果中的展现以及其他正常页面的排名都可能产生负面影响

站内搜索被恶意利用解决方法

目前对这种情况思路有两个:1.修改搜索结果页的网页标题(title)、网页关键词(keywords)、网页描述(description)的调用规则,不调用用户搜索的词;2、使用robots.txt文件来禁止网址url被搜索引擎抓取收录。(建议两个思路同时使用)

1.修改搜索结果页的网页meta(title/keywords/description)调用规则

修改后的页面meta(title/keywords/description)三部分不再显示用户搜索词,只显示“搜索”二字,title可带**网站名称。这样可避免敏感关键词的搜索结果页被收录,另外还可以避免搜索结果页面抢占其他页面的关键词排名,但会造成网站内大量网页(全部搜索结果网址)的meta一样。如果有不同类别的搜索结果页,也可以将不同栏目的meta设置唯一的关键词:同样,修改后的页面meta(title/keywords/description)三部分不再显示用户搜索词,但显示某栏目类别下的搜索结果页meta设置的关键词。这种方式可避免敏感关键词的搜索结果页被收录,但可能会出现部分搜索结果页抢占其他页面关键词的排名,因此需要做好关键词布局的整体规划工作。这种做法会造成部分搜索结果页的meta一样。

2.禁止网址url被搜索引擎抓取收录

利用robots.txt文件,禁止符合搜索结果页特征的网址被搜索引擎抓取收录,如下图,禁止带search.php特征的网址url被搜索引擎抓取收录。理论上,禁止符合搜索结果页特征的网址被搜索引擎抓取收录,能提高搜索引擎蜘蛛的工作效率,让蜘蛛更有精力去抓取其他页面,另外因为不被抓取收录,这些页面自然也就不会在搜索结果中出现。但是由于robots.txt由于某些原因不一定能完全让搜索引擎不抓取收录,因此如发现搜索引擎中有不遵守robots的情况,可以及时利用站长工具、快照投诉等机制进行反馈。

1 条评论
  • 厉害,使用此方法之后,网站再没出现过问题

    回复