利用百度网址安全中心和Robots.txt来减少wordpress的搜索框恶意攻击的方案

今天使用爱站外链工具测试了下地下室先生博客的外链情况,首页外链没有检测到,但是内页外链却发现一个了不得事情。

wordpress搜索框被恶意攻击

用爱站外链工具测试了下地下室先生博客的外链情况

用爱站外链工具测试了下地下室先生博客的外链情况

看上面的截图中的查询结果,我有一内页反链 ,看标题就知道这个反链肯定是一个菠菜的网站,点击链接名称,跳转到我博客的搜索页面,截图如下所示,我的搜索框竟然人恶意搜索了一些违规词汇。

我的搜索框竟然人恶意搜索了一些违规词汇。

我的搜索框竟然人恶意搜索了一些违规词汇。

 

为什么有人会这样干呢,因为一般网站的搜索功能的搜索结果都是会有一个缓存,这些坏家伙就是利用这个原理,大量使用你的搜索框搜索一些违规词,用来达到他们宣传的目的。

但这样对我们网站来说确实非常不利的,非常容易引起百度降权。毕竟你网站有大量违规内容,你还指望百度对你好?

赶紧想办法解决吧。我是这样操作的,只能算是一种尝试!

1,利用百度网址安全中心(https://bsb.baidu.com/)进行申诉举报。

利用百度网址安全中心(https://bsb.baidu.com/)进行申诉举报

利用百度网址安全中心(https://bsb.baidu.com/)进行申诉举报

将违规的链接提交给百度进行申诉,让百度知道我们被人恶意攻击,等百度的处理!

 

2,利用robots阻止百度抓取wordpress的搜索结果链接

本来我想直接禁用我网址的搜索功能,但是这毕竟对用户体验造成不好影响,所以只能放弃。

后来想到那些恶意攻击的人的目的是通过你的搜索框结果来推广他们的违规内容,那么我禁止百度抓取这些结果,那么他们的目的自然也就达不到了。

所以我就想利用设置robots规则来告诉百度不要抓取这些搜索结果链接,不要收录。

之前我的robots是wordpress默认的,我根据需求从新制作了一份robots规则,并生成了robots.txt文件,上传到网站根目录。

新robots规则如下:

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /*/comment-page-*
Disallow: /*?replytocom=*
Disallow: /category/*/page/
Disallow: /tag/*/page/
Disallow: /*/trackback
Disallow: /feed
Disallow: /*/feed
Disallow: /comments/feed
Disallow: /?s=*
Disallow: /*/?s=*\
Disallow: /*?*
Disallow: /attachment/

其中的Disallow: /?s=*Disallow: /*/?s=*\就是禁止百度等搜索引擎抓取wordpress的搜索结果链接。

而且对很多一些链接同样做了禁止抓取的设置,最大限度的避免恶意攻击的影响。

当然,在更新了robots之后,记得去百度站长工具中测试新的robots是不是生效了。如下图,地下室先生博客的robots已经没问题了。

百度站长工具中测试新的robots是不是生效

百度站长工具中测试新的robots是不是生效

 

不知道你有没有遇到我的情况,如果遇到了,可以参考上面的解决办法,如果你有更好的解决办法欢迎交流!

未经允许不得转载:地下室先生博客 » 利用百度网址安全中心和Robots.txt来减少wordpress的搜索框恶意攻击的方案

赞 (0) 打赏作者

评论 0

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏