1,手动删除死链接

处理死链接的时候最好找到死链接自身所处的位置,然后在页面中手动删除,这样比较容易,但是一旦网站上线时间较长,域名使用很久的情况下,虽然也可以使用站长工具查出死链接存在的数量,但是删除就不是很容易了,会相当困难,所以在建设网站的时候一定要做好防范,杜绝一切死链接的存在,一旦发现,立即删除。

2.使用robots屏蔽可能的网页

使用robots屏蔽可能的网页以及链接,编辑方法也很简单,只需要在语言中加入Disallow:死链接绝对网址这个语句就可以了,告诉蜘蛛这个网页无效,禁止抓去网站链接。然后把自己编辑好的语句上传到网站目录就可以了。 PS:但是这里面还存在一个问题,那就是如果网站自身经过改版造成大量死链接的存在,那么这种方法还有效用吗?经过亲身实践,发现如果网站改版后,内容以及网站结构层次上必然会有一个较大的变更,这时候单纯的使用robots语句对网站页面进行简单屏蔽的话效果并不是很明显,这时候需要利用301重定向,将各种网络请求直接转换到其他页面。

3.401错误页面提醒

如果网站上线时间较长,页面收录量是十万级的,使用301重定向方法就显得有些费时间,如果站长想减轻点负担,404错误页面或许是一个不错的选择,可以通过404错误页面将用户指引到想要访问的网站,跳转时间在8秒左右最宜,然后在页面中加入大家想要的网址提示,不过最好是用户自己点击,这样会降低自动跳转带来的用户反感度。但是404错误页面只是将在无法访问的情况下出现的提示,个人还是建议大家使用301重定向,将用户请求直接转换。