5个真正好用的检查链接是否正常的工具,亲测有效

写完一篇公众号推文,发出去前顺手点开几个外链——结果跳转到 404 页面;整理收藏夹时发现几十个失效书签,点一个死一个;做 SEO 优化,爬虫报告说网站有 200 多个死链……这些场景是不是很熟悉?链接“看着正常”,其实早就悄悄挂了。

为什么手动点开不靠谱

人眼识别链接状态太慢,还容易漏:比如重定向太多次、返回 503 临时错误、HTTPS 证书过期、甚至服务器返回 200 却是空白页或错误提示。这些都算“不正常”,但你点进去可能只看到一片白或者一句“页面加载失败”。

推荐几款我日常在用的工具

1. Xenu's Link Sleuth(Windows 免费)
老但稳,十多年没更新却依然能跑。拖入一个本地 HTML 文件或输入网站首页 URL,它会自动抓取所有链接,标红显示 404、500、超时等异常。支持导出 Excel,适合批量检查整站。

2. Dead Link Checker(在线工具)
网址:https://www.deadlinkchecker.com。不用装软件,填个网址就能扫。免费版每天限查 3 次,每次最多 250 个链接,对个人博客或小站点够用。界面清爽,结果直接分颜色标记,点开就能看响应码和来源页面。

3. W3C Link Checker(官方出品)
地址:https://validator.w3.org/checklink。W3C 出的,严谨得像教科书。支持检查单页、整个站点或上传文件。它连相对路径、锚点跳转、meta refresh 都能识别,适合较真党或做合规检查时用。

4. Screaming Frog SEO Spider(桌面软件,免费版限 500 URL)
SEO 人员常用,但普通用户也能上手。下载安装后输入网址,它会像搜索引擎一样爬取页面,把每个链接的状态码、重定向链、响应时间全列出来。右键还能直接在浏览器中打开异常链接对比。

5. Chrome 插件:Check My Links
轻量实用。安装后打开任意网页,点击插件图标,它会在页面上快速高亮绿色(正常)、红色(失效)链接。适合编辑文章、检查自己写的网页、或者帮朋友快速验一验公众号图文里的外链。

顺便提个小技巧

如果经常要检查一批链接(比如导出的 Excel 里有 200 个网址),可以用 Python 快速写个脚本:

import requests
urls = ["https://example.com", "https://404test.com"]
for url in urls:
try:
r = requests.head(url, timeout=5, allow_redirects=True)
print(f"{url} - {r.status_code}")
except Exception as e:
print(f"{url} - ERROR")

只要装了 requests 库(pip install requests),5 分钟搞定,比点鼠标快得多。

工具不在多,在于顺手。挑一个最合你习惯的,定期扫一遍链接,比等用户留言说“点不开”再修,省心多了。