zpool status 会误报损坏文件?

pikashi · 2024-7-23 10:13:02 · 222 次点击
话说 zpool status -v 会误报文件损坏吗?

系统是最新的 TrueNAS Scale 稳定版 Dragonfish

zpool 扫描后报错,我把里面报告的损坏文件用 sz 下载下来,和本地 Windows 上的副本一对比,winmerge 和 totalcmd 对比功能都报告两个文件一模一样。

本地的是刚用 bt 下载的,hash 校检过的所以应该是完好的。

可能是内存问题?
举报· 222 次点击
登录 注册 站外分享
11 条回复  
taoky 小成 2024-8-11 20:13:11
@laminux29 不开玩笑,「跑了半个月就是各种校验和错误」的话,建议跑一下 memtest 。我接触过多个跑了几年的 OpenZFS 阵列从来没遇到过 checksum 报错,如果 checksum 频繁出错的话,几乎可以确定是硬件问题。
woyaojizhu8 小成 2024-7-26 21:41:13
@pagxir btrfs 不太关注完整性? btrfs 不是跟 zfs 一样可以有数据校验吗?能不能说说它不太关注完整性的具体表现?
bluaze 小成 2024-7-24 17:13:30
zfs 是自愈合的,如果你的 pool 是有冗余的,那么 zfs 在探测到数据损坏的时候就会即时修复
hefish 小成 2024-7-23 19:59:09
我发现 zfs 在硬盘超过 10 多块的时候,在大量小文件读写的时候,挺容易挂起的。 两台服务器,都是 14 个盘做的 zfs , 都有这种情况。 跑的 debian + openzfs 。
以前曾在 freebsd 上跑过十来个盘的 zfs ,没碰到类似问题。
wwd179 小成 2024-7-23 16:11:38
我直接用 debian+openzfs 。跑 pt 。syncthing 文件同步。稳定运行了一年了,开启每周 scrub ,目前没啥问题。
xustrive 小成 2024-7-23 13:52:32
@laminux29 #2 目前已知开源可以作为高可用的存储是 CEPH  还有没有其他推荐。 或者可以做双机热备的存储也可以。
Pteromyini 小成 2024-7-23 13:24:52
zfs 很敏感,有一点点异常都会给你反馈出来,跟上面回复不同的是,目前 zfs 在生产环境应用很广泛,错误敏感是原因之一
pagxir 小成 2024-7-23 12:48:10
基本上是硬件问题,除非是 zfs 版本比较老。zfs 对数据完整性比较严格,校验不对就报错。跟 btrfs 这种不太关注完整性的区别是,zfs 的话硬件有问题在文件系统层面就暴露出来了,而 btrfs 则到应用层才会反应出来。
xinmans 小成 2024-7-23 11:54:08
@laminux29 truenas 的 zfs 还比较稳定,你用的什么版本?
xuan_lengyue 小成 2024-7-23 11:44:29
@laminux29 是不是 SATA/SAS 控制器报的校验错误,检查连线和 EMI
12下一页
返回顶部