zpool status 会误报损坏文件?

pikashi · 2024-7-23 10:13:02 · 223 次点击
话说 zpool status -v 会误报文件损坏吗?

系统是最新的 TrueNAS Scale 稳定版 Dragonfish

zpool 扫描后报错,我把里面报告的损坏文件用 sz 下载下来,和本地 Windows 上的副本一对比,winmerge 和 totalcmd 对比功能都报告两个文件一模一样。

本地的是刚用 bt 下载的,hash 校检过的所以应该是完好的。

可能是内存问题?
举报· 223 次点击
登录 注册 站外分享
11 条回复  
laminux29 小成 2024-7-23 10:55:35
1.ZFS 是 Sun 公司开发的商业 FS ,TrueNAS 以及各种 Linux 发行版用的是其开源版本 OpenZFS ,两者不一样。

2.OpenZFS 就是有你说的这个问题,我自己按照完整的 OpenZFS 分层存储,包括 RaidZ2 的 HDD 、热备盘、Cache 盘、Write Log Zil Mirror ,都部署了,跑了半个月就是各种校验和错误。我深刻怀疑是 Bug 或者是开发者故意的。

3.建议有条件还是上分布式存储吧,毕竟 ZFS 是单机,存在单点问题,不适合生产。
xuan_lengyue 小成 2024-7-23 11:44:29
@laminux29 是不是 SATA/SAS 控制器报的校验错误,检查连线和 EMI
xinmans 小成 2024-7-23 11:54:08
@laminux29 truenas 的 zfs 还比较稳定,你用的什么版本?
pagxir 小成 2024-7-23 12:48:10
基本上是硬件问题,除非是 zfs 版本比较老。zfs 对数据完整性比较严格,校验不对就报错。跟 btrfs 这种不太关注完整性的区别是,zfs 的话硬件有问题在文件系统层面就暴露出来了,而 btrfs 则到应用层才会反应出来。
Pteromyini 小成 2024-7-23 13:24:52
zfs 很敏感,有一点点异常都会给你反馈出来,跟上面回复不同的是,目前 zfs 在生产环境应用很广泛,错误敏感是原因之一
xustrive 小成 2024-7-23 13:52:32
@laminux29 #2 目前已知开源可以作为高可用的存储是 CEPH  还有没有其他推荐。 或者可以做双机热备的存储也可以。
wwd179 小成 2024-7-23 16:11:38
我直接用 debian+openzfs 。跑 pt 。syncthing 文件同步。稳定运行了一年了,开启每周 scrub ,目前没啥问题。
hefish 小成 2024-7-23 19:59:09
我发现 zfs 在硬盘超过 10 多块的时候,在大量小文件读写的时候,挺容易挂起的。 两台服务器,都是 14 个盘做的 zfs , 都有这种情况。 跑的 debian + openzfs 。
以前曾在 freebsd 上跑过十来个盘的 zfs ,没碰到类似问题。
bluaze 小成 2024-7-24 17:13:30
zfs 是自愈合的,如果你的 pool 是有冗余的,那么 zfs 在探测到数据损坏的时候就会即时修复
12下一页
返回顶部