博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
解决too many PGs per OSD的问题
阅读量:4026 次
发布时间:2019-05-24

本文共 945 字,大约阅读时间需要 3 分钟。

当一个集群中创建的pg个数过多时(创建的pool过多或者pool指定的pg过多),Mon就会报出如下警告:
$ ceph -s    cluster 27d39faa-48ae-4356-a8e3-19d5b81e179e     health HEALTH_WARN            too many PGs per OSD (1296 > max 300)     monmap e2: 3 mons at {server-61.102.test.ustack.in=10.0.102.61:6789/0,server-62.102.test.ustack.in=10.0.102.62:6789/0,server-63.102.test.ustack.in=10.0.102.63:6789/0}            election epoch 24, quorum 0,1,2 server-61.102.test.ustack.in,server-62.102.test.ustack.in,server-63.102.test.ustack.in     osdmap e119: 6 osds: 6 up, 6 in      pgmap v30251: 2592 pgs, 14 pools, 5068 MB data, 381 objects            15503 MB used, 2757 GB / 2772 GB avail                2592 active+clean  client io 0 B/s rd, 5923 B/s wr, 1 op/s
这个可以不予理会,但对于有洁癖的码农来说,不是HEALTH_OK就会很不爽。解决这个问题可以通过添加更多的OSD、删除不用的pool或者调整Ceph的参数:
$ ceph tell 'mon.*' injectargs "--mon_pg_warn_max_per_osd 0"
使用tell命令修改的配置只是临时的,只要服务一重启,配置就会回到解放前,从ceph.conf 中读取配置。所以长久之计是把这个配置加到Ceph Mon节点的配置文件里,然后重启Mon服务。

转载地址:http://opxbi.baihongyu.com/

你可能感兴趣的文章
北京联通华为光猫HG8346R破解改桥接
查看>>
python使用win32*模块模拟人工操作——城通网盘下载器(一)
查看>>
python append 与浅拷贝
查看>>
Matlab与CUDA C的混合编程配置出现的问题及解决方案
查看>>
2017阿里内推笔试题--算法工程师(运筹优化)
查看>>
python自动化工具之pywinauto(零)
查看>>
python自动化工具之pywinauto(四)——批量转换exe视频
查看>>
python一句话之利用文件对话框获取文件路径
查看>>
PaperDownloader——文献命名6起来
查看>>
PaperDownloader 1.5.1——更加人性化的文献下载命名解决方案
查看>>
如何将PaperDownloader下载的文献存放到任意位置
查看>>
C/C++中关于动态生成一维数组和二维数组的学习
查看>>
系统架构:Web应用架构的新趋势---前端和后端分离的一点想法
查看>>
JVM最简生存指南
查看>>
漂亮的代码,糟糕的行为——解决Java运行时的内存问题
查看>>
Java的对象驻留
查看>>
自己动手写GC
查看>>
Java 8新特性终极指南
查看>>
logback高级特性使用(二) 自定义Pattern模板
查看>>
JVM并发机制探讨—内存模型、内存可见性和指令重排序
查看>>