Inkscope监控界面错误
博客专区 > GoldKing 的博客 > 博客详情
Inkscope监控界面错误
GoldKing 发表于3年前
Inkscope监控界面错误
  • 发表于 3年前
  • 阅读 343
  • 收藏 0
  • 点赞 0
  • 评论 16

腾讯云 技术升级10大核心产品年终让利>>>   

摘要: Inkscope监控ceph对象存储出现的错误。

Inkscope监控界面错误显示

1 错误监控选项

   首先显示整体的监控界面:

1.1 界面自动not available

发现在10.10.10.70上出现下面的情况。

这是在实际生产中会遇到的问题,ceph可以自动修正问题。

1.2 mongodb界面显示

因为mongodb使用的端口为27017,所以在增加1000mongodbweb界面,所以我们直接访问:http://10.10.10.28017.

1.3 cluster错误

界面显示遇到的问题,在监控的显示界面按:F12,显示代码。

随着inkscope的运行,错误会越来越多,还是有很多的重复的,因为监控在不断的刷新,所以错误是避免不了的,只有认真的解决问题,后面才会更加的轻松。

1.3.1 hosts

1.3.2 cluster general flags


代码显示错误:GET http://10.10.10.70:8080/inkscopeViz/scripts/angular-misc/ng-table.map 404 (Not Found)

nv.d3.js:44 total 40

scripts/angular-misc/ng-table.map:1

查找对应的文件命令:cd /var/www/inkscope/inkscopeViz/scripts/angular-misc

命令:ls

首先分析是什么程序调用这个文件,然后层层递推就解决问题。

错误原因:没有找到/var/www/inkscope/inkscopeViz/scripts/angular-misc目录中的ng-table.map,通过查找我们没有找到ng-table.map的文件,所以这是软件自身的问题,导致后面显示错误。

1.4 osd错误

1.4.1 osds status

错误一:

ng-table.map不存在。

错误二:

1.4.2 osd map

错误一:

错误二:


没有颜色的变化和osd空间的显示。

1.5 pool错误

1.5.1 Pool placement

1.5.2 Pools/pgs/osds

1.6 rados gateway错误

Radosgw没有显示是因为本机没有设置radosgw,所以没有显示,就算是设置radosgw_url为安装radosgwip,还是不显示。这可能是自己没有配置好。

1.6.1 Users

1.6.2 Buckets

1.6.3 Rgw object visualization

1.7 Misc 错误

1.7.1 Crush map

1.7.2 Erasure profiles

1.7.3  Probe status

1.7.4 object lookup

1.7.5 console

2 总结

   每个人遇到的问题不一样,但是最后总会解决问题,希望尽快解决这些问题。希望相互学习共同进步!

 

 


标签: Ceph Inkscope
共有 人打赏支持
粉丝 2
博文 1
码字总数 522
评论 (16)
小河虾
inkscope 安装好了some osd stats are missing 而且在面板上不显示osd的个数呀
GoldKing

引用来自“ceph求学者a”的评论

inkscope 安装好了some osd stats are missing 而且在面板上不显示osd的个数呀
首先要保证整个ceph集群的健康状态,ceph -health 是否是健康的,然后查看ceph osd dump 查看osd的状态时候是up。
小河虾

引用来自“ceph求学者a”的评论

inkscope 安装好了some osd stats are missing 而且在面板上不显示osd的个数呀

引用来自“GoldKing”的评论

首先要保证整个ceph集群的健康状态,ceph -health 是否是健康的,然后查看ceph osd dump 查看osd的状态时候是up。
健康也是OK osd 的状态 rocky@ceph3:~$ ceph osd dump --cluster linxos epoch 71 fsid 832842f6-cb83-4fe1-b604-1e401cf0ff0c created 2015-03-12 15:20:45.436644 modified 2015-03-16 13:27:30.539260 flags pool 0 'rbd' replicated size 2 min_size 1 crush_ruleset 0 object_hash rjenkins pg_num 64 pgp_num 64 last_change 1 flags hashpspool stripe_width 0 pool 1 'test' replicated size 2 min_size 1 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 42 flags hashpspool stripe_width 0 max_osd 4 osd.0 up in weight 1 up_from 5 up_thru 66 down_at 0 last_clean_interval [0,0) 192.168.100.110:6800/2981 192.168.100.110:6801/2981 192.168.100.110:6802/2981 192.168.100.110:6803/2981 exists,up f2da93bd-1327-4dea-a5ce-be848f541a5e osd.1 up in weight 1 up_from 11 up_thru 66 down_at 0 last_clean_interval [0,0) 192.168.100.110:6804/3627 192.168.100.110:6805/3627 192.168.100.110:6806/3627 192.168.100.110:6807/3627 exists,up cf98b9a2-1f9c-4fe9-9c2b-62dc6de2247f osd.2 up in weight 1 up_from 66 up_thru 66 down_at 64 last_clean_interval [53,63) 192.168.100.111:6800/2143 192.168.100.111:6801/2143 192.168.100.111:6802/2143 192.168.100.111:6803/2143 exists,up af1edaf3-9fa8-4e01-ae80-6b12fd585b4e osd.3 up in weight 1 up_from 66 up_thru 66 down_at 64 last_clean_interval [32,63) 192.168.100.111:6804/2299 192.168.100.111:6805/2299 192.168.100.111:6806/2299 192.168.100.111:6807/2299 exists,up fb8f67b1-7ded-4258-88ce-5e93d4d8ffe7
GoldKing

引用来自“ceph求学者a”的评论

inkscope 安装好了some osd stats are missing 而且在面板上不显示osd的个数呀

引用来自“GoldKing”的评论

首先要保证整个ceph集群的健康状态,ceph -health 是否是健康的,然后查看ceph osd dump 查看osd的状态时候是up。

引用来自“ceph求学者a”的评论

健康也是OK osd 的状态 rocky@ceph3:~$ ceph osd dump --cluster linxos epoch 71 fsid 832842f6-cb83-4fe1-b604-1e401cf0ff0c created 2015-03-12 15:20:45.436644 modified 2015-03-16 13:27:30.539260 flags pool 0 'rbd' replicated size 2 min_size 1 crush_ruleset 0 object_hash rjenkins pg_num 64 pgp_num 64 last_change 1 flags hashpspool stripe_width 0 pool 1 'test' replicated size 2 min_size 1 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 42 flags hashpspool stripe_width 0 max_osd 4 osd.0 up in weight 1 up_from 5 up_thru 66 down_at 0 last_clean_interval [0,0) 192.168.100.110:6800/2981 192.168.100.110:6801/2981 192.168.100.110:6802/2981 192.168.100.110:6803/2981 exists,up f2da93bd-1327-4dea-a5ce-be848f541a5e osd.1 up in weight 1 up_from 11 up_thru 66 down_at 0 last_clean_interval [0,0) 192.168.100.110:6804/3627 192.168.100.110:6805/3627 192.168.100.110:6806/3627 192.168.100.110:6807/3627 exists,up cf98b9a2-1f9c-4fe9-9c2b-62dc6de2247f osd.2 up in weight 1 up_from 66 up_thru 66 down_at 64 last_clean_interval [53,63) 192.168.100.111:6800/2143 192.168.100.111:6801/2143 192.168.100.111:6802/2143 192.168.100.111:6803/2143 exists,up af1edaf3-9fa8-4e01-ae80-6b12fd585b4e osd.3 up in weight 1 up_from 66 up_thru 66 down_at 64 last_clean_interval [32,63) 192.168.100.111:6804/2299 192.168.100.111:6805/2299 192.168.100.111:6806/2299 192.168.100.111:6807/2299 exists,up fb8f67b1-7ded-4258-88ce-5e93d4d8ffe7
你可以看一下http://my.oschina.net/JerryBaby/blog/331803这篇文章。
小河虾

引用来自“ceph求学者a”的评论

inkscope 安装好了some osd stats are missing 而且在面板上不显示osd的个数呀

引用来自“GoldKing”的评论

首先要保证整个ceph集群的健康状态,ceph -health 是否是健康的,然后查看ceph osd dump 查看osd的状态时候是up。

引用来自“ceph求学者a”的评论

健康也是OK osd 的状态 rocky@ceph3:~$ ceph osd dump --cluster linxos epoch 71 fsid 832842f6-cb83-4fe1-b604-1e401cf0ff0c created 2015-03-12 15:20:45.436644 modified 2015-03-16 13:27:30.539260 flags pool 0 'rbd' replicated size 2 min_size 1 crush_ruleset 0 object_hash rjenkins pg_num 64 pgp_num 64 last_change 1 flags hashpspool stripe_width 0 pool 1 'test' replicated size 2 min_size 1 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 42 flags hashpspool stripe_width 0 max_osd 4 osd.0 up in weight 1 up_from 5 up_thru 66 down_at 0 last_clean_interval [0,0) 192.168.100.110:6800/2981 192.168.100.110:6801/2981 192.168.100.110:6802/2981 192.168.100.110:6803/2981 exists,up f2da93bd-1327-4dea-a5ce-be848f541a5e osd.1 up in weight 1 up_from 11 up_thru 66 down_at 0 last_clean_interval [0,0) 192.168.100.110:6804/3627 192.168.100.110:6805/3627 192.168.100.110:6806/3627 192.168.100.110:6807/3627 exists,up cf98b9a2-1f9c-4fe9-9c2b-62dc6de2247f osd.2 up in weight 1 up_from 66 up_thru 66 down_at 64 last_clean_interval [53,63) 192.168.100.111:6800/2143 192.168.100.111:6801/2143 192.168.100.111:6802/2143 192.168.100.111:6803/2143 exists,up af1edaf3-9fa8-4e01-ae80-6b12fd585b4e osd.3 up in weight 1 up_from 66 up_thru 66 down_at 64 last_clean_interval [32,63) 192.168.100.111:6804/2299 192.168.100.111:6805/2299 192.168.100.111:6806/2299 192.168.100.111:6807/2299 exists,up fb8f67b1-7ded-4258-88ce-5e93d4d8ffe7

引用来自“GoldKing”的评论

你可以看一下http://my.oschina.net/JerryBaby/blog/331803这篇文章。
谢谢我看一下
小河虾
会不会是我的虚拟机卡导致数据丢失呢
GoldKing

引用来自“ceph求学者a”的评论

会不会是我的虚拟机卡导致数据丢失呢
ceph数据是进行备份的,如果ceph-health是健康的,一般数据不会丢失的。我觉得最大的可能是inkscope的配置文件没有配置好,如果配置好,那么至少osd显示是没有问题的。
小河虾

引用来自“ceph求学者a”的评论

会不会是我的虚拟机卡导致数据丢失呢

引用来自“GoldKing”的评论

ceph数据是进行备份的,如果ceph-health是健康的,一般数据不会丢失的。我觉得最大的可能是inkscope的配置文件没有配置好,如果配置好,那么至少osd显示是没有问题的。
这是我的配置文件,帮忙看看哪不对谢谢 { "ceph_conf": "/etc/ceph/linxos.conf", "ceph_rest_api": "192.168.100.112:5000", "ceph_rest_api_subfolder": "", "mongodb_host" : "192.168.100.113", "mongodb_set" : "mongodb0:27017,mongodb1:27017,mongodb2:27017", "mongodb_replicaSet" : "replmongo0", "mongodb_read_preference" : "ReadPreference.SECONDARY_PREFERRED", "mongodb_port" : 27017, "mongodb_user":"ceph", "mongodb_passwd":"monpassword", "is_mongo_authenticate" : 0, "is_mongo_replicat" : 0, "cluster": "linxos", "status_refresh": 3, "osd_dump_refresh": 3, "pg_dump_refresh": 60, "crushmap_refresh": 60, "df_refresh": 60, "cluster_window": 1200, "osd_window": 1200, "pool_window": 1200, "mem_refresh": 60, "swap_refresh": 600, "disk_refresh": 60, "partition_refresh": 60, "cpu_refresh": 30, "net_refresh": 30, "mem_window": 1200, "swap_window": 3600, "disk_window": 1200, "partition_window": 1200, "cpu_window": 1200, "net_window": 1200, "radosgw_url": "http://127.0.0.1:80", "radosgw_admin": "admin", "radosgw_key": "access-key", "radosgw_secret": "secret-key" }
GoldKing
1、"ceph_conf": "/etc/ceph/linxos.conf", 这里的配置应该为:"ceph_conf": "/etc/ceph/ceph.conf",也许你的ceph.conf被命名为linxos.conf
2、"ceph_rest_api": "192.168.100.112:5000",
"mongodb_host" : "192.168.100.113",
你的这两个IP是不同的,但是我用的是相同的。这是我的配置:
"ceph_rest_api": "10.10.10.70:5000",
"mongodb_host" : "10.10.10.70",
其余是相同的配置。
小河虾

引用来自“GoldKing”的评论

1、"ceph_conf": "/etc/ceph/linxos.conf", 这里的配置应该为:"ceph_conf": "/etc/ceph/ceph.conf",也许你的ceph.conf被命名为linxos.conf
2、"ceph_rest_api": "192.168.100.112:5000",
"mongodb_host" : "192.168.100.113",
你的这两个IP是不同的,但是我用的是相同的。这是我的配置:
"ceph_rest_api": "10.10.10.70:5000",
"mongodb_host" : "10.10.10.70",
其余是相同的配置。
你的数据库和api运行在同一台机器上吧
小河虾
对了mongo需要配置吗,比如说创建数据库什么的
GoldKing

引用来自“ceph求学者a”的评论

对了mongo需要配置吗,比如说创建数据库什么的

在mongodb节点上 vim /etc/mongodb.conf 修改为: bind_ip = 0.0.0.0 port = 27107 然后重启服务:service mongodb restart
geek_ming

引用来自“ceph求学者a”的评论

inkscope 安装好了some osd stats are missing 而且在面板上不显示osd的个数呀
我也遇到这个问题了,请问一下你解决了么?是怎么解决的?
GoldKing

引用来自“ceph求学者a”的评论

inkscope 安装好了some osd stats are missing 而且在面板上不显示osd的个数呀

引用来自“geek_ming”的评论

我也遇到这个问题了,请问一下你解决了么?是怎么解决的?
首先查看是不是所有的服务是启动的,最后一步要进行服务的启动。 ceph的安装部署节点。 命令:ceph-rest-api -n client.admin 命令:cd /opt/inkscope/bin 命令:python sysprobe.py start 命令:python cephprobe.py start 命令:python daemon.py 因为我在其他节点只是安装了依赖的软件,没有安装inkscope,所以在/opt目录下没有inkscope的目录,显然下面的命令执行不了,所以inkscope是安装在所有的节点上,只是最后执行的命令不一样。 在ceph的其他节点上执行: 命令:cd /opt/inkscope/bin 命令: python sysprobe.py start 命令:python daemon.py
amran
some osd stats are missing
amran
哈囉我在inkscope 遇到這個問題 ”some osd stats are missing“ 怎麼解法呢?

謝謝
×
GoldKing
如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
* 金额(元)
¥1 ¥5 ¥10 ¥20 其他金额
打赏人
留言
* 支付类型
微信扫码支付
打赏金额:
已支付成功
打赏金额: