prometheus

    1热度

    1回答

    我们的团队决定切换到Prometheus监控。所以我想知道如何设置高可用容错Prometheus安装。 我们有许多在AWS ECS上运行的小型项目,几乎所有的服务都是集装箱化的。所以我有一些问题。 我们应该容纳普罗米修斯吗? 这意味着每个实例运行2个EC2实例,每个实例运行一个Prometheus容器,每个实例运行一个NodeExporter。并在不同的实例中在每个实例的Wave Mesh容器中运

    0热度

    1回答

    registry = CollectorRegistry() g = Gauge('some_metrices', 'metrics', "[node]",registry=registry) g.lables("worker").set(101) push_to_gateway('localhost:9091', job='batchA', registry=reg

    0热度

    1回答

    我有一个普罗米修斯警告这样的: ALERT etcdNoLeader IF etcd_server_has_leader{job="etcd"} == 0 FOR 1m 发生什么情况,如果etcd_server_has_leader指标停止生成的数据? 警报是否起火?它有什么作用吗?

    0热度

    1回答

    我有一个指标service_replicas_actual。此度量标准的尺寸为name。我需要一个查询,它将按name维度进行分组并显示最近的值。 name尺寸表示Docker服务,并且service_replicas_actual记录任何给定服务在任何给定时间运行的副本(任务)数量。我需要创建一个表格,显示按服务名称分组的当前副本数量。 我无法真正找到任何有关如何按维度分组然后选择最新值的文档。

    0热度

    1回答

    过滤搬运工容器我已经运行几个搬运工容器: docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 736caaa764f4 ubuntu "/bin/bash" 2 hours ago Up 2 hours quirky_morse e2869c98e

    0热度

    1回答

    我使用公式来计算约。 的MySQL实例即(简化的和写入PromQL)的最大内存消耗读取: ( mysql_global_variables_key_buffer_size + mysql_global_variables_query_cache_size + mysql_global_variables_tmp_table_size + mysql_globa

    1热度

    1回答

    我尝试用一​​些普罗米修斯提醒的语法: ALERT <alert name> IF <expression> [ FOR <duration> ] [ LABELS <label set> ] [ ANNOTATIONS <label set> ] 有没有调试控制台上的声明,而无需修改普罗米修斯配置并重新启动它以正确的方式?

    1热度

    1回答

    背景 我有我的Kubernetes集群上安装普罗米修斯(在谷歌集装箱工程师主持)。 的问题 我无法弄清楚如何刮对象添加到普罗米修斯服务器。 prometheus.io网站介绍了如何将一个prometheus.yml文件(其中包含一系列刮擦目标)安装到Prometheus Docker容器 - 我已经在本地完成了该工作,并且它可以正常工作。但是,我不知道如何为通过Kubernetes-Helm安装的

    0热度

    1回答

    我在一台服务器上安装了节点导出器和Prometheus,并且能够在Prometheus中获得指标。 但是,如果我添加另一个节点如何使用节点导出器将该新节点的度量值提取到我的Prometheus服务器。我在新服务器上安装了节点导出器,无法弄清楚如何将这些指标发送到其他服务器上的Prometheus服务器。 我Prometheus.yml文件看起来像这样 global: scrape_int

    1热度

    1回答

    使用普罗米修斯黑匣子出口商我想知道如何检索度量或价值“a.k.a”的“年龄”“受监控的服务需要多长时间?”。我知道我可以解决这个问题,我正在编写自己的导出器,它带有相关时间戳的度量标准,但是我想知道我能否以某种方式使用现有函数? 我的设置....普罗米修斯刮配置: scrape_configs: - job_name: 'blackbox' scrape_interval: 120s