我想将 Airflow 与 Statsd 和 DataDog 一起使用来监控 DAG 是否需要例如是之前执行的两倍。所以,我需要某种用于 DAG 的实时计时器(或者operator
).
我知道 Airflow 支持一些指标 https://airflow.apache.org/docs/stable/metrics.html。
然而,据我了解,所有指标都与已完成的任务/DAG 相关,对吧?所以,这不是解决方案,因为我想监视正在运行的 DAG。
我也考虑过超时执行 https://airflow.apache.org/docs/stable/_api/airflow/operators/index.html#airflow.operators.BaseOperator/SLA https://airflow.apache.org/docs/stable/concepts.html#slas功能,但它们不适合此用例
我希望收到一些 DAG 挂起的通知,但我不想杀死它。
您可以通过多种不同的方式来处理此问题:
- 过去,我配置了一个遥测 DAG,它将通过查询元数据表来收集所有任务/DAG 的当前状态。我会收集这些指标并将其推送到 CloudWatch。由于这些内部字段经常发生变化,这成为了问题,因此我们在尝试升级到较新版本的 Airflow 时会遇到问题。
- 还有一些保养得好的普罗米修斯出口商 https://github.com/search?q=airflow+prometheus一些公司已经开源了。通过设置这些,您可以根据需要频繁地轮询公开的导出路径(DataDog支持普罗米修斯 https://docs.datadoghq.com/integrations/prometheus/).
这些只是您的一些选择。由于 Airflow Web 服务器只是一个 Flask 应用程序,因此您可以真正以您认为合适的任何方式公开指标。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)