Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Kubernetes Node 中的内核内存使用率较高
我非常绝望地寻找解决方案 我正在 AWS 上运行 Kubernetes 集群 v1 16 7 节点规格为 它是一个亚马逊 EC2 t3 medium实例与4GB RAM和 AMI k8s 1 11 debian stretch amd64
Kubernetes
memorymanagement
memoryleaks
Linuxkernel
fluentd
如何使 Fluent-logger-java 在 Spring Boot 中与 logback Appender 一起工作
我正在尝试将 fluid logger java 与带有 logback 附加程序的 springboot 项目集成 我可以使用中给出的示例代码将数据发送到 fluidd 聚合器https github com Fluent Fluent
Java
springboot
logback
fluentd
Loki 配置与 s3
我无法使用 Loki 连接到 AWS S3docker compose 日志在 Grafana 中可见 但 S3 存储桶仍为空 s3 存储桶是公共的 我附加了一个 IAM 角色来允许s3 FullAccess 我将 loki 更新到 v2
amazons3
fluentd
boltdb
grafanaloki
如何从 Docker 控制 fluidd 日志标签
当前设置正在运行 Docker 容器fluentd driver docker run log driver fluentd my container 这工作起来很容易 将标准输出发送到主机上本地运行的 Fluentd 系统 我想控制流利t
logging
Docker
fluentd
Fluentd 是否支持文件输出的日志轮换?
我当前使用的设置是具有多个容器的 Docker 组合堆栈 这些容器将其日志记录信息发送到运行 Fluentd 守护进程的日志记录容器 在 compose 堆栈内 Fluentd 的配置包括一in forward收集日志并将其写入单独文件的源
ruby
Docker
logging
fluentd
是否可以使用 stdout 作为 fluidd 源来捕获特定日志以写入elasticsearch?
我对 fluidd 和 elasticsearch 都是菜鸟 我想知道 fluidd 是否可以从 stdout 捕获特定日志 在本例中为我们的应用程序生成的自定义审核日志 使用 stdout 作为源 并将它们写入到elasticsearch
elasticsearch
fluentd
Fluentd 发送到 Splunk HEC:想要将源类型设置为命名空间
是否可以以编程方式将源类型设置为生成日志的名称空间 我正在使用 fluidd 插件将数据发送到 Splunk http 事件收集器 在其他地方 建议使用 record kubernetes namespace name 将索引名称设置为命名
Kubernetes
splunk
fluentd
在 fluidd 中解析 nginx 入口日志
我想在 Kubernetes 中使用 Fluentd 解析入口 nginx 日志 这在 Logstash 中相当简单 但我对 fluidd 语法感到困惑 现在我有以下规则
Nginx
Kubernetes
fluentd
将 Kubernetes 集群日志发送到 AWS Elasticsearch
我有一个测试 Kubernetes 集群 并在 AWS 上创建了 elasticsearch 其中包括用于日志管理的 Kibana 端点 https search this is my es wuktx5la4txs7avvo6ypuuyr
amazonwebservices
elasticsearch
Kubernetes
kibana
fluentd
12Factor 应用程序:使用 Fluentd 捕获 stdout/stderr 日志
通过阅读以下帖子12factor http 12factor net logs我提出了一个问题 想看看你们如何处理这个问题 基本上 应用程序应该直接写入 stdout stderr 有没有办法重定向这些流直接到 fludd 不绑定到 rsy
logging
fluentd
12factor
Fluent-bit 可以解析一个文件中的多种类型的日志行吗?
我在 k8s 中有一个相当简单的 Apache 部署 使用 Fluent bit v1 5 作为日志转发器 我的设置与下面存储库中的设置几乎相同 我正在运行 AWS EKS 并将日志输出到 AWS ElasticSearch Service
fluentd
fluentbit
如何将数据从kubernetes集群中的fluidd发送到集群外远程独立服务器中的elasticsearch?
我在 GCP 中设置了三个 kubernetes 集群环境 我已在所有这些环境中安装 Fluentd 作为 daemonset 以从所有 pod 收集日志 我还在集群外的单独服务器中安装了elasticsearch和kibana 我需要将
elasticsearch
Kubernetes
kibana
fluentd
Google 容器引擎记录到 Stackdriver 错误报告
我目前正在尝试将错误从 Google Container Engine 记录到 Stackdriver 错误报告中 我使用的是 GKE 内置的基于 fluidd 的 Stackdriver Logging 代理 效果非常好 但是 当我根据规
您可以在 fluidd 的配置文件中使用环境变量吗
我想知道如何在 Fluentd 配置中使用环境变量 我尝试过
environmentvariables
fluentd
Fluentd apache 格式 [警告]:模式不匹配:
在我的 etc Fluent Fluent conf 中
apache
fluentd
fluidd 不解析 JSON 日志文件条目
我在 Stackoverflow 上看到过很多类似的问题 包括this one 但没有一个解决我的具体问题 该应用程序部署在 Kubernetes v1 15 集群中 我正在使用基于的 docker 映像流利 流利的 docker imag
json
elasticsearch
kibana
fluentd
fluidd 丢失了毫秒,现在日志消息在 elasticsearch 中存储无序
我正在使用 fluidd 将日志消息集中在 elasticsearch 中并使用 kibana 查看它们 当我查看日志消息时 同一秒内发生的消息是无序的 并且 timestamp 中的毫秒数全为零 2015 01 13T11 54 01 0
elasticsearch
kibana
fluentd
无法在 compose 中使用服务名称从 (fluidd) logdriver 登录
我在 docker 中有以下设置 应用程序 httpd Fluentd 弹性搜索 Kibana 应用程序的日志驱动程序的配置正在描述 fluidd 容器 日志将保存在 ES 中并显示在 Kibana 中 当日志驱动程序配置如下时 它可以工作
Docker
fluentd
dockernetworking
EFK