Airflow 1.10.9未将日志写入S3

问题描述

这里有没有人将气流日志发送到S3

我正在运行气流版本1.10.9,并且试图将日志发送到S3。我遵循了here上的官方文档说明,但它们似乎根本没有用。
我也尝试过重新启动Airflow Scheduler和Web服务器。

如果有人做到了,他们能告诉我他们是怎么做到的吗?

我为S3创建的连接:

Conn Id: S3Connection
Conn Type: S3
Schema: {"aws_access_key_id":"some-key","aws_secret_access_key": "some-key"}

>All other fields were left blank.

我的airflow.cfg具有此功能

remote_logging = True
remote_log_conn_id = S3Connection
remote_base_log_folder = s3://log-bucket/qa
encrypt_s3_logs = False

>Note that only log-bucket exists right Now,the key I assume should be automatically created when something is uploaded there.

我也尝试过this answerthis answer,但这对我也不起作用。

解决方法

一个潜在的问题是,您输入到Schema中的连接详细信息的json表示实际上可能是用于Connection字段/表单上的Extra字段的。

尝试相应地更新您的连接。