为什么 systemd 清理脚本会为随机节点间歇性地工作

问题描述

我在 Ubuntu 18.04 上的 systemd 脚本配置在 3 个不同的节点中,以便在实例关闭/终止期间在同一个 AWS S3 存储桶(在不同目录中)写入一个简单的日志条目 -


[单位]

说明=关机时停用密钥

DefaultDependencies=no

Before=poweroff.targethalt.target shutdown.target

After=network.target

[服务]

Type=oneshot

ExecStart=/bin/true

ExecStop=/bin/bash /root/deactivate.sh

RemainAfterExit=yes

[安装]

WantedBy=multi-user.target poweroff.targethalt.target shutdown.target


我正在使用 Terrafrom 通过 Azure 管道关闭这 3 个节点实例。但是我发现在每个管道运行(终止这些实例)中,只有 1 或 2 个节点正在更新 s3 中的日志文件。 这些节点写入 S3 的选择在每次终止运行中都是随机的。

请建议我是否在服务配置中做错了什么,或者是由于 S3 中的并发写入(具有 3 个专用节点日志目录的同一个存储桶)。

如何确保每个节点在终止前优雅地完成清理脚本。

提前致谢!!

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...