问题描述
我一直在搜索此站点和Boost.Log文档以找到实现此目的的方法,但到目前为止却空无一物。
文档(https://www.boost.org/doc/libs/1_74_0/libs/log/doc/html/log/detailed/sink_backends.html)提到了将import pandas as pd
df = pd.DataFrame({'col0': ('a0','b0','c0','de0','sas'),'col1': ('a','b','c','d','ef'),'col2': ('A','A','B','B')})
sorted_df = sorted_df = df.melt('col2',value_name='col1').drop(columns='variable')\
.sort_values('col1').reset_index(drop=True).sort_index(axis=1)
print(df)
col0 col1 col2
0 a0 a A
1 b0 b A
2 c0 c A
3 de0 d B
4 sas ef B
print(sorted_df)
col1 col2
0 a A
1 a0 A
2 b A
3 b0 A
4 c A
5 c0 A
6 d B
7 de0 B
8 ef B
9 sas B
设置为在通过调用text_stream_backend
写入的每个日志记录之后刷新的功能。
虽然这对调试很有效,但我想知道是否有可能在auto_flush(true)
发生之前配置core
(或sink
?)收到的自定义数量的日志记录。 。我的目标是在有用的实时日志记录(我可以经常用flush()
看到日志记录)和性能之间取得平衡。
或者,是否可以配置包含日志记录的缓冲区的大小,以便一旦缓冲区填满就被刷新?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)