问题描述
我有一定的 Python 代码基础(Flask 服务器)。我需要服务器执行性能关键操作,我决定用 C++ 实现。但是,由于C++部分有其他依赖,尝试ctypes
和boost.python
都没有结果(没有找到符号,其他库甚至在设置环境时,等等,基本上,有问题)。我相信一个合适的替代方法是将 C++ 部分编译成可执行文件(需要单个函数/过程)并使用 commands
或 subprocess
从 python 运行它,通过 {{1 }} 例如。我唯一担心的是这会减慢程序的速度,因为我无法创建共享对象库,直接从 python 调用它的函数,我无法对加速进行基准测试。
当我将 C++ 代码编译为可执行文件并使用一些示例数据运行它时,程序需要 stdin/out
才能运行。这不考虑从 python 打开进程,也不考虑在进程之间传递数据。
问题是:与创建新进程来运行程序相比,使用 ctypes/boost 和 SO 可以期待多大的加速?如果我认为这个数字足够大,它会激励我解决遇到的问题,基本上,我在问它是否值得。
解决方法
如果您在使用 Boost.Python 创建绑定时遇到困难,您可以通过 c 函数手动公开您的 API,并通过 FFI 使用它们。
这是一个简单的例子,它简要地解释了我的想法。首先,您创建了一个共享库,但在这里添加了一些额外的函数,在我将其放入 extern "C"
部分的示例中。必须使用 extern "C"
,否则函数名称会被修改,并且它们的实际名称可能与您声明的名称不同:
#include <cstdint>
#include <cstdio>
#ifdef __GNUC__
#define EXPORT __attribute__ ((visibility("default")))
#else // __GNUC__
#error "Unsupported compiler"
#endif // __GNUC__
class data_processor {
public:
data_processor() = default;
void process_data(const std::uint8_t *data,std::size_t size) {
std::printf("processing %zu bytes of data at %p\n",size,data);
}
};
extern "C" {
EXPORT void *create_processor() {
return new data_processor();
}
EXPORT void free_processor(void *data) {
delete static_cast<data_processor *>(data);
}
EXPORT void process_data(void *object,const std::uint8_t *data,const std::uint32_t size) {
static_cast<data_processor *>(object)->process_data(data,size);
}
}
然后你在 python 中创建函数绑定。如您所见,函数声明几乎与下面的 cpp 文件中的相同。我只使用内置类型(如 void *
、uint8_t
和任何东西,但我相信 FFI 也允许您声明和使用自定义结构):
from cffi import FFI
mylib_api = FFI()
mylib_api.cdef("""
void *create_processor();
void free_processor(void *object);
void process_data(void *object,const uint8_t *data,uint32_t size);
""")
mylib = mylib_api.dlopen("mylib.so-file-location")
processor = mylib.create_processor()
try:
buffer = b"buffer"
mylib.process_data(processor,mylib_api.from_buffer("uint8_t[]",python_buffer=buffer),len(buffer))
finally:
mylib.free_processor(processor)
基本上就是这样。
在我看来,在没有其他任何工作的情况下,互处理将是最后的手段:
- 你需要付出很多努力来实现你的通信协议的细节,如果你使用流行的东西,可能会有很多问题,尤其是从 C++ 端;
- 就处理器时间而言,进程间通信通常更昂贵。