问题描述
我尝试使用 moviepy python 包将视频文件转换为音频。它工作得很好。 但是,我有 1500 个 100MB 大小的视频,我想将它们全部转换为音频文件。使用标准方法需要很多时间。
import moviepy.editor as mp
clip = mp.VideoFileClip('file.mp4')
clip.audio.write_audiofile(r"file.mp3")
我也可以使用线程来同时转换多个文件,但我想同时利用多处理和多线程来以更少的时间复杂度最有效地实现结果。
仅使用线程的算法:
clip1...clip10= make 10 lists with 150 files names from os.listdir()
spawn 10 threads to process 10 files at a time.
t1= Thread(target=convert,args=(clips1))
.
.
.
t10= Thread(target=convert,args=(clips2))
有什么想法吗?
解决方法
如果您的所有视频都具有相同的音频编解码器(AAC 又名 MP4 音频),您可以简单地将音频流混合到单独的文件中。无需转换/编码任何东西。
ffmpeg -i input.mp4 -vn -c:a copy audio.m4a
或者,如果你真的想要 MP3 文件(我不推荐这个,MP3 已经过时了),你可以执行以下操作:
ffmpeg -i input.mp4 -vn -c:a mp3 -b:a 256k audio.mp3
每个视频只需几毫秒。
,在一种情况下,多线程和多处理的组合可能是有利的,即当正在执行的任务由整齐划定的部分组成时,其中一部分主要是 I/O 绑定(或至少放弃全局解释器锁,经常允许要运行的其他线程),另一部分是 CPU 密集型的。例如,您需要执行由两部分组成的多项任务:(1) 从网站检索一条信息,以及 (2) 然后使用该信息进行一些非平凡的计算。第 1 部分显然非常适合多线程,因为在发出检索 URL 的请求后,线程将进入等待状态,允许其他线程运行。如果第 2 部分是一个微不足道的计算,那么为了简单起见,您只需在线程内计算它。但既然我们说这很重要,那么最好在一个单独的进程中执行计算,这样我们就不必担心对全局解释器锁 (GIL) 的争用。
执行上述类型处理的模型是创建线程池和多处理池。 “作业”被提交给线程池工作函数,指定需要从中检索信息的网站的 URL 作为一个参数,将多处理池作为另一个参数。线程池工作函数首先从传递的 URL 中检索所需的信息,然后提交给使用传递的多处理池执行计算的第二个工作函数。
也就是说,我不太明白您的情况如何巧妙地划分为纯粹的 I/O 绑定部分和纯粹的 CPU 绑定部分。调用 clip = mp.VideoFileClip('file.mp4')
显然是在执行 I/O 和处理数据以供查看。同样,clip.audio.write_audiofile(r"file.mp3")
执行 CPU 处理以将视频剪辑转换为音频剪辑,我认为这主要是一个 CPU 密集型过程,然后写出文件,这显然是一个 I/O 密集型过程。
如果 API 的设计不同,文件的读取和写入是单独的方法,那么我认为同时使用线程和多处理会更可行。例如:
with open('file.mp4','rb') as f:
mp4_file = f.read() # I/O
clip = mp.VideoClipFromMemory(mp4_file) # CPU
clip.convertToAudio() # CPU
clip.writeFile('file.mp3') # I/O
所以最大的问题是:您将视频转换为音频的“工作”是受 CPU 限制还是受 I/O 限制更大。如果是前者,那么您应该使用多处理池,这可能会受益于池大小大于您拥有的 CPU 内核数,因为进程在等待 I/O 完成时终将进入等待状态因为作业并非纯粹受 CPU 限制。如果是后者,那么您应该使用多线程,因为线程在创建过程中的开销较小。但我怀疑你会用多处理做得更好。下面的代码,经过一些小的更改,可以使用:
import moviepy.editor as mp
import glob
import os
from concurrent.futures import ProcessPoolExecutor as Executor
# To use multithreading:
# from concurrent.futures import ThreadPoolExecutor as Executor
def converter(filename):
clip = mp.VideoFileClip(f'{filename}.mp4')
clip.audio.write_audiofile(f'{filename}.mp3')
def main():
mp4_filenames = map(lambda x: x.split('.')[0],glob.iglob('*.mp4'))
POOL_SIZE = os.cpu_count() # number of cores
# You might want to try a larger size,especially if you are using a thread pool:
with Executor(max_workers=POOL_SIZE) as executor:
executor.map(converter,mp4_filenames)
# required for multiprocessing under Windows
if __name__ == '__main__':
main()
其他评论/建议
我的建议是尝试一个小样本,比如 100 个文件,这两种方法(ProcessPoolExecutor 和 ThreadPoolExecutor)使用相同的池大小 os.cpu_count()
并针对相同的 100 个文件运行只是为了看看哪个完成更少时间。如果是 ProcessPoolExecutor
运行,您可以查看增加池大小是否有助于重叠 I/O 处理并提高吞吐量。如果是 ThreadPoolExecutor
运行,您可以大大增加线程池大小,直到您看到性能下降。线程池大小为 100(或在处理所有文件时更大)并非不合理。