Tag: multiprocessing

Python多处理安全写入文件

我正在尝试解决一个涉及大量子问题的大数值问题,我使用Python的多处理模块(特别是Pool.map)将不同的独立子问题分解到不同的核心上。 每个子问题涉及计算大量的子子问题,我试图通过将这些结果存储到文件中来有效地记忆这些结果,如果它们还没有被任何进程计算,则跳过计算并从文件中读取结果。 我遇到了并发问题:不同的进程有时会检查是否已经计算出子子问题(通过查找结果将被存储的文件),查看它没有,运行计算,然后尝试将结果写入同一个文件中。 我如何避免写这样的冲突?