在主机和docker容器进程之间共享大量数据

在主机上有超过10000个大数据文件(每个文件几个千兆字节),其中很少可能在码头容器和容器中使用,可能会创建新文件以保存到主机(可能有100多个容器和所有容器在相同的主机)。 但是出于安全考虑,我们不希望将数据文件安装到docker。

在主机和容器之间共享大文件是一种高性能的方式吗? 例如在主机上写一个服务器来从容器进程发送或接收大量数据? 或者使用mmap? 还是sendfile? (操作系统:Ubuntu 16,和Python是首选)