在HPC集群上运行scoop程序时,有没有一种方法可以指定跨节点的工人分布?在
我最近才遇到scoop,到目前为止,它似乎是一个很好的工具,可以快速地将在单个计算节点上运行的多处理代码转换为同时使用多个节点的代码。在
然而,有没有一种方法可以使用scoop在集群中为每个计算节点只运行一个worker,以便在代码的更深层次上允许多线程在每个多核节点中运行?在
我知道可以使用-n标志指定要初始化的worker的数量,或者使用主机文件或--hosts标志(http://scoop.readthedocs.io/en/latest/usage.html#how-to-launch-scoop-programs)指定要连接到的特定主机。有没有方法使用主机文件来实现这一点?如果是这样的话,在一个有调度系统(例如,在本例中是torque)的集群上如何实现这一点,而调度系统通常会将节点分配给程序?在
如果这不能用scoop完成,那么可以用其他包(MPI、Parallel Python、pathos等)来完成吗?在
我刚开始用勺子。在
似乎可以通过主机文件指定每个主机的工作线程数来完成此操作。在
具有以下语法的主机文件:
其中,名称是系统主机名或IP地址,数字表示要启动的工作线程数。在
参见:https://scoop.readthedocs.io/en/0.7/usage.html#hostfile-format
相关问题 更多 >
编程相关推荐