pbs

    0热度

    1回答

    我请求14个处理器从一个一个(每个都有32)所示: #PBS -l nodes=1:ppn=14 #PBS -l walltime=12:00:00 而且具有较低的ppn它几乎总是工作,但一旦我的数字高于14- ish,工作开始执行并立即终止。 tracejob是奇无益: tracejob 14753.hpc2 Job: 14753.hpc2 01/21/2017 11:12:36

    0热度

    1回答

    我们使用的是转矩PBS,我们必须使用qmgr更新许多节点的参数。 对于每个正在讨论的节点,手动调用类似'set node n44 properties- = unneeded_pa​​ram'的方法。 现在,我该如何列出具有指定属性的所有节点?

    4热度

    1回答

    我正在尝试提交依赖于数组完成的转矩作业。 FIRST=`qsub -q hep -t 1-5 foo.sh` qsub -q hep -W depend=afterok:$FIRST bar.sh 第一份工作阵列提交并完成得很好,但第二个作业bar.sh只抱下去。 如果我从第一个参数中删除数组选项,第二个作业将按计划成功,但这并不能真正解决问题。 有从3年前类似的线程,但它似乎没有实际的解决方案:

    2热度

    2回答

    我希望能够通过脚本轻松更改多少个nodes,ppn等提交给qsub。也就是说,我想运行的财产以后这样的: qsub script.sh --name=test_job --nodes=2 --ppn=2 --arg1=2 有了这样的脚本如下: #/bin/bash #PBS -N ${NAME} #PBS -l nodes=${NODES}:ppn=${PPN},walltime=${WA

    0热度

    1回答

    如何分析这些日志条目,我想了解这些日志条目的格式是什么? 1) PBS_Server;LOG_ERROR::Cannot assign requested address (99) in send_job, send_job failed to d23818f7 port 15002 2) pbs_mom;LOG_ALERT::mom_server_valid_message_source, ba

    0热度

    1回答

    我正在运行一个bash脚本,它在基于Linux的群集上多次提交一些pbs作业。每个提交调用Matlab,读取一些数据,执行计算,并将结果写回到我的目录。 这个过程没有任何例外地正常工作。对于一些计算,m文件开始加载所有内容,而不是执行计算,但在将结果打印到标准输出时,Job终止。 pbs的日志文件显示无错误消息,matlab显示无错误消息。代码在我的电脑上完美运行。我没有想法。 如果有人想知道我能

    1热度

    1回答

    我想在mpi4py python脚本上运行16个实例:hello.py。我存储在这种s.txt 16个命令: python /lustre/4_mpi4py/hello.py > 01.out 我在克雷集群通过这样aprun命令提交此: aprun -n 32 sh -c 'parallel -j 8 :::: s.txt' 我的目的是运行那些每蟒蛇工作8该脚本运行超过3小时,并且没有创建

    1热度

    1回答

    我是新来的并行计算,我无法理解PBS系统的使用。我已成功安装SLURM并设置处理节点。但无法理解我如何在多个节点之间分配任务。 有很多简单的例子,但他们只是运行简单的“Hello World”程序,这就是全部。 考虑下面的例子,我在网上找到了。 #!/bin/bash #SBATCH -N 4 #SBATCH -c 1 #SBATCH --time=0-00:15:00 # 30 minu

    1热度

    2回答

    我在超级计算群集上有一个帐户,我在其中安装了一些软件包。 “pip安装 - 用户keras”。 当使用qsub将作业提交到队列时,我尝试通过设置“export PYTHONPATH = $ PYTHONPATH:[$ HOME] /。local/lib/python2.7/site来确保系统可以看到我的本地包 - 包装/角落“。 但是,生成的日志文件仍然抱怨没有名为keras的包。我怎样才能确保系

    0热度

    2回答

    我试图生成一个系统,允许我检查多个作业是否已完成在群集上运行。 此bash的代码应工作要等到所有的PBS的工作已经完成: #create the array ALLMYJOBS=() # loop through scripts, submit them and store the job IDs in the array for i in 1 2 3 4 5 do ALLMYJO