Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
为什么 MPI_Barrier 会导致 C++ 中的分段错误
我已将程序简化为以下示例 include
c
segmentationfault
MPI
Barrier
为什么我的 MPI 程序输出不正确
我是 MPI 的初学者 我有作业 我不是要求你解决它 我只需要提示我的程序出现故障的原因 这是问题所在 编写一个模拟乒乓球桌游戏的 MPI C 程序 只能使用 2 个进程 进程使用 MPI Send 和 MPI Recv 不断地向彼此退回消
c
parallelprocessing
MPI
MPI(C++) 中向量的用法
我是 MPI 编程的新手 仍在学习中 直到通过定义结构创建派生数据类型为止我取得了成功 现在我想在我的结构中包含 Vector 并希望跨进程发送数据 例如 struct Structure Constructor Structure X n
c
vector
parallelprocessing
MPI
MPI中如何知道进程正在哪个核心上运行?
我目前正在开发一个项目 我需要知道 MPI 中当前运行进程的处理器的 coreid MPI中有一个函数叫做MPI Get processor name char name int resultlen 这仅给出进程正在运行的节点的名称 我想知
MPI
mpirun:无法识别的参数 mca
我有一个 C 求解器 需要使用以下命令并行运行 nohup mpirun np 16 my exec gt log txt 该命令将运行my exec独立于我的节点上可用的 16 个处理器 这曾经非常有效 上周 HPC 部门执行了操作系统升
c
Linux
MPI
带分散聚集的 MPI 矩阵乘法
我正在尝试使用 C 中的 MPI 进行矩阵乘法 我们必须做一个顺序版本和一个并行版本 我的并行版本没有给出正确的答案 我不知道为什么 我认为我没有向进程发送正确的通信 但我不能确定 教授只是回顾了不同的发送 接收 收集等消息 但并没有真正深
c
MPI
matrixmultiplication
scatter
OpenMPI:简单的 2 节点设置
我在仅使用两个节点运行 OpenMPI 程序时遇到问题 其中一个节点与正在执行的机器是同一台机器 mpiexec命令和另一个节点是一台单独的机器 我将调用正在运行 mpiexec 的机器 master 以及另一个节点slave On bot
parallelprocessing
MPI
clustercomputing
OpenMPI
c++:MPI 通信器作为全局变量
我需要可以在函数 类成员函数中访问 MPI 世界通信器 但按照设计 惯例 MPI 环境和通信器总是在开始时定义和初始化 int main 我能想到的唯一简单的解决方案是使用指向通信器的全局指针 有人知道更好的方法吗 使用全局指针解决方案有危
c
globalvariables
MPI
boostmpi
MPI - 工作/池示例
有没有为 MPI 使用工作 池 或生产者 消费者 方案的示例 至于我所做的一切 我只得到一个正在通过的应用程序 然后我的应用程序陷入僵局 Thanks 只要在谷歌上搜索 MPI Master Worker 或 MPI Master Slav
c
MPI
C++ 中具有向量属性的 MPI 发送结构
我想发送一个具有向量属性的结构 typedef struct int id vector
c
vector
struct
MPI
stdvector
MPI任务调度
我想使用 MPI 开发一个任务调度程序 其中有一个主处理器和多个工作 客户端处理器 每个工作进程都拥有计算所需的所有数据 但从主进程获取要处理的索引 计算完成后 worker 返回一些数据给 master 问题是有些进程会很快 有些会很慢
scheduledtasks
MPI
如何使用和解释 MPI-IO 错误代码?
include
MPI
mpiio
在本地使用 mpi 安装 fftw-2.1.5
我正在尝试使用 enable mpi 标志在带有 linux 的 IBM 集群上安装 fftw 2 1 5 库 但此后我一直未能这样做 我需要 fftw 版本 2 1 5 因为 GADGET2 代码需要该版本 并且具有 mpi 支持 首先
MPI
FFTW
LSF 中的混合 MPI/OpenMP
我正在将 OpenMP 并行化的程序移至集群 该集群使用 Lava 1 0 作为调度程序 每个节点有 8 个核心 我在作业脚本中使用 MPI 包装器来进行多主机并行 这是作业脚本 BSUB q queue name BSUB x BSUB
parallelprocessing
MPI
openmp
使用接近“INT_MAX”的“count”值传送数据
消息传递接口 API 始终使用int作为一个类型count变量 例如 原型为MPI Send is int MPI Send const void buf int count MPI Datatype datatype int dest i
c
int
Buffer
MPI
如何使用分散发送数组的一部分?
我正在自学 Python mpi4py 模块 用于在多个进程中进行编程 我编写了以下代码来练习分散 from mpi4py import MPI comm MPI COMM WORLD size comm Get size rank com
python
MPI
在 MPI 应用程序中处理信号/正常退出
如何在 MPI 应用程序中安全地处理信号 例如 SIGUSR1 它应该告诉应用程序其运行时间已过期 并应在接下来的 10 分钟内终止 我有几个限制 在退出应用程序之前 请先完成所有并行 串行 IO 在所有其他情况下 应用程序可以毫无问题地退
c
signals
MPI
exit
terminate
Fortran MPI 代码中的标准输出
我有一个并行的 fortran 代码 其中我只希望rank 0进程能够写入标准输出 但我不想在代码中乱七八糟 if rank 0 write 所以我想知道这样做是否是一个好主意 或者是否有更好的方法 program test use mpi
Fortran
MPI
使用 gdb 在多屏幕窗口中调试 MPI
如果我有一个 MPI 程序 想要使用 gdb 进行调试 同时能够查看所有单独进程的输出 我可以使用 mpirun n
GDB
MPI
gnuscreen
在 msvc 2010 中构建 boost MPI 时出错
我已将 openmpi 安装在 C Program Files OpenMPI v1 5 4 win32 中 并希望编译 boost 以生成图形并行库 但出现以下错误 The system cannot find the path spec
visualstudio2010
boost
MPI
boostgraph
«
1 ...
3
4
5
6
7
8
9
»