Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
MPI 中的幽灵细胞交换模式
我正在使用 MPI 实现分布式图像 灰度 卷积 我现有的模式是在根进程中将图像读取为一维扁平数组 然后将它们分散到所有进程 行分解 然后执行MPI Gather在根进程中 然后再次将图像作为一维展平数组写出 显然 这不会给出预期的结果 因为
c
MPI
Communication
在我的笔记本电脑上运行 MPI 代码
我是并行计算世界的新手 你能告诉我是否可以在我的双核笔记本电脑上使用 MPI 例程运行 C 代码 或者是否有任何模拟器 仿真器可以做到这一点 大多数 MPI 实现使用共享内存在位于同一主机上的队列之间进行通信 设置笔记本电脑不需要任何特殊操
Core
MPI
在 Eclipse Indigo 中运行 MPJ Express 时出现“未解决的编译问题”
我遵循了 Youtube 上关于如何在 IDE 中使用 MPJ Express 运行并行应用程序的教程 我下载了最新版本的 MPJ Express 并使用了 Eclipse Indigo 我确实在我的项目 JAR 文件中包含了 MPI 当我
Java
MPI
mpjexpress
使用 CUDA 感知 MPI 的要求
我想通过 CUDA 感知 MPI 在不同 CUDA 设备之间交换数据 如中所述本文 http devblogs nvidia com parallelforall introduction cuda aware mpi 据我了解 以下代码应
c
CUDA
MPI
MPI sendbuf 和recvbuf 可以是同一个东西吗?
我将每个进程中的大量数组元素添加到一起 double rho 1024 Some operation to calculate rho for each process MPI Allreduce rho rho 1024 MPI DOUB
c
MPI
MPI 派生类型发送
我尝试将派生类型发送到处理器 该类型包含来自其他派生类型的对象 我从开始这个例子示例 结构派生数据类型 https computing llnl gov tutorials mpi Derived Data Types 我添加我的代码 代码
c
MPI
MPI_Allgather 和 MPI_Allgatherv 之间的区别
有什么区别MPI Allgather and MPI Allgatherv 来自MPI标准 http www mpi forum org docs MPI GATHERV 扩展了功能 MPI GATHER 通过允许变化 每个进程的数据计数
MPI
parallelprocessing
发送方和接收方是否隐含与 MPI_BCAST 同步?
当调用MPI BCAST时 是否有任何隐含的同步 例如 如果发送方进程要先于其他进程到达 MPI BCAST 它是否可以执行 BCAST 然后在没有任何确认的情况下继续 最近的一些测试代码如下 program test include mp
synchronization
MPI
BROADCAST
使用 mpi 将矩阵写入单个 txt 文件
我有一个巨大的矩阵 我将它分成一些子矩阵 然后对其进行一些计算 在这些计算之后 我必须将该矩阵写入一个文件中以进行后处理 是否可以将结果写入单个文本文件 我该怎么做 例如我们有一个nxy 方向划分的 ny 矩阵 每个进程有一个 nx秩矩阵
c
MPI
MSMPI 就地 MPI_Allreduce 不适用于 MinGW-w64 gfortran
我正在尝试使用就地MPI Allreduce结合MinGW w64 gfortran MSYS64提供的版本9 2 和Microsoft MPI 版本10 call MPI Allreduce MPI IN PLACE srcdst n M
Fortran
MPI
gfortran
mingww64
msmpi
OpenMP 中可重用的私有动态分配数组
我正在使用 OpenMP 和 MPI 来并行化 c 中的一些矩阵运算 一些对矩阵进行操作的函数是用 Fortran 编写的 Fortran 函数需要传入一个缓冲区数组 该数组仅在函数内部使用 目前 我正在每个并行部分中分配缓冲区 类似于下面
c
MPI
openmp
Mvapich2 缓冲区别名
我使用 MAPICH2 启动 MPI 程序并收到此错误 Fatal error in PMPI Gather Invalid buffer pointer error stack PMPI Gather 923 MPI Gather fai
MPI
HPC
OpenACC + MPI Fortran 程序入门
我有一个工作串行代码和一个通过 OpenACC 并行化的工作并行单 GPU 代码 现在我尝试通过在多个 GPU 上运行 采用 mpi openacc 范例来增加并行性 我用 Fortran 90 编写代码 并使用 Nvidia 的 HPC
Fortran
GPU
MPI
OpenACC
nvidiahpccompilers
从多个 MPI 输出组成 VTK 文件
对于盖驱动腔 CFD 的格子玻尔兹曼模拟 我将立方域分解为 也是立方 8 个子域 这些子域按 8 个等级独立计算 每个 MPI 等级都会为每个时间步生成一个 VTK 文件 并且由于我使用的是 ParaView 所以我希望将整个事物可视化为一
parallelprocessing
MPI
vtk
scientificcomputing
ParaView
使用 MPI 分散不同大小的矩阵块
假设所有矩阵都按行优先顺序存储 说明该问题的一个示例是将 10x10 矩阵分布在 3x3 网格上 以便每个节点中的子矩阵的大小如下所示 3x3 3x3 3x4 3x3 3x3 3x4 4x3 4x3 4x4 我在 Stackoverflow
c
parallelprocessing
MPI
distributedcomputing
messagepassing
MPI_Scatter:为什么我必须在所有进程中分配内存?
我正在使用 MPI 在 c 中 并行化 Conways 的生命游戏 我必须从输入中读取一个 非常大的 矩阵 然后将其按行分散到切片中 然后并行处理每个切片 我遵循的想法是只让一个进程处理 I O 内容 特别是 进程 0 从文件中读取并将初始
c
matrix
parallelprocessing
MPI
scatter
从 MPICH 切换到 OpenMPI
我的 Ubuntu 20 04 中有 mpich 和 openmpi dpkg l grep mpi grep lib ii libmpich dev amd64 3 3 2 2build1 amd64 Development files
MPI
OpenMPI
ubuntu2004
MPICH
如何使用 cmake 编译 MPI 包含的 c 程序
我正在尝试将 openmp 和 mpi 技术应用于需要构建 cmake make 的开源 C 程序 我已经找到了如何在 CMake 的 try compile 函数中设置 OpenMP 的链接器标志 https stackoverflow
c
CMake
MPI
如何从从节点向主节点发送动态数组
我正在完成一个简单的 MPI 程序 但我正在努力完成该项目的最后一部分 我发2个ints 包含从节点的起点和终点 使用这些我需要创建一个数组并填充它 我需要将其发送回主节点 从机代码如下 printf Client waiting for
c
MPI
OpenMPI
如果该集合不可在进程之间整除,则使用 MPI_Scatter
我有一个使用 MPI Scatter 和 MPI Gather 的程序 该程序将整数 N 作为输入 并返回从 2 到 N 的质数 我创建一个包含从 2 到 N 的数字的数组 并使用 MPI Scatter 将数组拆分为 N procs 数量
c
MPI
«
1
2
3
4
5
6
7
8
9
»