我正在使用单元格来管理我正在处理的一些内容中的数据。我希望能够做这样的事情:
A = cellfun( @(X)( randn( 5,5 ) ), cell( 5,1 ), 'UniformOutput', 0 );
B = cellfun( @(X)( randn( 5,5 ) ), cell( 5,1 ), 'UniformOutput', 0 );
%#
%# Each of the following would fail if cell member dimensions
%# don't match up
%#
%# matrix sums for each cell entry
%# C = A + B;
C = cellfun( @(X,Y)( X + Y ), A, B, 'UniformOutput', 0 );
%#
%# direct/hadamard product
%# D = A .* B;
D = cellfun( @(X,Y)( X .* Y ), A, B, 'UniformOutput', 0 );
%#
%# matrix-matrix products (not across all entries)
%# E = A * B;
E = cellfun( @(X,Y)( X * Y ), A, B, 'UniformOutput', 0 );
但是,我不希望使用极其冗长的语法来完成此操作。当我只想为单元格上的数学运算符提供定义时,为此创建一个新类似乎有点过分了。
问题是:上课是解决这个问题的唯一方法吗?
如果我编写一个类来执行此操作,那么编写代码肯定会更容易。我看到的最大的负面因素与优化有关,尽管还有其他一些事情让我烦恼。
幕后进行的任何优化(例如,当 Jacket 编译某些内容以在 GPU 上运行时)可能会更难确定要进行哪些优化。作为一个例子,假设我有两个单元格(A,B),其中包含许多适当维度的矩阵。如果我编写代码来生成一个新单元格:
Z = c1*A + c2*B
...使用标量 {c1,c2},我可以用 Jacket(或其他)轻松确定它应该进行计算的方式编写它:
Z{kk} = c1*A{kk} + c2*B{kk}
或者也许比这更好的优化。否则。它可能最终会导致速度较慢和/或内存效率较低,例如:
temp1 = cellfun( @(X)( c1*X ), A );
temp2 = cellfun( @(X)( c2*X ), B );
Z = cellfun( @plus, temp1, temp2 );
假设 MATLAB 或 Jacket 无法对其进行优化,最终会使用过多的内存。