|
因有关需求,最近要弄个5*5的浮点版本的中值滤波, 而且希望效率能做到极致。感觉这个事情不是随手搞定嘛,因为5*5的字节版本的中值已经有模版了,改为浮点的大差不差的,没有啥问题。 确实如此,直接把早期的自己版本代码弄过来,改下相关的数据类型和函数,功能一下子就出来了,而且效果也不俗。 在【算法随记三】小半径中值模糊的急速实现(16MB图7.5ms实现) + Photoshop中蒙尘和划痕算法解读 中,曾经提到对于5*5的中值,理论上需要131次比较,但是我现在找不到这个131的数据的来源和依据了。 这几天看Opencv的代码,在其medianFilter.cl以及median_blur.simd.hpp里的都有类似的比较,具体如下: ![]() ![]() 这里的op算子就是比较算子,一共有113处。 在https://github.com/ravkum/medianFilter/blob/main/src/medianFilter.cl中,也有类似的算子,如下所示: ![]() 这里只有99个算子。 所以优化的第一步就是用这99个算子的方案代替原先我收集的131个的方案,这个就会有25%左右的提速了。 而且测试这99算子的结果和原先的131个以及opencv的113个算子的结果是一样的。 而我们在百度搜索5*5中值滤波快速算法,可以得到以下的信息: 5x5中值滤波的快速算法旨在减少标准排序方法的高计算复杂度,通过优化排序或利用数据结构来加速中值查找。以下是一些常见的快速实现思路: 行-列排序优化:先对5x5窗口的每一行进行排序,确保每行有序;然后对每一列排序,使列内元素有序。经过此处理,窗口被分为四个象限,中心元素通常接近中值,从而减少比较次数。 在https://github.com/shrtique/sv_axis_median_5x5/blob/master/sources_1/new/median_5x5_top_module.sv中,我们可以看到如下的一段文字说明: [code] //This is simplified module of median filtration with 5x5 window. //It has 3 stages: sorting by lines -> sorting by columns -> sorting main diagonal* //* main diagonal is one that has the smallest value of "biggest" column and.. //.. biggest value of "smallest" column // // EXAMPLE // // [ 20, 10, 1, 6, 8 ] [ 20, 10, 8, 6, 1 ] [ 110, 72, 50, 48, 36 ] [ * , * , *, *, 36 ] // [ 32, 5, 40, 100, 60 ] [ 100, 60, 40, 32, 5 ] [ 100, 60, 40, 32, 7 ] [ * , * , *, 32, * ] // [ 14, 3, 22, 26, 68 ] --> [ 68, 26, 22, 14, 3 ] --> [ 80 , 30, 22, 14, 5 ] --> [ * , * , 26, * , * ] // [ 110, 12, 30, 7, 11 ] [ 110, 30, 12, 11, 7 ] [ 68 , 26, 12, 11, 3 ] [ * , 22, * , * , * ] // [ 72, 48, 36, 50, 80 ] [ 80, 72, 50, 48, 36 ] [ 20 , 10, 8 , 6 , 1 ] [ 20, * , * , * , * ] // // median = 26 // //IMORTANT NOTE: //This algorithm could make a mistake in one discret (one position): so if we range all pixels in upwards direction.. //.. the median value will be on position 13 (from 1 up to 25), but sometimes algorithm takes neighbour value (e.g. 12). //We decided that this mistake can't dramatically decrease efficiency of suppressing impulsive noise on image[/code]也是一样的意思: sorting by lines -> sorting by columns -> sorting main diagonal 那这样对于5*5的数据,就是5次水平方向排序,5次垂直方向排序,还有一次对角线排序,一共是11次排序,而且每次排序都是对5个数据极性排序,至于是升序还是降序其实不重要。 这个时候我们再看前面的几个位置的排序次数,反倒是那个99次排序很有意义,他恰好是11的整数倍,即每次排序需要进行9次比较。 根据冒泡排序的一般过程,如下所示: [code] int len = 5; int i = 0; int j; int t; for (i = 0; i < len - 1; i++) { for (j = 0; j< len - i - 1; j++) { if (a[j]>a[j + 1]) { t = a[j]; a[j] = a[j + 1]; a[j + 1] = t; } } }[/code]假定五个数据分别为p0/p1/p2/p3/p4,则按照上面的循环展开后可得5个数据的排序需要以下的比较操作: [code] OP(p0, p1); OP(p1, p2); OP(p2, p3); OP(p3, p4); OP(p0, p1); OP(p1, p2); OP(p2, p3); OP(p0, p1); OP(p1, p2); OP(p0, p1);[/code]一共是10次,也不是上面说的9次。 不过观察opencv的那一部分代码的前面一部分,我们把下标为0到4的部分提取到一起,能得到如下的操作组合: OP(p1, p2); OP(p0, p1); OP(p1, p2); OP(p3, p4); 这里只有9个算子,实际拿数据测试,他们确实是足以完成5*5的一个排序的,所以opencv的数据集合github的代码组合在一起好像就能解释了99这个数据了。 不过我们观察ravkum的那个算子的排布,感觉又不是这个样子,整体好混乱的,先不管,我们就按照刚才了解的sorting by lines -> sorting by columns -> sorting main diagonal处理看是否能有进一步的处理空间。 首先sorting by lines这个没有啥好优化的,必须完整的进行,下一部, sorting by columns就有发挥的空间了,我们看上面的列举的数据: [code] // [ 20, 10, 1, 6, 8 ] [ 20, 10, 8, 6, 1 ] [ 110, 72, 50, 48, 36 ] [ * , * , *, *, 36 ] // [ 32, 5, 40, 100, 60 ] [ 100, 60, 40, 32, 5 ] [ 100, 60, 40, 32, 7 ] [ * , * , *, 32, * ] // [ 14, 3, 22, 26, 68 ] --> [ 68, 26, 22, 14, 3 ] --> [ 80 , 30, 22, 14, 5 ] --> [ * , * , 26, * , * ] // [ 110, 12, 30, 7, 11 ] [ 110, 30, 12, 11, 7 ] [ 68 , 26, 12, 11, 3 ] [ * , 22, * , * , * ] // [ 72, 48, 36, 50, 80 ] [ 80, 72, 50, 48, 36 ] [ 20 , 10, 8 , 6 , 1 ] [ 20, * , * , * , * ] [/code]sorting by columns的目的是为了获取对角线的那五个数,可以考到第一列那个20,实际上是第一列的最小值,而第五列的36实际是该列的最大值,因此,这两列是完全不需要进行完整的排序的,只要找到的最小和最大值就可以,这样就节省了很大的一部分计算了。 第二列和第四列其实就是找到第二个最小值和第二个最大值,这个也不需要进行完整的排序,我们观察的我们的冒泡排序的4行算子,第一行 OP(p0, p1); OP(p1, p2); OP(p2, p3); OP(p3, p4); OP(p0, p1); OP(p1, p2); OP(p2, p3); OP(p3, p4); OP(p0, p1); OP(p1, p2); OP(p2, p3); 进行这样的优化,测试比直接使用99次比较算子,可以大概有个10%左右的提速。 但是,我们测试发现,在有些情况下,这个优化后的结果和原始的结果似乎不是完全一致,而用严格的冒泡排序对25个数据进行排序后的结果表明,原始的方式的结果才是正确的,后面仔细研究发现,其实几个地方的文档都有提及这个事情,百度的AI的结果有这样一句话: 中心元素通常接近中值,注意这里的接近。 而shrtique的注释了也写到了: [code] This algorithm could make a mistake in one discret (one position)因此,这样处理实际上是个近似的结果。 以下是一些耗时的比较结果: [/code]
![]() 可见Opencv还是蛮快的,不过opencv有一个限制,就是浮点的数据,中值只支持3*3的或者5*5的。 而且这个函数线程数对耗时没有影响,而我这里可以开多线程,基本上一个线程就能提高一倍(不大于物理核)。 说一个小技巧,在这个加载一行5个数据的过程中,对于浮点数的SSE优化,普通的写法是: [code] __m128 P0 = _mm_loadu_ps(First + X); __m128 P1 = _mm_loadu_ps(First + X + 1); __m128 P2 = _mm_loadu_ps(First + X + 2); __m128 P3 = _mm_loadu_ps(First + X + 3); __m128 P4 = _mm_loadu_ps(First + X + 4);[/code]那么考虑到数据的特殊性,其实可以用下面的操作比较过多的内存读写: [code] // V0 V1 V2 V3 V4 V5 V6 V7 __m128 P0 = _mm_loadu_ps(First + X); // V0 V1 V2 V3 __m128 P4 = _mm_loadu_ps(First + X + 4); // V4 V5 V6 V7 __m128 P1 = _mm_castsi128_ps(_mm_alignr_epi8(_mm_castps_si128(P4), _mm_castps_si128(P0), 4)); // V1 V2 V3 V4 __m128 P2 = _mm_castsi128_ps(_mm_alignr_epi8(_mm_castps_si128(P4), _mm_castps_si128(P0), 8)); // V2 V3 V4 V5 __m128 P3 = _mm_castsi128_ps(_mm_alignr_epi8(_mm_castps_si128(P4), _mm_castps_si128(P0), 12)); // V3 V4 V5 V6[/code]这样只用加载2次内存,其他的数据用CPU指令组合而成,而上面的指令看上去很多,实际上那个cast并不产生任何的物理指令,他只是语法糖,所以就只有一个_mm_alignr_epi8指令,注意,这个应用不可以直接扩展到AVX,因为AVX不是把 [code]_mm_alignr_epi8直接扩展到8个浮点数。[/code]
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除 免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |

在技术演进的长河里,一条新的判断标准正悄然成为检验企业是否具备未来竞争力的分水岭——当市场需求迅速形成时,软件能力能否支持在短周期内完成交付,而非受限于下一轮硬件迭代,正在成为衡量其技术体系成熟度的
多年以后,当他回到ytyz,又一次站在实验楼的楼顶上,已经毕业的OIer严安康总会想起,他当年站在这里,面向月亮,开玩笑似地问出的那个问题。 “弄哭一个老爷们最快的方法是什么?” 这个问题早有答案,不一定是标答