搜索

文章查询

x

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于卷积高斯混合模型的统计压缩感知

汪韧 郭静波 惠俊鹏 王泽 刘红军 许元男 刘韵佛

基于卷积高斯混合模型的统计压缩感知

汪韧, 郭静波, 惠俊鹏, 王泽, 刘红军, 许元男, 刘韵佛
PDF
HTML
导出引用
导出核心图
  • 高斯混合模型被广泛应用于统计压缩感知中信号先验概率分布的建模. 利用高斯混合模型对图像的概率分布进行建模时, 通常需要先对图像分块, 再对图像块的概率分布进行建模. 本文提出卷积高斯混合模型对整幅图像的概率分布进行建模. 通过期望极大化算法求解极大边缘似然估计, 实现模型中未知参数的估计. 此外, 考虑到在整幅图像上计算的复杂度较高, 本文在卷积高斯混合模型和压缩测量模型中引入循环卷积, 所有的训练和恢复过程都可以利用二维快速傅里叶变换实现快速运算. 仿真实验表明, 本文所提的MMLE-convGMM算法的恢复性能要优于传统的压缩感知算法的恢复性能.
      通信作者: 汪韧, wangren94@126.com
    • 基金项目: 国家自然科学基金(批准号: 51677094)资助的课题
    [1]

    Donoho D L 2006 IEEE Trans. Inform. Theory 52 1289

    [2]

    Candès E J, Romberg J, Tao T 2006 IEEE Trans. Inform. Theory 52 489

    [3]

    Ji S, Xue Y, Carin L 2008 IEEE Trans. Sig. Process. 56 2346

    [4]

    Chen M, Silva J, Paisley J, Wang C, Dunson D, Carin L 2010 IEEE Trans. Sig. Process. 58 6140

    [5]

    Yu G, Sapiro G 2011 IEEE Trans. Sig. Process. 59 5842

    [6]

    Yang J, Liao X, Yuan X, Llull P, Brady D J, Sapiro G, Carin L 2015 IEEE Trans. Sig. Process. 24 106

    [7]

    Yu G, Sapiro G, Mallat S 2012 IEEE Tran. Image Process. 21 2481

    [8]

    Wang C, Liu X F, Yu W K, Yao X R, Zheng F, Dong Q, Lan R M, Sun Z B, Zhai G J, Zhao Q 2017 Chin. Phys. Lett. 34 104203

    [9]

    Wang Y Y, Ren Y C, Chen L Y, Song C, Li C Z, Zhang C, Xu D G, Yao J Q 2018 Chin. Phys. B 27 114204

    [10]

    Xiao D, Cai H K, Zheng H Y 2015 Chin. Phys. B 24 060505

    [11]

    宁方立, 何碧静, 韦娟 2013 物理学报 62 174212

    Ning F L, He B J, Wei J 2013 Acta Phys. Sin. 62 174212

    [12]

    李少东, 陈永彬, 刘润华, 马晓岩 2017 物理学报 66 038401

    Li S D, Chen Y B, Liu R H, Ma X Y 2017 Acta Phys. Sin. 66 038401

    [13]

    Duarte M F, Davenport M A, Takhar D, Laska J N, Sun T, Kelly K F, Baraniuk R G 2008 IEEE Sig. Process. Mag. 25 83

    [14]

    Zeiler M D, Krishnan D, Taylor G W, Fergus R 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) San Francisco, June 13−18, 2010 p2528

    [15]

    Grosse R, Raina R, Kwong H, Ng A Y 2007 Proceedings of the Twenty-Third Conference on Uncertainty in Artificial Intelligence Vancouver, July 19−22, 2007 p149

    [16]

    Yang J, Yu K, Huang T 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) San Francisco, June 13−18, 2010 p3517

    [17]

    Wohlberg B 2016 IEEE Trans. Image Process. 25 301

    [18]

    Davis P J 2012 Circulant Matrices (Providence, Rhode Island: American Mathematical Society)

    [19]

    Dempster A, Laird N, Rubin D 1977 J. R. Stat. Soc. 39 1

    [20]

    Renna F, Calderbank R, Carin L, Rodrigues M R D 2014 IEEE Trans. Sig. Process. 62 2265

    [21]

    Tropp J A, Gilbert A C 2007 IEEE Trans. Inform. Theory 53 4655

    [22]

    Yang J, Zhang Y 2011 SIAM J Sci. Comput. 33 250

    [23]

    Liao X, Li H, Carin L 2014 SIAM Imaging Sci. 7 797

    [24]

    Xu Y, Yin W, Osher S 2014 Inverse Probl. Imag. 8 901

    [25]

    Krizhevsky A, Hinton G 2009 Learning Multiple Layers of Features from Tiny Images (Toronto: University of Toronto) Technical Report Vol. 1, No. 4, p7

    [26]

    Li F F, Rob F, Pietro P 2007 Comput. Vis. Image Und. 106 59

    [27]

    Liu Z W, Luo P, Wang X G, Tang X O 2015 IEEE International Conference on Computer Vision Santiago, December 7−13, 2015 p3730

  • 图 1  基于convGMM的压缩测量

    Fig. 1.  Structure of convGMM with application to compressive sensing.

    图 2  CIFAR-10图像, 不同算法下恢复图像的PSNR随采样率的变化

    Fig. 2.  Averaged PSNR of reconstructed images from CIFAR-10 dataset as a function of sampling rate.

    图 3  Caltech 101图像, 不同算法下恢复图像的PSNR随采样率的变化

    Fig. 3.  Averaged PSNR of reconstructed images from Caltech 101 dataset as a function of sampling rate.

    图 4  采样率为0.4时, 12张Caltech 101“飞机”图像在不同算法下的恢复情况 (a)原图像; (b) MMLE-convGMM下的恢复图像; (c) MMLE-GMM下的恢复图像; (d) KSVD-YALL1下的恢复图像; (e) DCT-YALL1下的恢复图像; (f) DCT-GAP下的恢复图像; (g) DCT-OMP下的恢复图像

    Fig. 4.  Reconstructed performance comparison of 12 randomly selected “airplane” images from Caltech 101: (a) Original images; (b) images reconstructed by MMLE-convGMM; (c) images reconstructed by MLE-GMM; (d) images reconstructed by KSVD-YALL1; (e) images reconstructed by DCT-YALL1; (f) images reconstructed by DCT-GAP; (g) images reconstructed by DCT-OMP. All of the sampling rates are 0.4.

    图 5  MMLE-convGMM算法恢复CelebA图像的PSNR随采样率的变化

    Fig. 5.  Averaged PSNR of reconstructed images from CelebA dataset as a function of sampling rate by MMLE-convGMM.

    图 6  随机选取的CelebA图像的恢复情形 (a)原图像; (b) MMLE-convGMM算法恢复的图像, 采样率为0.4

    Fig. 6.  Reconstructed performance of randomly selected CelebA face images: (a) Original images; (b) images reconstructed by MMLE-convGMM. The sampling rates are 0.4.

  • [1]

    Donoho D L 2006 IEEE Trans. Inform. Theory 52 1289

    [2]

    Candès E J, Romberg J, Tao T 2006 IEEE Trans. Inform. Theory 52 489

    [3]

    Ji S, Xue Y, Carin L 2008 IEEE Trans. Sig. Process. 56 2346

    [4]

    Chen M, Silva J, Paisley J, Wang C, Dunson D, Carin L 2010 IEEE Trans. Sig. Process. 58 6140

    [5]

    Yu G, Sapiro G 2011 IEEE Trans. Sig. Process. 59 5842

    [6]

    Yang J, Liao X, Yuan X, Llull P, Brady D J, Sapiro G, Carin L 2015 IEEE Trans. Sig. Process. 24 106

    [7]

    Yu G, Sapiro G, Mallat S 2012 IEEE Tran. Image Process. 21 2481

    [8]

    Wang C, Liu X F, Yu W K, Yao X R, Zheng F, Dong Q, Lan R M, Sun Z B, Zhai G J, Zhao Q 2017 Chin. Phys. Lett. 34 104203

    [9]

    Wang Y Y, Ren Y C, Chen L Y, Song C, Li C Z, Zhang C, Xu D G, Yao J Q 2018 Chin. Phys. B 27 114204

    [10]

    Xiao D, Cai H K, Zheng H Y 2015 Chin. Phys. B 24 060505

    [11]

    宁方立, 何碧静, 韦娟 2013 物理学报 62 174212

    Ning F L, He B J, Wei J 2013 Acta Phys. Sin. 62 174212

    [12]

    李少东, 陈永彬, 刘润华, 马晓岩 2017 物理学报 66 038401

    Li S D, Chen Y B, Liu R H, Ma X Y 2017 Acta Phys. Sin. 66 038401

    [13]

    Duarte M F, Davenport M A, Takhar D, Laska J N, Sun T, Kelly K F, Baraniuk R G 2008 IEEE Sig. Process. Mag. 25 83

    [14]

    Zeiler M D, Krishnan D, Taylor G W, Fergus R 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) San Francisco, June 13−18, 2010 p2528

    [15]

    Grosse R, Raina R, Kwong H, Ng A Y 2007 Proceedings of the Twenty-Third Conference on Uncertainty in Artificial Intelligence Vancouver, July 19−22, 2007 p149

    [16]

    Yang J, Yu K, Huang T 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) San Francisco, June 13−18, 2010 p3517

    [17]

    Wohlberg B 2016 IEEE Trans. Image Process. 25 301

    [18]

    Davis P J 2012 Circulant Matrices (Providence, Rhode Island: American Mathematical Society)

    [19]

    Dempster A, Laird N, Rubin D 1977 J. R. Stat. Soc. 39 1

    [20]

    Renna F, Calderbank R, Carin L, Rodrigues M R D 2014 IEEE Trans. Sig. Process. 62 2265

    [21]

    Tropp J A, Gilbert A C 2007 IEEE Trans. Inform. Theory 53 4655

    [22]

    Yang J, Zhang Y 2011 SIAM J Sci. Comput. 33 250

    [23]

    Liao X, Li H, Carin L 2014 SIAM Imaging Sci. 7 797

    [24]

    Xu Y, Yin W, Osher S 2014 Inverse Probl. Imag. 8 901

    [25]

    Krizhevsky A, Hinton G 2009 Learning Multiple Layers of Features from Tiny Images (Toronto: University of Toronto) Technical Report Vol. 1, No. 4, p7

    [26]

    Li F F, Rob F, Pietro P 2007 Comput. Vis. Image Und. 106 59

    [27]

    Liu Z W, Luo P, Wang X G, Tang X O 2015 IEEE International Conference on Computer Vision Santiago, December 7−13, 2015 p3730

  • [1] 王晨阳, 段倩倩, 周凯, 姚静, 苏敏, 傅意超, 纪俊羊, 洪鑫, 刘雪芹, 汪志勇. 基于遗传算法优化卷积长短记忆混合神经网络模型的光伏发电功率预测. 物理学报, 2020, 69(10): 100701. doi: 10.7498/aps.69.20191935
    [2] 王晨阳, 刘雪芹, 汪志勇. 基于遗传算法优化卷积长短记忆混合神经网络模型的光伏发电功率预测研究. 物理学报, 2020, (): . doi: 10.7498/aps.69.20191935
    [3] 文方青, 张弓, 贲德. 基于块稀疏贝叶斯学习的多任务压缩感知重构算法. 物理学报, 2015, 64(7): 070201. doi: 10.7498/aps.64.070201
    [4] 丰卉, 孙彪, 马书根. 分块稀疏信号1-bit压缩感知重建方法. 物理学报, 2017, 66(18): 180202. doi: 10.7498/aps.66.180202
    [5] 宁方立, 何碧静, 韦娟. 基于lp范数的压缩感知图像重建算法研究. 物理学报, 2013, 62(17): 174212. doi: 10.7498/aps.62.174212
    [6] 莫锦军, 袁乃昌, 刘少斌. 等离子体的分段线性电流密度递推卷积FDTD算法. 物理学报, 2004, 53(3): 778-782. doi: 10.7498/aps.53.778
    [7] 冷雪冬, 王大鸣, 巴斌, 王建辉. 基于渐进添边的准循环压缩感知时延估计算法. 物理学报, 2017, 66(9): 090703. doi: 10.7498/aps.66.090703
    [8] 韩冬, 陈良富, 李莘莘, 陶金花, 苏林, 邹铭敏, 范萌. 基于振动拉曼散射的差分水Ring效应系数卷积计算模型. 物理学报, 2013, 62(10): 109301. doi: 10.7498/aps.62.109301
    [9] 杨祎巍, 张宏博, 李斌. 面向纳米电路的改进型卷积核可制造性模型建模研究. 物理学报, 2015, 64(5): 058501. doi: 10.7498/aps.64.058501
    [10] 邢莉娟, 李 卓, 白宝明, 王新梅. 量子卷积码的编译码方法. 物理学报, 2008, 57(8): 4695-4699. doi: 10.7498/aps.57.4695
    [11] 赵宝华, 郑兆勃. 态密度的卷积律及维度性. 物理学报, 1987, 36(11): 1459-1471. doi: 10.7498/aps.36.1459
    [12] 柴水荣, 郭立新. 基于压缩感知的一维海面与二维舰船复合后向电磁散射快速算法研究. 物理学报, 2015, 64(6): 060301. doi: 10.7498/aps.64.060301
    [13] 肖迪, 谢沂均. 一种结合JPEG压缩编码的彩色图像加密算法. 物理学报, 2013, 62(24): 240508. doi: 10.7498/aps.62.240508
    [14] 郑仕链, 楼才义, 杨小牛. 基于改进混合蛙跳算法的认知无线电协作频谱感知. 物理学报, 2010, 59(5): 3611-3617. doi: 10.7498/aps.59.3611
    [15] 郑仕链, 杨小牛. 用于认知无线电协作频谱感知的混合蛙跳算法群体初始化技术. 物理学报, 2013, 62(7): 078405. doi: 10.7498/aps.62.078405
    [16] 徐启伟, 王佩佩, 曾镇佳, 黄泽斌, 周新星, 刘俊敏, 李瑛, 陈书青, 范滇元. 基于深度卷积神经网络的大气湍流相位提取. 物理学报, 2020, 69(1): 014209. doi: 10.7498/aps.69.20190982
    [17] 李龙珍, 姚旭日, 刘雪峰, 俞文凯, 翟光杰. 基于压缩感知超分辨鬼成像. 物理学报, 2014, 63(22): 224201. doi: 10.7498/aps.63.224201
    [18] 李广明, 吕善翔. 混沌信号的压缩感知去噪. 物理学报, 2015, 64(16): 160502. doi: 10.7498/aps.64.160502
    [19] 庄佳衍, 陈钱, 何伟基, 冒添逸. 基于压缩感知的动态散射成像. 物理学报, 2016, 65(4): 040501. doi: 10.7498/aps.65.040501
    [20] 程卫东, 王 黎, 罗 林, 沈忙作. 天文图像多帧盲反卷积收敛性的增强方法. 物理学报, 2006, 55(12): 6708-6714. doi: 10.7498/aps.55.6708
  • 引用本文:
    Citation:
计量
  • 文章访问数:  539
  • PDF下载量:  3
  • 被引次数: 0
出版历程
  • 收稿日期:  2019-03-24
  • 修回日期:  2019-06-20
  • 上网日期:  2019-10-21
  • 刊出日期:  2019-09-01

基于卷积高斯混合模型的统计压缩感知

  • 1. 中国运载火箭技术研究院研究发展部, 北京 100076
  • 2. 清华大学电机工程与应用电子技术系, 北京 100084
  • 通信作者: 汪韧, wangren94@126.com
    基金项目: 国家自然科学基金(批准号: 51677094)资助的课题

摘要: 高斯混合模型被广泛应用于统计压缩感知中信号先验概率分布的建模. 利用高斯混合模型对图像的概率分布进行建模时, 通常需要先对图像分块, 再对图像块的概率分布进行建模. 本文提出卷积高斯混合模型对整幅图像的概率分布进行建模. 通过期望极大化算法求解极大边缘似然估计, 实现模型中未知参数的估计. 此外, 考虑到在整幅图像上计算的复杂度较高, 本文在卷积高斯混合模型和压缩测量模型中引入循环卷积, 所有的训练和恢复过程都可以利用二维快速傅里叶变换实现快速运算. 仿真实验表明, 本文所提的MMLE-convGMM算法的恢复性能要优于传统的压缩感知算法的恢复性能.

English Abstract

    • 压缩感知[1,2]实现了以远低于奈奎斯特的采样频率去采样稀疏信号, 并以高概率实现原信号的准确恢复. 贝叶斯压缩感知[3]从统计学的角度描述了信号的压缩采样与恢复过程. 根据稀疏贝叶斯学习理论, 需要对信号的先验分布进行建模. 高斯混合模型(Gaussian mixture models, GMM)因其具有强大且灵活的拟合能力被广泛应用于信号先验分布的建模中[4-6]. 从主成分分析(principal components analysis, PCA)的角度来说, GMM模型中每一类高斯分布的协方差矩阵的PCA基张成了信号稀疏分解的子空间[7]. 压缩感知自提出以后被广泛应用于物理成像领域, 如光谱成像[8]、太赫兹成像[9]、图像加密[10]、图像重建[11,12]等.

      尽管GMM具有简单灵活的优点, 但由于图像包含了丰富的信息, GMM对图像(或视频每一帧)的概率分布进行建模时先将整幅图像分割成多个重叠或者不重叠的图像块(patches), 对每一小块的先验分布函数进行建模, 再独立恢复图像中的每一小块, 最后按其在图像中对应的位置组合成一整幅图像, 其中重叠区域的像素取平均, 这样做的缺点是容易产生图像的分割效应. 另外, 在硬件实现时, 压缩感知是对整幅图像直接进行压缩测量[13]. 一种直观的想法是能不能直接对整幅图像的先验分布进行建模, 但该想法实现的困难体现在两方面: 一是整幅图像的信息量相比于图像块要丰富得多, 拟合其先验分布函数的难度会大大增加, 简单的GMM对于整幅图像先验分布函数的建模效果不佳; 二是整幅图像的维数比图像块的维数大得多, 若对整幅图像的概率分布进行建模, 计算量将大大增加.

      针对上述问题, 本文提出卷积高斯混合模型(convolutional Gaussian mixture models, convGMM)对整幅图像的概率分布进行建模. 本文的立意如下:

      1) 将整幅图像包含的复杂信息分为两部分: 背景信息(background information)和细节信息(detail information). 由于背景信息的内容相对较少, 这里延续GMM的思想, 将不同均值的线性加权求和来拟合背景信息. 针对复杂的细节信息, 本文从卷积稀疏编码(convolutional sparse coding, CSC)[14]和解卷积网络(deconvolutional networks, DN)[15-17]中得到启发, 利用多个滤波器(filter)与特征图(feature map)卷积的线性加权求和来拟合整幅图像的细节信息. 从图像块到整幅图像建模的关键是使用了解卷积网络. 从直观的角度来说, 解卷积神经网络中滤波器的作用类似于传统压缩感知中的稀疏基. 同时, 本文将GMM与解卷积网络相结合, 使得该模型兼具了多个解卷积网络线性加权的灵活性.

      2) 考虑到对整幅图像的模型参数进行训练时, 计算复杂度高, 本文在信号模型和压缩测量模型中都引入了循环卷积, 根据循环卷积所对应的含有循环块的块循环矩阵(block circulant matrix with circulant blocks, BCCB)的数学性质[18], 所有的训练和恢复过程都可以利用二维快速傅里叶变换(two-dimensional fast Fourier transforms, 2D-FFTs)实现快速运算.

      本文的主要研究内容如下: 1)首先提出convGMM对整幅图像的先验分布进行建模; 2)针对模型中未知参数的学习, 本文采用经典的期望极大化(expectation maximization, EM)算法求解极大边缘似然估计(maximizing the marginal log-likelihood estimation, MMLE); 3)针对信号的恢复过程, 首先基于先验分布函数和似然函数推导出信号的后验分布函数, 并将后验分布的数学期望作为原信号的估计, 该估计是最小均方误差意义下的估计; 4)最后在CIFAR-10数据集、Caltech 101数据集和CelebA数据集上验证本文的MMLE-convGMM算法相比于传统压缩感知算法的优越性.

    • X表示任意的图像, 传统的GMM为

      $p\left( {{X}} \right) = \sum\limits_{z = 1}^K {p\left( {{{X}}\left| z \right.} \right)p(z)}, $

      其中, $p\left( {{{X}}\left| z \right.} \right)$服从高斯分布, $p\left( z \right)$表示第z个高斯分布所占的权重. 使用GMM时需要先将整幅图像分割成多个图像块, 再对每一图像块的概率分布函数进行建模.

      本文在此基础上提出convGMM对整幅图像X的概率分布进行建模:

      $ p\left( {{X}} \right) = \sum\limits_{z = 1}^K {\int {p\left( {{{X}}\left| {\tilde {{S}}},z \right.} \right)} } p\left( {\tilde {{S}}\left| z \right.} \right)p\left( z \right){\rm{d}}\tilde {{S}}, $

      其中,

      $p\left( {{{X}}\left| {\tilde {{S}},z} \right.} \right) = {\cal N}\left( {{{X}}\left| {{{{M}}_z} + {{\tilde {{F}}}_z} * \tilde {{S}},{{E}}} \right.} \right),\;{{E}} = \gamma {{I}}, $

      $p\left( {\tilde {{S}}\left| z \right.} \right) = {\cal N}\left( {\tilde {{S}}\left| {{\bf{0}},{ D}} \right.} \right),\;{ D} = { I}, $

      $p\left( z \right) = {{\textit{π}}_z}, $

      $ * $表示二维卷积算子, ${\tilde {{F}}_z}$表示卷积滤波器(卷积核或者字典), $\tilde {{S}}$表示特征图, ${{{M}}_z}$描述的是不同卷积网络的背景. 多个${{{M}}_z}\;(z = 1, \cdots ,K)$的线性加权用来描述图像的背景信息, 多个滤波器与特征图卷积${\tilde {{F}}_z} * \tilde {{S}}\;(z = 1, \cdots ,K)$的线性加权求和用来拟合图像的细节信息. I表示单位阵, ${{\textit{π}}_z}$表示第z个卷积网络所占的权重.

      如果将图像X向量化, ${{x}} = {\rm{vec}}\left( {{X}} \right)$, 则它的分布为

      $ p\left( {{x}} \right) = \sum\limits_{z = 1}^K {{{\textit{π}} _z}\int {{\cal N}\left( {{{x}}\left| {{{{\mu}} _z} + {{{F}}_z}{{s}},\gamma {{I}}} \right.} \right){\cal N}\left( {{{s}}\left| {{\bf{0}},{{I}}} \right.} \right)} } {\rm{d}}{{s}}, $

      其中, ${{{\mu}} _z} = {\rm{vec}}\left( {{{{M}}_z}} \right)$; ${\rm{vec}}\left( {{{\tilde {{F}}}_z} * \tilde {{S}}} \right) = {{{F}}_z}{{s}} = {{S}}{{{f}}_z}$, ${{{F}}_z}$S表示将卷积转化为乘积所对应的卷积矩阵; ${{s}} = {\rm{vec}}\left( {\tilde {{S}}} \right)$, ${{{f}}_z} = {\rm{vec}}\left( {{{\tilde {{F}}}_z}} \right)$, 即将特征图$\tilde {{S}}$和卷积滤波器${\tilde {{F}}_z}$写成向量形式.

      需要特别指出的是, (3)式中的卷积是循环卷积, 而不是线性卷积. 使用循环卷积的目的是为了在整幅图像上实现快速有效的运算. 如果图像的大小为${{X}} \in {\mathbb{R}^{{N_1} \times {N_2} \times {N_{\rm{c}}}}}$(对于灰度图像Nc = 1, 对于彩色图像Nc = 3), 每个滤波器的大小为${\tilde {{F}}_z} \in {\mathbb{R}^{{n_1} \times {n_2} \times {N_{\rm{c}}}}}$(一般情况下${n_1} \ll {N_1},{n_2} \ll {N_2}$), 则在循环卷积的框架下特征图$\tilde {{S}}$与图像X有着相同的大小, 即$\tilde {{S}} \in {\mathbb{R}^{{N_1} \times {N_2} \times {N_{\rm{c}}}}}$. 根据卷积滤波器${\tilde {{F}}_z}$与卷积矩阵${{{F}}_z}$之间的对应关系, 卷积矩阵${{{F}}_z}$是一个有着循环块的块循环矩阵:

      ${{{F}}_z} = \left[ {\begin{array}{*{20}{c}} {{{{F}}_{z,0}}}&{{{{F}}_{z,{N_2} - 1}}}& \cdots &{{{{F}}_{z,1}}} \\ {{{{F}}_{z,1}}}&{{{{F}}_{z,0}}}& \cdots &{{{{F}}_{z,2}}} \\ \vdots & \vdots & \ddots & \vdots \\ {{{{F}}_{z,{N_2} - 1}}}&{{{{F}}_{z,{N_2} - 2}}}& \cdots &{{{{F}}_{z,0}}} \end{array}} \right], $

      其中, 每一块${{{F}}_{z,j}},j = 0,1, \cdots ,{N_2} - 1$是1个${N_1} \times {N_1}$的循环矩阵, 根据BCCB的性质, 可得

      ${{{F}}_z} = \left( {{{{W}}_{{N_2}}} \otimes {{{W}}_{{N_1}}}} \right){{{\varDelta }}_z}{\left( {{{{W}}_{{N_2}}} \otimes {{{W}}_{{N_1}}}} \right)^{ - 1}}, $

      其中, ${{{W}}_{{N_1}}}$表示${N_1} \times {N_1}$大小的离散傅里叶变换矩阵, $ \otimes $表示Kronecker积, ${{{\varDelta }}_z} = {\rm{diag}}\left( {{{\hat {{f}}}_z}} \right)$, ${\hat {{f}}_z} = \left( {{{{W}}_{{N_2}}} \otimes {{{W}}_{{N_1}}}} \right){\tilde {{f}}_z}$, ${\tilde {{f}}_z}$是卷积矩阵${{{F}}_z}$的第一行. 因此, 循环卷积运算${{{F}}_z}{{s}} = {\rm{vec}}\left( {{{\tilde {{F}}}_z} * \tilde {{S}}} \right)$可以利用(8)式中的一次二维快速傅里叶逆变换(two-dimensional inverse fast Fourier transforms, 2D-IFFTs)、两次2D-FFTs和频域上简单的分量式运算实现快速运算. 为了表示简洁, 这里令${{{W}}_{\rm 2d}} = {{{W}}_{{N_2}}} \otimes {{{W}}_{{N_1}}}$表示相应维度的2D-FFTs矩阵, 则(8)式可以简写为

      ${{{F}}_z} = {{{W}}_{{\rm{2d}}}}{{{\varDelta }}_z}{{W}}_{2{\rm{d}}}^{ - 1}, $

      将循环卷积运算从时域转化到频域是算法能够快速运算的关键. 为了更好地理解提出的模型, 需要指出的两点是:

      1)类似于传统压缩感知中多幅图像被同一组稀疏基或稀疏字典表示, 在这里N幅图像共同被K组卷积滤波器${\tilde {{F}}_z}\left( {z = 1,2, \cdots ,K} \right)$与特征图的循环卷积表示;

      2)特征图$\tilde {{S}}$没有标注下标z并不是表示每幅图像只对应一个特征图, 相反每幅图像都有特定的K个特征图, 每个特征图都有各自的后验分布, 如(11)和(12)式所示. 省去下标z的原因是所有特征图的先验分布相同.

    • 考虑从一组训练图像集$\left\{ {{{{X}}_i}} \right\}_{i = 1}^N$中学习所提出的convGMM, 记该模型中待估计的参数为$\varTheta = \left\{ {{{\textit{π}} _z},{{{\mu}} _z},{{{f}}_z}} \right\}_{z = 1}^K$.

      在估计未知参数前, 先推导联合分布$p\left( {z,{{s}},{{x}}} \right)$和后验分布$p\left( {z,{{s}}\left| {{x}} \right.} \right)$.

      $ \begin{align} &p\left( {z,{{s}},{{x}}} \right) \\ = \, &p\left( z \right)p\left( {{{s}}\left| z \right.} \right)p\left( {{{x}}\left| {z,s} \right.} \right) \\ =\,& {{\textit{π}}_z}{\cal N}\left( {{{s}}\left| {{\bf{0}},{{I}}} \right.} \right){\cal N}\left( {{{x}}\left| {{{{\mu}} _z} + {{{F}}_z}{{s}},\gamma {\bf{I}}} \right.} \right) \\ =\,& {{\textit{π}}_z}{\cal N}\left( {\left[ \begin{array}{l} {{s}} \\ {{x}} \\ \end{array} \right]\left| {\left[ \begin{array}{l} {\bf{0}} \\ {{{\mu}} _z} \\ \end{array} \right]} \right.,\left[ {\begin{array}{*{20}{c}} {{I}}&{{{{{F}}'}_z}} \\ {{{{F}}_z}}&{\gamma {{I}} + {{{F}}_z}{{{{F}}'}_z}} \end{array}} \right]} \right). \end{align} $

      基于(9)式中${{{F}}_z}$的频域性质, 可得

      $ \begin{split} & p\left( {z,{{s}},{{x}}} \right) \\ =\,& {{\textit{π}}_z}{\cal N}( \left[ \begin{array}{l} {{s}} \\ {{x}} \\ \end{array} \right]\left| {\left[ \begin{array}{l} {\bf{0}} \\ {{{\mu}} _z} \\ \end{array} \right]} \right., \\ & \left.\left[ {\begin{array}{*{20}{c}} {{I}}&{{{{W}}_{2{\rm{d}}}}{{{{\bar \varDelta }}}_z}{{W}}_{2{\rm{d}}}^{ - 1}} \\ {{{{W}}_{2{\rm{d}}}}{{{\varDelta }}_z}{{W}}_{2{\rm{d}}}^{ - 1}}&{{{{W}}_{\rm 2d}}\left( {\gamma {{I}} + {{\left| {{{{\varDelta }}_z}} \right|}^2}} \right){{W}}_{2{\rm{d}}}^{ - 1}} \end{array}} \right] \right) \\ =\,& {{\textit{π}}_z}{\cal N}\left( {{{s}}\left| {{{{\xi}} _z},{{{Q}}_z}} \right.} \right){\cal N}\left( {{{x}}\left| {{{{\mu}} _z},{{{R}}_z}} \right.} \right), \\ \end{split} $

      其中, ${{{\bar \varDelta }}_z}$表示${{{\varDelta }}_z}$的共轭, ${\left| {{{{\varDelta }}_z}} \right|^2} = {\rm{diag}}\left( {{{\left| {{{\hat {{f}}}_z}} \right|}^2}} \right)$, (11)式最后一行的参数满足

      $ {{{\xi}} _z} = {{{W}}_{{\rm{2d}}}}\left[ {{{{{\bar \varDelta }}}_z}{{\left( {\gamma {{I}} + {{\left| {{{{\varDelta }}_z}} \right|}^2}} \right)}^{ - 1}}} \right]{{W}}_{2{\rm{d}}}^{ - 1}\left( {{{x}} - {{{\mu}} _z}} \right), $

      $ {{{Q}}_z} = \gamma {{{W}}_{{\rm{2d}}}}{\left( {\gamma {{I}} + {{\left| {{{{\varDelta }}_z}} \right|}^2}} \right)^{ - 1}}{{W}}_{{\rm{2d}}}^{{{ - 1}}}, $

      $ {{{R}}_z} = {{{W}}_{{\rm{2d}}}}\left( {\gamma {{I}} + {{\left| {{{{\varDelta }}_z}} \right|}^2}} \right){{W}}_{{\rm{2d}}}^{{{ - 1}}}, $

      上述这些参数均可利用2D-FFTs和2D-IFFTs实现快速运算. 由(11)式可得信号x的边缘分布

      $p\left( {{{x}}\left| \varTheta \right.} \right) = \sum\limits_{z = 1}^K {{{\textit{π}} _z}{\cal N}\left( {{{x}}\left| {{{{\mu}} _z},{{{R}}_z}} \right.} \right)} $

      和给定x时的(z, s)的后验分布

      $p\left( {z,{{s}}\left| {{{x}},\varTheta } \right.} \right) = {\rho _z}{\cal N}\left( {{{s}}\left| {{{{\xi}} _z},{{{Q}}_z}} \right.} \right), $

      其中,

      $ {\rho _z} = \frac{{{{\textit{π}} _z}{\cal N}\left( {{{x}}\left| {{{{\mu}} _z},{{{R}}_z}} \right.} \right)}}{{\displaystyle\sum\limits_{l = 1}^K {{{\textit{π}} _l}{\cal N}\left( {{{x}}\left| {{{{\mu}} _l},{{{R}}_l}} \right.} \right)} }}. $

      本文将未知变量$\left\{ {{z_i},{{{s}}_i}} \right\}$看作隐变量, 基于MMLE从训练数据集中学习convGMM:

      $ \begin{split} {\varTheta _{{\rm{MMLE}}}} =\,& \mathop {\max }\limits_\varTheta \sum\limits_{i = 1}^N {\ln p\left( {{{{x}}_i}\left| \varTheta \right.} \right)} \\ =\,& \mathop {\max }\limits_\varTheta \sum\limits_{i = 1}^N {\ln \sum\limits_{{z_i} = 1}^K {\int {p\left( {{z_i},{{{s}}_i},{{{x}}_i}\left| \varTheta \right.} \right){\rm{d}}{{{s}}_i}} } } \end{split} , $

      其中, 联合分布$p\left( {{z_i},{{{s}}_i},{{{x}}_i}\left| \varTheta \right.} \right)$由(10)式给出. 通过EM算法[19]求解上述的目标函数, 具体步骤如下.

      1) E-step: 基于上述公式(16)的后验分布$p\left( {{z_i},\;{{{s}}_i}\left| {{{{x}}_i},\;{\varTheta ^{(t - 1)}}} \right.} \right)$, 求解对数似然函数$\ln p\left( {{z_i},{{{s}}_i},{{{x}}_i}\left| \varTheta \right.} \right)$的期望.

      $ \begin{split} &ll\left( {\varTheta \left| {{\varTheta ^{(t - 1)}}} \right.} \right)\\ =\,& \sum\limits_{i = 1}^N {{\mathbb{E}_{{z_i},{{{s}}_i}\left| {{{{x}}_i},{\varTheta ^{(t - 1)}}} \right.}}\left\{ {\ln p\left( {{z_i},{{{s}}_i},{{{x}}_i}\left| \varTheta \right.} \right)} \right\}} \\ = \,&\sum\limits_{i = 1}^N {\mathbb{E}_{{z_i},{{ s}_i}\left| {{{ x}_i},{\varTheta ^{(t - 1)}}} \right.}}\left\{ \ln {{\textit{π}} _z} {\cal N}\left( {{{ s}_i}\left| {{\bf{0}},{{I}}} \right.} \right)\right.\\ & \left.\cdot{\cal N}\left( {{{{x}}_i}\left| {{{{\mu}} _z} + {{{F}}_z}{{{s}}_i},\gamma {{I}}} \right.} \right) \right\} \\ =\,& {\rm{constant}} + \sum\limits_{i = 1}^N {\sum\limits_{z = 1}^K {\rho _{iz}^{(t - 1)}\ln {{\textit{π}} _z}} } \\ &- \frac{1}{2}\sum\limits_{i = 1}^N \mathbb{E}\Bigr[ {{\left( {{{{x}}_i} - {{{\mu}} _z} - {{{F}}_z}{{{s}}_i}} \right)}^\prime }{{\left( {\gamma {{I}}} \right)}^{ - 1}}\\ & \cdot\left( {{{{x}}_i} - {{{\mu}} _z} - {{{F}}_z}{{{s}}_i}} \right) \Bigr] , \end{split} $

      其中, constant表示与参数$\varTheta $无关项的和, $\rho _{iz}^{(t - 1)} = {\rho _z}\left( {{{{x}}_i},{\varTheta ^{(t - 1)}}} \right)$. 为了表示简洁, 这里省略了期望${\mathbb{E}_{{z_i},{{{s}}_i}\left| {{{{x}}_i},{\varTheta ^{(t - 1)}}} \right.}}\left( \cdot \right)$的下标.

      从直观上看, 接下来可以直接推导(19)式最后一行的期望, $\mathbb{E}\left[ {{\left( {{{{x}}_i} - {{{\mu}} _z} - {{{F}}_z}{{{s}}_i}} \right)}^\prime }{{\left( {\gamma {{I}}} \right)}^{ - 1}}\right. \;\cdot$$ \left( {{{{x}}_i} - {{{\mu}} _z} - {{{F}}_z}{{{s}}_i}} \right) \Bigr]$, 从而完成整个期望的计算. 但在 卷积运算转化为乘积运算的过程中, ${\rm{vec}}\left( {{{\tilde {{F}}}_z} * \tilde {{S}}} \right) = $ $ {{ F}_z}{ s}$, 大的卷积矩阵${{{F}}_z} \in $$ {\mathbb{R}^{({N_1} \cdot {N_2}) \times ({N_1} \cdot {N_2})}}$是由小的卷积滤波器${\tilde {{F}}_z} \in {\mathbb{R}^{{n_1} \times {n_2}}}$按照循环卷积的对应关系生成的, 且${{{F}}_z}$中大部分元素都是0. 所以在接下来EM算法的M-step中, 本文不能直接更新${{{F}}_z}$, 而应更新滤波器${\tilde {{F}}_z}$. 在本步中需要将(19)式最后一行的${{{F}}_z}$转化为用${\tilde {{F}}_z}$(或${{{f}}_z}$, 因为${{{f}}_z} = {\rm{vec}}\left( {{{\tilde {{F}}}_z}} \right)$)来表示. 为了使后续的结论更加具有普适性, 这里将协方差矩阵$\gamma { I}$拓展为任意矩阵${{\varGamma}} $的一般情形. (19)式最后一行可进一步化简为

      $ \begin{split} &- \frac{1}{2}\sum\limits_{i = 1}^N {\mathbb{E}\left[ {{{\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}{{{s}}_i}} \right)}^\prime }{{{\varGamma}} ^{ - 1}}\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}{{{s}}_i}} \right)} \right]} \\ =\,& \!-\! \frac{1}{2}\sum\limits_{i = 1}^N \mathbb{E}[ {{\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}\left( {{{{s}}_i} \!-\! {{\xi }}_{iz}^{(t - 1)} + {{\xi }}_{iz}^{(t - 1)}} \right)} \right)}^\prime }\\ & \cdot\!{{{\varGamma}} ^{ - 1}}\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}\left( {{{{s}}_i} \!-\! {{\xi }}_{iz}^{(t - 1)} + {{\xi }}_{iz}^{(t - 1)}} \right)} \right) ] \\ =\,& \!-\! \frac{1}{2}\sum\limits_{i = 1}^N \mathbb{E}[ {{\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}{{\xi }}_{iz}^{(t - 1)} \!-\! {{{F}}_z}\left( {{{{s}}_i} \!-\! {{\xi }}_{iz}^{(t - 1)}} \right)} \right)}^\prime }\\ & \cdot\!{{{\varGamma}} ^{ - 1}}\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}{{\xi }}_{iz}^{(t - 1)} \!-\! {{{F}}_z}\left( {{{{s}}_i} \!-\! {{\xi }}_{iz}^{(t - 1)}} \right)} \right) ] \\ = \,&- \frac{1}{2}\sum\limits_{i = 1}^N \mathbb{E}\left[ {{\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}{{\xi }}_{iz}^{(t - 1)}} \right)}^\prime }\right. \\ & \cdot\!{{{\varGamma}} ^{ - 1}}\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}{{\xi }}_{iz}^{(t - 1)}} \right) \!-\!2{{\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}{{\xi }}_{iz}^{(t - 1)}} \right)}^\prime } \\ & \cdot\!{{{\varGamma}} ^{ - 1}}{{{F}}_z}\left( {{{{s}}_i} \!-\! {{\xi }}_{iz}^{(t - 1)}} \right) + s{{\left( {{{{s}}_i} \!-\! {{\xi }}_{iz}^{(t - 1)}} \right)}^\prime }\\ & \cdot\!\left.{{{ F}}'_z}{{{\varGamma}} ^{ - 1}}{{{F}}_z}\left( {{{{s}}_i} \!-\! {{\xi }}_{iz}^{(t - 1)}} \right) \right] \\ =\,& \!-\! \frac{1}{2}\sum\limits_{i = 1}^N \sum\limits_{z = 1}^K \rho _{iz}^{(t - 1)} \times [ {{\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}{{\xi }}_{iz}^{(t - 1)}} \right)}^\prime }\\ & \cdot\!{{{\varGamma}} ^{ - 1}}\left( {{{{x}}_i} \!-\! {{{\mu}}_z} \!-\! {{{F}}_z}{{\xi }}_{iz}^{(t - 1)}} \right) \!+\! {\rm{tr}}\left( {{ Q}_z^{(t - 1)}{{ F}'_z}{{{\varGamma}} ^{ - 1}}{{{F}}_z}} \right) ]. \end{split} $

      (20)式的最后一行的两项都含有卷积矩阵${{{F}}_z}$, 现将它们转化成用卷积滤波器${{{f}}_z}$来表示:

      $ \begin{split} & {\left( {{{{x}}_i} - {{{\mu}}_z} - {{{F}}_z}{{\xi}}_{iz}^{(t - 1)}} \right)^\prime }\\ & \times{{{\varGamma}} ^{ - 1}}\left( {{{{x}}_i} - {{{\mu}}_z} - {{{F}}_z}{{\xi}}_{iz}^{(t - 1)}} \right) \\ =\,& {\left( {{{{x}}_i} - {{{\mu}}_z} - {\rm{vec}}\left( {{{\tilde {{F}}}_z} * \tilde {{\varXi}} _{iz}^{(t - 1)}} \right)} \right)^\prime }\\ & \cdot {{{\varGamma}} ^{ - 1}}\left( {{{{x}}_i} - {{{\mu}}_z} - {\rm{vec}}\left( {{{\tilde {{F}}}_z} * \tilde {{\varXi}} _{iz}^{(t - 1)}} \right)} \right) \\ =\,& {\left( {{{{x}}_i} - {{{\mu}}_z} - {{\varXi}} _{iz}^{(t - 1)}{{{f}}_z}} \right)^\prime }{{{\varGamma}} ^{ - 1}}\left( {{{{x}}_i} - {{{\mu}}_z} - {{\varXi}} _{iz}^{(t - 1)}{{{f}}_z}} \right) \end{split} , $

      其中, ${{\varXi}} _{iz}^{(t - 1)}$是满足${{{F}}_z}{{\xi}} _{iz}^{(t - 1)} = {\rm{vec}}\left( {{{\tilde {{F}}}_z} * \tilde {{\varXi}} _{iz}^{(t - 1)}} \right) = $${{ \Xi}} _{iz}^{(t - 1)}{{{f}}_z}$关系的卷积矩阵, 类似于(6)式中卷积运算到乘积运算的转化. 若考虑特殊情形${{\varGamma}} = \gamma {{I}}$, 则

      $ \begin{split} &{\left( {{{{x}}_i} - {{{\mu}} _z} - {{{F}}_z}{{\xi}} _{iz}^{(t - 1)}} \right)^\prime }{{{\varGamma}} ^{ - 1}}\left( {{{{x}}_i} - {{{\mu}} _z} - {{{F}}_z}{{\xi}} _{iz}^{(t - 1)}} \right) \\ =\,& {\gamma ^{ - 1}}{\left( {{{{x}}_i} - {{{\mu}} _z} - {{\varXi}} _{iz}^{(t - 1)}{{{f}}_z}} \right)^\prime }\left( {{{{x}}_i} - {{{\mu}} _z} - {{\varXi}} _{iz}^{(t - 1)}{{{f}}_z}} \right) . \end{split} $

      (20)式最后一行的第二项为

      $ \begin{split} & {\rm{ tr}}\left( {{{Q}}_z^{(t - 1)}{{{{F}}'}_z}{{{\varGamma}} ^{ - 1}}{{{F}}_z}} \right) \\ =\,& {\rm{tr}}\left( {{{{\varGamma}} ^{ - 1}}{{{F}}_z}{{Q}}_z^{(t - 1)}{{{{F}}'}_z}} \right) \\ =\,& \sum\limits_j {\sum\limits_l {{{\left[ {{{{\varGamma}} ^{ - 1}}} \right]}_{j,l}}{{\left( {{{{F}}_z}{{Q}}_z^{(t - 1)}{{{{F}}'}_z}} \right)}_{l,j}}} } \\ =\,& \sum\limits_j {\sum\limits_l {{{\left[ {{{{\varGamma}} ^{ - 1}}} \right]}_{j,l}}\left( {{{\left[ {{{{F}}_z}} \right]}_{l,:}}{{Q}}_z^{(t - 1)}{{\left[ {{{{{F}}'}_z}} \right]}_{:,j}}} \right)} } \\ =\,& \sum\limits_j {\sum\limits_l {{{\left[ {{{{\varGamma}} ^{ - 1}}} \right]}_{j,l}}{{{{f}}'}_z}{{\left[ {{{Q}}_z^{(t - 1)}} \right]}_{\left\{ l \right\},\left\{ j \right\}}}{{{f}}_z}} } \\ =\,& {{{{f}}'}_z}\left( {\sum\limits_j {\sum\limits_l {{{\left[ {{{ \varGamma} ^{ - 1}}} \right]}_{j,l}}{{\left[ {{{Q}}_z^{(t - 1)}} \right]}_{\left\{ l \right\},\left\{ j \right\}}}} } } \right){{{f}}_z} \end{split} , $

      如果${{\varGamma}} = \gamma {{I}}$, 则

      $ \begin{split} &{\rm{ tr}}\left( {{{Q}}_z^{(t - 1)}{{{{F}}}'_z}{{ \varGamma} ^{ - 1}}{{{F}}_z}} \right) \\ =\,& {\gamma ^{ - 1}}{{{{f}}}'_z}\left( {\sum\limits_j {{{\left[ {{{Q}}_z^{(t - 1)}} \right]}_{\left\{ j \right\},\left\{ j \right\}}}} } \right){{{f}}_z} \\ =\,& {\gamma ^{ - 1}}{{{{f}}'}_z}{{\varPsi}} _z^{(t - 1)}{{{f}}_z} , \end{split} $

      其中, ${\left[ \cdot \right]_{l,:}}$${\left[ \cdot \right]_{:,j}}$分别表示矩阵的第l行和第j列; ${\left[ {{{Q}}_z^{(t - 1)}} \right]_{\left\{ l \right\},\left\{ j \right\}}}$是矩阵${{Q}}_z^{(t - 1)}$沿着主对角线的子矩阵, 它的行索引$\left\{ l \right\}$是由${{{f}}'_z}$在行向量${\left[ {{{{F}}_z}} \right]_{l,:}}$中的位置决定, 列索引$\left\{ j \right\}$是由${{{f}}_z}$在列向量${\left[ {{{{{F}}'}_z}} \right]_{:,j}}$中的位置决定; ${{\varPsi}} _z^{(t - 1)} = \sum\limits_j {{{\left[ {{{Q}}_z^{(t - 1)}} \right]}_{\left\{ j \right\},\left\{ j \right\}}}} $.

      将(22)和(24)式代入(19)和(20)式中, 可得对数似然函数的期望为

      $ \begin{split} & ll\left( {\varTheta \left| {{\varTheta ^{(t - 1)}}} \right.} \right) \\ =\,& {\rm{constant}} + \sum\limits_{i = 1}^N {\sum\limits_{z = 1}^K {\rho _{iz}^{(t - 1)}\ln {{\textit{π}} _z}} } \\ &- \frac{1}{2}\sum\limits_{i = 1}^N \sum\limits_{z = 1}^K \rho _{iz}^{(t - 1)} \times [ {\gamma ^{ - 1}}{{\left( {{{{x}}_i} - {{{\mu}} _z} - {{\varXi}} _{iz}^{(t - 1)}{{{f}}_z}} \right)}^\prime }\\ & \cdot\left( {{{{x}}_i} - {{{\mu}} _z} - {{\varXi}} _{iz}^{(t - 1)}{{{f}}_z}} \right) ] \\ & - \frac{1}{2}\sum\limits_{i = 1}^N {\sum\limits_{z = 1}^K {\rho _{iz}^{(t - 1)} \times \left( {{\gamma ^{ - 1}}{{{{f}}'}_z}{{\varPsi}} _z^{(t - 1)}{{{f}}_z}} \right)} }. \end{split} $

      2) M-step: 通过极大化(25)式来更新参数${\varTheta ^{(t)}}$, ${\varTheta ^{(t)}} = \mathop {\arg \max }\limits_\varTheta ll\left( {\varTheta \left| {{\varTheta ^{(t - 1)}}} \right.} \right)$, 可得

      $ {\textit{π}} _z^{(t)} = \frac{{\displaystyle\sum\limits_{i = 1}^N {\rho _{iz}^{(t - 1)}} }}{{\displaystyle\sum\limits_{z = 1}^K {\displaystyle\sum\limits_{i = 1}^N {\rho _{iz}^{(t - 1)}} } }}, $

      $\left[ {\begin{array}{*{20}{c}} {{{\mu}} _z^{(t)}} \\ {{{f}}_z^{(t)}} \end{array}} \right] = {\left( {\sum\limits_{i = 1}^N {\rho _{iz}^{(t - 1)} \cdot \left[ {\begin{array}{*{20}{c}} {{I}}&{{{\varXi}} _{iz}^{(t - 1)}} \\ {{{\left( {{{\varXi}} _{iz}^{(t - 1)}} \right)}^\prime }}&{{{\varPsi}} _z^{(t - 1)} + {{\left( {{{\varXi}} _{iz}^{(t - 1)}} \right)}^\prime }{{\varXi}} _{iz}^{(t - 1)}} \end{array}} \right]} } \right)^{ - 1}} \times \left( {\sum\limits_{i = 1}^N {\rho _{iz}^{(t - 1)}\left[ {\begin{array}{*{20}{c}} {{{{x}}_i}} \\ {{{\left( {{{\varXi}} _{iz}^{(t - 1)}} \right)}^\prime }{{{x}}_i}} \end{array}} \right]} } \right).$

      在(12)—(14)式和(26), (27)式之间交替迭代组成了整个MMLE-convGMM算法的迭代过程. 根据EM算法的性质[19], 边缘似然函数$\displaystyle\sum\limits_{i = 1}^N {\ln \displaystyle\sum\limits_{z = 1}^K {{\textit{π}} _z^{(t)}{\cal N}\left( {{{{x}}_i}\left| {{{\mu}} _z^{(t)},{{{R}}_z}\left( {{\varTheta ^{\left( t \right)}}} \right)} \right.} \right)} } $将随迭代次数逐渐增加直至收敛.

    • 在压缩测量过程中, 本文考虑将原图像与随机核矩阵进行循环卷积, 再依据采样率对循环卷积的结果进行降采样. 该过程的模型为

      $ {{Y}} = {{\cal P}_{{\Omega}} }\left( {\tilde {{\varPhi}} *{ X}} \right) + {{N}},\;\;{{N}}\sim {\cal {{N}}}\left( {{\bf{0}},{\sigma ^2}{{I}}} \right), $

      其中, $\tilde {{\varPhi}} $表示随机卷积核, 它与图像的大小相同; ${{\cal P}_{{\Omega}} }$表示在索引集${{\Omega}} $下的降采样算子; Y表示循环压缩测量结果; N表示噪声. 现将(28)式向量化:

      $ {{y}} = {{{P}}_{{\Omega}} }{{\varPhi}} {{x}} + {{n}}, $

      其中, ${{{P}}_{{\Omega}} }$是降采样算子${{\cal P}_{{\Omega}} }$对应的降采样矩阵, ${{\varPhi}} $是由卷积核$\tilde {{\varPhi}} $生成的有着循环块的块循环矩阵, 其结构如(7)式所示, 故${{\varPhi}} $可表示为

      $ {{\varPhi}} = {{{W}}_{{\rm{2d}}}}{{{\varDelta }}_{{\rm{CS}}}}{{W}}_{{\rm{2d}}}^{{{ - 1}}}, $

      其中, ${{{\varDelta }}_{{\rm{CS}}}} = {\rm{diag}}\left( {{{{W}}_{{\rm{2d}}}}\tilde { \phi} } \right)$, $\tilde{ \phi} = {\rm{vec}}\left( {\tilde {{\varPhi}} } \right)$.

      基于convGMM的压缩测量如图1所示, 本文的目标是基于极大后验估计, 从压缩测量结果y中恢复原信号x.

      图  1  基于convGMM的压缩测量

      Figure 1.  Structure of convGMM with application to compressive sensing.

      (z, s, x, y)的联合分布为

      $ \begin{split} & p\left( {z,{{s}},{{x}},{{y}}} \right) \\ =\,& p\left( {{{y}}\left| {{x}} \right.} \right)p\left( {{{x}}\left| {{s}} \right.,z} \right)p\left( {{s}} \right)p\left( z \right) \\ =\,& {{\textit{π}} _z}{\cal N}\left( {{{y}}\left| {{{{P}}_{{\Omega}} }{{\varPhi}} {{x}},{\sigma ^2}{{I}}} \right.} \right){\cal N}\left( {{{x}}\left| {{{{\mu}} _z} + {{{F}}_z}{{s}},\gamma {{I}}} \right.} \right){\cal N}\left( {{{s}}\left| {{\bf{0}},{{I}}} \right.} \right) \\ =\,& {{\textit{π}} _z}{\cal N}\left( {\left[ {\begin{array}{*{20}{c}} {{y}} \\ {{x}} \\ {{s}} \end{array}} \right]{{\left| {\left[ {\begin{array}{*{20}{c}} {{{{P}}_{{\Omega}} }{{\varPhi}} {{{\mu}} _z}} \\ {{{{\mu}} _z}} \\ {\bf{0}} \end{array}} \right],\left[ {\begin{array}{*{20}{c}} {{\sigma ^{ - 2}}{{I}}}&{ - {\sigma ^{ - 2}}{{{P}}_{{\Omega}} }{{\varPhi}} }&{\bf{0}} \\ { - {\sigma ^{ - 2}}{{\varPhi}} '{{ P}'_{{\Omega}} }}&{{\sigma ^{ - 2}}{{\varPhi}} '{{ P}'_{{\Omega}} }{{{P}}_{{\Omega}} }{{\varPhi}} + {\gamma ^{ - 1}}{{I}}}&{ - {\gamma ^{ - 1}}{{{F}}_z}} \\ {\bf{0}}&{ - {\gamma ^{ - 1}}{{{{F}}}'_z}}&{{{I}} + {\gamma ^{ - 1}}{{{{F}}}'_z}{{{F}}_z}} \end{array}} \right]} \right.}^{ - 1}}} \right) \end{split}. $

      根据贝叶斯理论, (z, s, x, y)的联合分布还可写为

      $ \begin{split} & p\left( {z,{{s}},{{x}},{{y}}} \right) \\ =\,& p\left( {{{x}},{{s}}\left| {{y}} \right.,z} \right)p\left( {{{y}}\left| z \right.} \right)p\left( z \right) \\ =\,& {{\textit{π}} _z}{\cal N}\left( {\left[ {\begin{array}{*{20}{c}} {{x}} \\ {{s}} \end{array}} \right]\left| {\left[ {\begin{array}{*{20}{c}} {{{{\eta}} _z}} \\ {{{{\xi}} _z}} \end{array}} \right]} \right.,\left[ {\begin{array}{*{20}{c}} {{{{C}}_z}}&{{{{\varOmega}} _z}} \\ {{{{{\varOmega}}}'_z}}&{{{{\varOmega}} _z}} \end{array}} \right]} \right)\\ & \cdot {\cal N}\left( {{{y}}\left| {{{\varPhi}} {{{\mu}} _z},{{{R}}_z}} \right.} \right), \end{split} $

      其中的参数满足

      $ \begin{split} &\left[ {\begin{array}{*{20}{c}} {{{{C}}_z}}&{{{{\varOmega}} _z}} \\ {{{{{\varOmega}}}'_z}}&{{{{Q}}_z}} \end{array}} \right] \\ =\,& {\left[ {\begin{array}{*{20}{c}} {{\sigma ^{ - 2}}{{\varPhi}} '{{{{P}}}'_{{\Omega}} }{{{P}}_{{\Omega}} }{{\varPhi}} + {\gamma ^{ - 1}}{{I}}}&{ - {\gamma ^{ - 1}}{{{F}}_z}} \\ { - {\gamma ^{ - 1}}{{{{F}}}'_z}}&{{{I}} + {\gamma ^{ - 1}}{{{{F}}}'_z}{{{F}}_z}} \end{array}} \right]^{ - 1}}, \end{split} $

      $ \begin{split} \left[ {\begin{array}{*{20}{c}} {{{{\eta}} _z}} \\ {{{{\xi}} _z}} \end{array}} \right] =\,& \left[ {\begin{array}{*{20}{c}} {{{{\mu}} _z}} \\ {\bf{0}} \end{array}} \right] - \left[ {\begin{array}{*{20}{c}} {{{{C}}_z}}&{{{{\varOmega}} _z}} \\ {{{{{\varOmega}}}'_z}}&{{{{Q}}_z}} \end{array}} \right]\\ & \times \left[ {\begin{array}{*{20}{c}} { - {\sigma ^{ - 2}}{{\varPhi}} '{{{{P}}}'_{{\Omega}} }} \\ {\bf{0}} \end{array}} \right]\left( {{{y}} - {{{P}}_{{\Omega}} }{{\varPhi}} {{{\mu}} _z}} \right), \end{split} $

      $ \begin{split} {{{R}}_z} =\,& \left( {\sigma ^{ - 2}}{{I}} - \left[ {\begin{array}{*{20}{c}} { - {\sigma ^{ - 2}}{{{P}}_{{\Omega}} }{{\varPhi}} }&{\bf{0}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{{{C}}_z}}&{{{{\varOmega}} _z}} \\ {{{{{\varOmega}}}'_z}}&{{{{Q}}_z}} \end{array}} \right]\right.\\ & \times \left.\left[ {\begin{array}{*{20}{c}} { - {\sigma ^{ - 2}}{{\varPhi}} '{{{{P}}}'_{{\Omega}} }} \\ {\bf{0}} \end{array}} \right] \right)^{ - 1}, \end{split} $

      化简可得

      $ \begin{split} {{{R}}_z} =\,& {\sigma ^2}{{I}} + {{{P}}_{{\Omega}} }{{\varPhi }}\left( {\gamma {{I}} + {{{F}}_z}{{{{F}}}'_z}} \right){{\varPhi}} '{{{{P}}}'_{{\Omega}} } \\ =\,& {{{P}}_{{\Omega}} }{{{W}}_{{\rm{2d}}}}\left[ {{\sigma ^2}{{I}} + {{\left| {{{{\varDelta }}_{{\rm{CS}}}}} \right|}^2}\left( {\gamma {{I}} + {{\left| {{{{\varDelta }}_z}} \right|}^2}} \right)} \right]{{W}}_{{\rm{2d}}}^{ - 1}{{{{P}}}'_{{\Omega}}}, \end{split} $

      $ \begin{split} {{{C}}_z} =\,& \left( {\gamma {{I}} + {{{F}}_z}{{{{F}}}'_z}} \right) - \left( {\gamma I + {{{F}}_z}{{{{F}}}'_z}} \right){{\varPhi}} '{{{{P}}}'_{{\Omega}} }{{R}}_z^{ - 1}\\ & \times {{{P}}_{{\Omega}} }{{\varPhi}} \left( {\gamma {{I}} + {{{F}}_z}{{{{F}}}'_z}} \right) \\ = \,&{{{W}}_{{\rm{2d}}}}\left( {\gamma {{I}} + {{\left| {{{{\varDelta }}_z}} \right|}^2}} \right){{W}}_{{\rm{2d}}}^{{{ - 1}}} \\ & - \left[ {{{{W}}_{{\rm{2d}}}}\left( {\left( {\gamma {{I}} + {{\left| {{{{\varDelta }}_z}} \right|}^2}} \right){{{{\bar \varDelta }}}_{{\rm{CS}}}}} \right){{W}}_{{\rm{2d}}}^{{{ - 1}}}} \right] \\ & \times \left( {{{{{P}}}'_{{\Omega}} }{{R}}_z^{ - 1}{{{P}}_{ \Omega} }} \right) \\ & \times \left[ {{{{W}}_{{\rm{2d}}}}\left( {\left( {\gamma {{I}} + {{\left| {{{{\varDelta }}_z}} \right|}^2}} \right){{{\varDelta }}_{{\rm{CS}}}}} \right){{W}}_{{\rm{2d}}}^{ - 1}} \right] , \end{split} $

      $ \begin{split} {{{Q}}_z} =\,& {{I}} - {{{{F}}}'_z}{{\varPhi}} '{{{{P}}}'_{{\Omega}} }{{R}}_z^{ - 1}{{{P}}_{{\Omega}} }{{\varPhi}} {{{F}}_z} \\ = \,&{{I}} - \left[ {{{{W}}_{{\rm{2d}}}}\left( {{{{{\bar \varDelta }}}_z}{{{{\bar \varDelta }}}_{{\rm{CS}}}}} \right){{W}}_{{\rm{2d}}}^{ - 1}} \right] \times \left( {{{{{P}}}'_{{\Omega}} }{{R}}_z^{ - 1}{{{P}}_{{\Omega}} }} \right) \\ & \times \left[ {{{{W}}_{{\rm{2d}}}}\left( {{{{\varDelta }}_z}{{{\varDelta }}_{{\rm{CS}}}}} \right){{W}}_{2{\rm{d}}}^{ - 1}} \right], \end{split} $

      $ \begin{split} {{{\Omega}} _z} =\,& {{{F}}_z} - \left( {\gamma {{I}} + {{{F}}_z}{{{{F}}}'_z}} \right){{\varPhi}} '{{{{P}}}'_{{\Omega}} }{{R}}_z^{ - 1}{{{P}}_{{\Omega}} }{{\varPhi}} {{{F}}_z} \\ =\,& {{{W}}_{{\rm{2d}}}}{{{\varDelta }}_z}{{W}}_{2{\rm{d}}}^{ - 1} \!-\!\! \left[ {{{{W}}_{{\rm{2d}}}}\left( {\left( {\gamma {{I}} + {{\left| {{{{\varDelta }}_z}} \right|}^2}} \right){{{{\bar \varDelta }}}_{{\rm{CS}}}}} \right){{W}}_{{\rm{2d}}}^{ - 1}} \right] \\ & \times \left( {{{{{P}}}'_{{\Omega}} }{{R}}_z^{ - 1}{{{P}}_{{\Omega}} }} \right) \times \left[ {{{{W}}_{{\rm{2d}}}}\left( {{{{\varDelta }}_z}{{{\varDelta }}_{{\rm{CS}}}}} \right){{W}}_{{\rm{2d}}}^{{{ - 1}}}} \right], \end{split} $

      $ \begin{split} {{{\eta}} _z} =\,& {{{\mu}} _z} + \left( {\gamma {{I}} + {{{F}}_z}{{{{F}}}'_z}} \right){{\varPhi}} '{{{{P}}}'_{{\Omega}} }{{R}}_z^{ - 1}\left( {y - {{{P}}_{{\Omega}} }{{\varPhi}} {{{\mu}} _z}} \right) \\ =\,& {{{\mu}} _z} + \left[ {{{{W}}_{{\rm{2d}}}}\left( {\left( {\gamma {{I}} + {{\left| {{{{\varDelta }}_z}} \right|}^2}} \right){{{{\bar \varDelta }}}_{{\rm{CS}}}}} \right){{W}}_{{\rm{2d}}}^{{{ - 1}}}} \right] \\ & \times {{{{P}}}'_\Omega }{{R}}_z^{ - 1} \cdot \left( {{ y} - {{{P}}_{{\Omega}} }{{{W}}_{{\rm{2d}}}}{{{\varDelta }}_{{\rm{CS}}}}{{W}}_{{\rm{2d}}}^{{{ - 1}}}{{{\mu}} _z}} \right), \end{split} $

      $ \begin{split} {{{\xi}} _z} =\,& {{{{F}}}'_z}{{\varPhi}} '{{{{P}}}'_{{\Omega}} }{{R}}_z^{ - 1}\left( {{ y} - {{{P}}_{{\Omega}} }{{\varPhi}} {{{\mu}} _z}} \right) \\ =\,& \left[ {{{{W}}_{2{\rm{d}}}}\left( {{{{{\bar \varDelta }}}_z}{{{{\bar \varDelta }}}_{{\rm{CS}}}}} \right){{W}}_{2{\rm{d}}}^{ - 1}} \right] \times {{ P}'_{{\Omega}} }{{R}}_z^{ - 1} \\ &\times \left( {{ y} - {{{P}}_{{\Omega}} }{{{W}}_{2{\rm{d}}}}{{{\varDelta }}_{{\rm{CS}}}}{{W}}_{{\rm{2d}}}^{{{ - 1}}}{{{\mu}} _z}} \right), \end{split} $

      其中, ${{{\bar \varDelta }}_{{\rm{CS}}}}$表示${{{\varDelta }}_{{\rm{CS}}}}$的共轭. 值得注意的是上述这些参数均可利用2D-FFTs实现快速运算.

      从(32)式的最后一行可得y的边缘分布

      $ p\left( {{{y}}\left| \varTheta \right.} \right) = \sum\limits_{z = 1}^K {{{\textit{π}} _z}{\cal N}\left( {{{y}}\left| {{{{P}}_{{\Omega}} }{{\varPhi}} {{{\mu}} _z},{{{R}}_z}} \right.} \right)} , $

      以及给定y时, (z, s, x)的后验分布

      $ \begin{split} &p\left( {z,{{s}},{{x}}\left| {{{y}},\varTheta } \right.} \right) \\ =\,& {\rho _z}\left( {{{y}},\varTheta } \right){\cal N}\left( {\left[ {\begin{array}{*{20}{c}} {{x}} \\ {{s}} \end{array}} \right]\left| {\left[ {\begin{array}{*{20}{c}} {{{{\eta}} _z}} \\ {{{{\xi}} _z}} \end{array}} \right]} \right.,\left[ {\begin{array}{*{20}{c}} {{{{C}}_z}}&{{{{\varOmega}} _z}} \\ {{{{{\varOmega}}}'_z}}&{{{{Q}}_z}} \end{array}} \right]} \right), \end{split} $

      其中,

      ${\rho _z}\left( {{{y}},\varTheta } \right) = \frac{{{{\textit{π}} _z}{\cal N}\left( {{{y}}\left| {{{{P}}_{{\Omega}} }{{\varPhi}} {{{\mu}} _z},{{{R}}_z}} \right.} \right)}}{{\displaystyle\sum\limits_{l = 1}^K {{{\textit{π}} _l}{\cal N}\left( {{{y}}\left| {{{{P}}_{{\Omega}} }{{\varPhi}} {{{\mu}} _l},{{{R}}_l}} \right.} \right)} }}. $

      由(43)式可得信号x的后验分布为

      $p\left( {{{x}}\left| {{{y}},\varTheta } \right.} \right) = \sum\limits_{z = 1}^K {{\rho _z}\left( {{{y}},\varTheta } \right)} {\cal N}\left( {{{x}}\left| {{{{\eta}} _z}\left( {{{y}},\varTheta } \right)} \right.,{{{C}}_z}\left( {{{y}},\varTheta } \right)} \right), $

      可以看出信号x的后验分布也是一个GMM, 各高斯分布的期望、协方差矩阵和权重都与压缩测量结果以及未知参数有关.

      $\hat {{x}}$表示从压缩测量结果y中恢复的信号, 这里采用均方误差(mean square error, MSE)作为恢复算法的评价指标, 则

      $MSE=\iint {\left\| {{{x}} - \hat {{x}}} \right\|}_2^2p\left( {{{x}},{{y}}} \right){\rm{d}}{{x}}{\rm{d}}{{y}}, $

      $\dfrac{{\partial MSE}}{{\partial \hat {{x}}}} = 0$, 可得

      $\hat {{x}} = \int {{x}} p\left( {{{x}}\left| {{y}} \right.} \right){\rm{d}}{{x}} = {\mathbb{E}_{{{x}} {\left| {{y}} \right.,\varTheta } }}\left( {{x}} \right), $

      由此可得信号x后验分布的期望${\mathbb{E}_{{{x}}\left| {{{y}},\varTheta } \right.}}\left( {{x}} \right)$恰好是最小均方误差(minimum mean square error, MMSE)意义下的估计[20], 即

      $ \begin{split} & {\hat {{x}}_{{\rm{MMSE}}}}\left( {{{y}},\varTheta } \right) = {\mathbb{E}_{{{x}}\left| {{{y}},\varTheta } \right.}}\left( {{x}} \right) \\ =& \sum\limits_{z = 1}^K {{\rho _z}\left( {{{y}},\varTheta } \right) \cdot {{{\eta }}_z}\left( {{{y}},\varTheta } \right)}. \end{split} $

    • 由于本文所提的convGMM对整幅图像的概率分布进行建模, 因而存在矩阵维数大, 计算复杂的问题, 为了提高MMLE-convGMM算法运算的效率, 本文做了如下两个重要的降低计算复杂度的工作.

      1)在convGMM中采用循环卷积((2)和(3)式), 因而循环卷积运算${{{F}}_z}{{s}} = {\rm{vec}}\left( {{{\tilde {{F}}}_z} * \tilde {{S}}} \right)$可以利用有着循环块的块循环矩阵的数学性质, 基于(8)式中的一次2D-IFFTs、两次2D-FFTs和频域上简单的分量式运算实现快速运算. 计算复杂度从$O\left( {{{\left( {{N_1} \cdot {N_2}} \right)}^2}} \right)$减小到$O\left( {\left( {{N_1} \cdot {N_2}} \right){{\log }_2}\left( {{N_1} \cdot {N_2}} \right)} \right)$.

      更重要的是, 在第3节convGMM模型的训练中, (12)—(14)式中参数的计算, 以及第4节从压缩测量结果y中恢复原信号x, (48)式中参数的计算, 均可利用(8)式中的2D-FFTs和2D-IFFTs实现快速运算.

      2)在MMLE-convGMM算法的迭代过程中, (27)式中矩阵求逆的计算复杂度较大. 令

      $ \begin{split} {{A}} =\,& \sum\limits_{i = 1}^N \rho _{iz}^{(t - 1)} \\ & \times \left[ {\begin{array}{*{20}{c}} {{I}}&{{{\varXi }}_{iz}^{(t - 1)}} \\ {{{\left( {{{\varXi}} _{iz}^{(t - 1)}} \right)}^\prime }}&{{{\varPsi}} _z^{(t - 1)} + {{\left( {{{\varXi}} _{iz}^{(t - 1)}} \right)}^\prime }{{\varXi}} _{iz}^{(t - 1)}} \end{array}} \right] \\ =\,& \left[ {\begin{array}{*{20}{c}} {{{{A}}_{11}}}&{{{{A}}_{12}}} \\ {{{{A}}_{21}}}&{{{{A}}_{22}}} \end{array}} \right], \end{split} $

      其中,

      $ {{{A}}_{11}} = \displaystyle\sum\limits_{i = 1}^N {\rho _{iz}^{(t - 1)}{{I}}}, $

      $ {{{A}}_{12}} = \displaystyle\sum\limits_{i = 1}^N {\rho _{iz}^{(t - 1)}{{\varXi}} _{iz}^{(t - 1)}}, $

      $ {{{A}}_{21}} = \displaystyle\sum\limits_{i = 1}^N {\rho _{iz}^{(t - 1)}{{\left( {{{\varXi}} _{iz}^{(t - 1)}} \right)}^\prime }}, $

      $ {{{A}}_{22}} = \displaystyle\sum\limits_{i = 1}^N {\rho _{iz}^{(t - 1)}\left( {{{\varPsi}} _z^{(t - 1)} + {{\left( {{{\varXi}} _{iz}^{(t - 1)}} \right)}^\prime }{{\varXi}} _{iz}^{(t - 1)}} \right)} . $

      由于矩阵${{\varXi}} _{iz}^{(t - 1)}$的大小为$\left( {{N_1}\! \cdot \!{N_2}} \right) \!\times\! \left( {{n_1} \!\cdot \!{n_2}} \right)$, 则矩阵A的大小为$\left( {{N_1} \!\cdot \!{N_2} \!+\! {n_1} \cdot {n_2}} \right) \!\times\! \left( {{N_1} \cdot {N_2}\!+\! {n_1} \!\cdot \!{n_2}} \right)$. 如果直接对(49)式求逆, 则利用Cholesky分解, 其计算复杂度为$O\left( {{{{{\left( {{N_1} \cdot {N_2} + {n_1} \cdot {n_2}} \right)}^3}}/ 3} + {{\left( {{N_1} \cdot {N_2} + {n_1} \cdot {n_2}} \right)}^2}} \right)$.

      为了降低矩阵A求逆的复杂度, 本文考虑分块矩阵求逆

      $ \begin{split} \,& {{{A}}^{ - 1}} =\! {\left[\! {\begin{array}{*{20}{c}} {{{{A}}_{11}}}&{{{{A}}_{12}}} \\ {{{{A}}_{21}}}&{{{{A}}_{22}}} \end{array}} \!\right]^{ - 1}} \\ &=\! \left[\! {\begin{array}{*{20}{c}} {{M}}&{ - {{M}}{{{A}}_{12}}{{A}}_{22}^{ - 1}} \\ { - {{A}}_{22}^{ - 1}{{{A}}_{21}}{{M}}}&{{{A}}_{22}^{ - 1} + {{A}}_{22}^{ - 1}{{{A}}_{21}}{{M}}{{{A}}_{12}}{{A}}_{22}^{ - 1}} \end{array}} \!\right], \end{split} $

      其中,

      ${{M}} = {\left( {{{{A}}_{11}} - {{{A}}_{12}}{{A}}_{22}^{ - 1}{{{A}}_{21}}} \right)^{ - 1}}, $

      再根据Woodbury矩阵恒等式, 将矩阵M化简为

      ${{M}} = {{A}}_{11}^{ - 1} + {{A}}_{11}^{ - 1}{{{A}}_{12}}{\left( {{{{A}}_{22}} - {{{A}}_{21}}{{A}}_{11}^{ - 1}{{{A}}_{12}}} \right)^{ - 1}}{{{A}}_{21}}{{A}}_{11}^{ - 1}.$

      由(50)和(52)式可以看出, 计算${ A^{ - 1}}$的主要计算量在于求${{A}}_{22}^{ - 1}$, ${\left( {{{{A}}_{22}} - {{{A}}_{21}}{{A}}_{11}^{ - 1}{{{A}}_{12}}} \right)^{ - 1}}$${{A}}_{11}^{ - 1}$. 由于矩阵${{{A}}_{11}}$是对角矩阵, ${{A}}_{11}^{ - 1}$的计算量可以忽略. 矩阵${{A}}_{22}^{ - 1}$${\left( {{{{A}}_{22}} - {{{A}}_{21}}{{A}}_{11}^{ - 1}{{{A}}_{12}}} \right)^{ - 1}}$的大小都为$\left( {{n_1} \cdot {n_2}} \right) \times \left( {{n_1} \cdot {n_2}} \right)$, 他们求逆的复杂度为$O\left( {{{{{\left( {{n_1} \cdot {n_2}} \right)}^3}} / 3} + {{\left( {{n_1} \cdot {n_2}} \right)}^2}} \right)$. 在卷积网络中滤波器的大小${\tilde {{F}}_z} \in {\mathbb{R}^{{n_1} \times {n_2}}}$远小于图像的大小${{X}} \in $ ${\mathbb{R}^{{N_1} \times {N_2}}} $. 利用上述的矩阵分块求逆和Woodbury矩阵恒等式, 矩阵A求逆的计算复杂度从$O\left( {{{{{\left( {{N_1} \cdot {N_2} \!+ \! {n_1} \cdot {n_2}} \right)}^3}}/ 3} \!+ \!{{\left( {{N_1} \cdot {N_2} + {n_1} \cdot {n_2}} \right)}^2}} \right)$降低到$O\left( {{{{{\left( {{n_1} \cdot {n_2}} \right)}^3}} / 3} + {{\left( {{n_1} \cdot {n_2}} \right)}^2}} \right)$.

    • 本节将在三个标准数据集上验证MMLE-convGMM算法的有效性. 此外, 还与其他的压缩感知算法相比较, 包括基于GMM的MMLE-GMM算法[6], 贪婪算法中的正交匹配追踪算法(orthogonal matching pursuit, OMP)[21], 凸优化算法中的YALL1算法[22]以及通过极小化l2,1范数求解群基追踪(group basis pursuit)问题的广义交替投影(generalized alternating projection, GAP)算法[23]. 每一种算法的恢复性能通过峰值信噪比(peak signal to noise ratio, PSNR)来评价. 对于OMP, YALL1和GAP, 这里选取离散余弦变换(discrete cosine transform, DCT)矩阵作为稀疏基, 记为“DCT-OMP”,“DCT- YALL1”和“DCT-GAP”. 此外, 文献[24]还提供了KSVD-YALL1算法用于整幅图像的恢复, 该算法首先利用KSVD算法在图像块上学习稀疏表示的字典, 再将图像块上学习的稀疏字典构建出整幅图像的稀疏字典, 因此本文也增加了KSVD-YALL1算法作为比较.

    • 首先在CIFAR-10数据集[25]上验证MMLE-convGMM算法的有效性. CIFAR-10数据集是由10类$32 \times 32$大小的自然图像组成的数据集, 每一类图像有60000张, 其中50000张训练图像、10000张测试图像. 这里随机从中选取了3000张图像(每一类图像约300张)并将其转化为灰度图像用于压缩感知. 基于第4节的压缩测量方法, 首先将每张图像与高斯核矩阵做循环卷积, 再对卷积的结果进行降采样. 采样率(sampling rate)定义为压缩采样数m与图像的像素n之比, 这里设定采样率从0.05增加到0.4, 增加的步长为0.05, 即${m/ n} \in \left\{ {0.05,0.1,0.15,0.2,0.25,0.3,0.35,0.4} \right\}$. 压缩测量噪声的标准差设为$\sigma = {10^{ - 4}}$.

      图2给出了在CIFAR-10图像中, 不同压缩感知算法恢复出图像的PSNR随采样率的变化情况, 可以看出MMLE-convGMM明显优于传统的压缩感知算法, MMLE-GMM算法的性能次之. DCT-YALL1与DCT-GAP两大类凸优化算法的恢复性能相当. 贪婪算法DCT-OMP的计算速度较快, 但其恢复性能比凸优化算法要差.

      图  2  CIFAR-10图像, 不同算法下恢复图像的PSNR随采样率的变化

      Figure 2.  Averaged PSNR of reconstructed images from CIFAR-10 dataset as a function of sampling rate.

    • 为了进一步在大一些的图像数据集上测试MMLE-convGMM算法的有效性, 本节选取Caltech 101数据集[26]. Caltech 101数据集由101类自然图像所组成, 每一类图像有40—800张, 且每一张图像的大小约为$300 \times 200$. 这里选取其中“飞机”图像, 共800张. 首先将它们转化为灰度图像, 再将其统一成$128 \times 128$的像素. 所有其他的设置, 包括采样率、测量矩阵、噪声水平同CIFAR-10数据集的仿真. 图3是不同压缩感知算法的恢复PSNR随着采样率的变化情况. 此外, 在图4中展示了随机选取的12张Caltech 101“飞机”图像在不同算法下的恢复情况, 采样率设定为0.4.

      图  3  Caltech 101图像, 不同算法下恢复图像的PSNR随采样率的变化

      Figure 3.  Averaged PSNR of reconstructed images from Caltech 101 dataset as a function of sampling rate.

      图  4  采样率为0.4时, 12张Caltech 101“飞机”图像在不同算法下的恢复情况 (a)原图像; (b) MMLE-convGMM下的恢复图像; (c) MMLE-GMM下的恢复图像; (d) KSVD-YALL1下的恢复图像; (e) DCT-YALL1下的恢复图像; (f) DCT-GAP下的恢复图像; (g) DCT-OMP下的恢复图像

      Figure 4.  Reconstructed performance comparison of 12 randomly selected “airplane” images from Caltech 101: (a) Original images; (b) images reconstructed by MMLE-convGMM; (c) images reconstructed by MLE-GMM; (d) images reconstructed by KSVD-YALL1; (e) images reconstructed by DCT-YALL1; (f) images reconstructed by DCT-GAP; (g) images reconstructed by DCT-OMP. All of the sampling rates are 0.4.

      图3图4可以看出, 类似于CIFAR-10的仿真结果, MMLE-convGMM算法明显优于其他的压缩感知恢复算法, 且在采样率为0.4时, 恢复图像的PSNR达到了28 dB.

    • 最后在含有更大图像的CelebA (Large-scale CelebFaces Attributes)数据集[27]上验证MMLE-convGMM算法的有效性. CelebA数据集含有超过200000张的名人图像, 每幅图像有40个属性注释. 该数据集中的图像包含了各种人物的姿势和背景. 这里将图像统一为$256 \times 256$的像素. 图5是CelebA图像的恢复PSNR随着采样率的变化情况. 图6展示了随机选取的CelebA图像的恢复情况, 采样率设定为0.4, 可以看出MMLE-convGMM算法在大图像数据集上有着很好的恢复效果. 当采样率为0.4时, 恢复图像的PSNR为30 dB.

      图  5  MMLE-convGMM算法恢复CelebA图像的PSNR随采样率的变化

      Figure 5.  Averaged PSNR of reconstructed images from CelebA dataset as a function of sampling rate by MMLE-convGMM.

      图  6  随机选取的CelebA图像的恢复情形 (a)原图像; (b) MMLE-convGMM算法恢复的图像, 采样率为0.4

      Figure 6.  Reconstructed performance of randomly selected CelebA face images: (a) Original images; (b) images reconstructed by MMLE-convGMM. The sampling rates are 0.4.

    • 本文提出了convGMM对整幅图像的概率分布进行建模, 该模型不仅利用了解卷积神经网络的思想, 对于整幅图像先验分布的建模具有非常好的效果, 而且兼具GMM的灵活性. 对于convGMM中未知参数的学习, 本文提出了通过EM算法求解MMLE. 基于后验分布的期望从压缩测量结果中估计原信号, 且该估计是最小均方误差意义下的估计. 为解决对整幅图像直接进行计算时的维数较大、计算复杂度较高的问题, 在convGMM和压缩测量模型中都使用了循环卷积, 所有的训练和恢复过程都可以利用2D-FFTs实现快速运算. 仿真实验表明, 本文所提的MMLE-convGMM算法明显优于传统的压缩感知算法.

参考文献 (27)

目录

    /

    返回文章
    返回