搜索

x

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于压缩感知理论的大规模MIMO系统下行信道估计中的导频优化理论分析与算法设计

曹海燕 叶震宇

引用本文:
Citation:

基于压缩感知理论的大规模MIMO系统下行信道估计中的导频优化理论分析与算法设计

曹海燕, 叶震宇

Theoretical analysis and algorithm design of optimized pilot for downlink channel estimation in massive MIMO systems based on compressed sensing

Cao Hai-Yan, Ye Zhen-Yu
PDF
HTML
导出引用
计量
  • 文章访问数:  416
  • PDF下载量:  17
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-08-15
  • 修回日期:  2021-10-20
  • 上网日期:  2022-03-04
  • 刊出日期:  2022-03-05

基于压缩感知理论的大规模MIMO系统下行信道估计中的导频优化理论分析与算法设计

  • 杭州电子科技大学, 杭州 310018
  • 通信作者: 叶震宇, 921654314@qq.com

摘要: 针对大规模多输入多输出(multiple input multiple output, MIMO)系统信道估计中的导频设计问题, 在压缩感知理论框架下, 提出了一种基于信道重构错误率最小化的自适应自相关矩阵缩减参数导频优化算法. 首先以信道重构错误率最小化为目标, 推导了正交匹配追踪(orthogonal matching pursuit, OMP)算法下信道重构错误率与导频矩阵列相关性之间的关系, 并得出优化导频矩阵的两点准则, 即导频矩阵列相关性期望和方差最小化; 然后研究了优化导频矩阵的方法, 并提出相应的自适应自相关矩阵缩减参数导频矩阵优化算法, 即在每次迭代过程中, 以待优化矩阵平均列相关程度是否减小作为判断条件, 调整自相关矩阵缩减参数值, 使参数不断趋近于理论最优. 仿真结果表明, 与采用Gaussian矩阵、Elad方法、低幂平均列相关方法得到的导频矩阵相比, 本文所提方法具有更好的列相关性, 且具有更低的信道重构错误率.

English Abstract

    • 传统的下行信道估计方法, 如最小二乘(least square, LS)信道估计和最小均方误差(minimized mean square error, MMSE)信道估计[1], 需要根据基站端天线数目的增加线性增加导频数目, 具有很高的导频开销和计算复杂度. 基于压缩感知[2] (compressed sensing, CS)的信道估计方法利用大规模多输入多输出(multiple input multiple output, MIMO)无线信道在波束域或时延域信道参数中大部分元素接近于零[3], 少部分元素包含了信道的绝大部分能量的特征, 将信道抽象为稀疏模型, 通过很少的测量次数恢复整个信道. 有效降低信道估计中的导频开销. 压缩感知信道估计的两个关键问题是感知矩阵的选择和信道恢复算法, 如何设计合适的感知矩阵以及高效的信道恢复算法对提高信道估计的精确性及降低复杂度有重要意义. 因此这也成为大规模MIMO信道估计中的重点问题.

      目前Elad[4]、Xu等[5]和Abolghasemi 等[6]报道了典型的感知矩阵构造方法. 这些方法均通过缩减感知矩阵列相关性, 达到提高信号重构性能的目的, 但缺少对感知矩阵列相关性与信号重构错误率之间关系的理论分析. Elad[4]首次通过逐步迭代缩减由感知矩阵构造的Gram矩阵中的非对角线元素使感知矩阵平均列相关性逐步减小, 最后得到优化的感知矩阵, 该算法构造的感知矩阵重构错误率较低, 但矩阵缩减参数的选择缺少理论依据, 不当的矩阵缩减参数可能导致算法的重构性能下降. Xu等[5]和Abolghasemi 等[6]的算法采用等角紧框架(equiangular tight frame, ETF)[7], 将感知矩阵逐步逼近EFT, 其重构错误率比Elad[4]进一步降低. 文献[8]同样依据ETF, 将矩阵缩减参数直接取值为ETF下界, 并考虑了低幂平均列相关性的感知矩阵相关性定义, 获得了相关性更好的感知矩阵, 但在实际中, ETF下界是无法达到的, 其并不一定是最优的矩阵缩减参数, 且该算法采用固定的迭代次数, 无法判断优化过程是否收敛, 存在优化性能不足或浪费计算资源的问题. 针对以上问题, 本文提出了自适应自相关矩阵缩减参数导频优化算法.

      首先将大规模MIMO信道恢复问题抽象为稀疏信号恢复问题, 给出了两种导频矩阵互相关性定义. 并以信道重构错误率最小化为目标, 根据正交匹配追踪(orthogonal matching pursuit, OMP)算法分析导频矩阵列相关性与信道重构错误率之间的关系, 得出优化导频矩阵的两点准则: 导频矩阵列相关性期望最小化和方差最小化. 然后研究优化导频矩阵的方法, 推导出导频自相关矩阵缩减参数的最优下界和待优化导频矩阵平均列相关程度的表达式, 定义了相应的自相关矩阵缩减参数, 并提出自适应自相关矩阵缩减参数导频优化算法, 即在每次迭代中, 通过判断优化矩阵平均列相关程度是否减小, 调整自相关矩阵缩减参数值不断靠近理论最优, 且在内层循环通过计算导频自相关矩阵与缩减自相关矩阵的差值范数的变化情况来判断优化是否正在进行, 保证算法收敛. 最后设定仿真性能分析标准并给出仿真结果. 仿真结果表明, 相较于随机Gaussian矩阵[9]、Elad[4]方法和低幂平均列相关方法, 采用所提出的导频优化算法得到的导频矩阵具有更优的矩阵列相关性, 且可达到更低的信道重构错误率.

      下文所用符号定义如下: $ E( \cdot ) $, $ D( \cdot ) $$ \left\langle \cdot \right\rangle $分别表示取期望值, 取方差值和求内积; $ {x_{ij}} $, $ {x_i} $$ {h_j} $分别表示矩阵$ {\boldsymbol{\hat X}} $的第$ i $$ j $列的元素, 第$ i $列和信道向量h的第$ j $个分量; $ \bar \varOmega $代表集合$ \Omega $的补集.

    • 本文采用一般的频分双工(frequency division duplex, FDD)大规模MIMO系统模型, 如图1所示.

      图  1  FDD大规模MIMO系统模型

      Figure 1.  The FDD large-scale MIMO system model.

      考虑一个基站端配置N根天线, 分布U个单天线用户的MIMO系统, 假设基站端共发送M次导频序列, 则对于每个单用户, 频域接收信号$ {\boldsymbol{y}} \in {\mathbb{R}^M} $可表示为

      $ {\boldsymbol{y}} = X{\boldsymbol{h}} + {\boldsymbol{n}} \text{, } $

      其中, $ {\boldsymbol{X}} \in {\mathbb{R}^{M \times N}} $$ {\boldsymbol{h}} \in {\mathbb{R}^N} $分别为频域导频矩阵和频域信道向量. 理论研究表明, 信道向量在角度域表现出稀疏性[1], 即$ {\boldsymbol{h = F\hat h}} $ , F为离散傅里叶变换(discrete Fourier transform, DFT)矩阵[10], 表示为

      $ {\boldsymbol{F}} = \left[ {\begin{array}{*{20}{c}} 1&1&{\cdots}&1 \\ {{{\text{e}}^{\tfrac{{ - {\text{j2\pi }}}}{N}}}}&{{{\text{e}}^{\tfrac{{ - {\text{j}}2{\text{π }} \times 2}}{N}}}}&{\cdots}\\ {\cdots}&{\cdots}&{\cdots}&{\cdots} \\ {{{\text{e}}^{\tfrac{{ - {\text{j2\pi }}(N - 1)}}{N}}}}&{{{\text{e}}^{\tfrac{{ - {\text{j2\pi }}2(N - 1)}}{N}}}}&{\cdots}&{{{\text{e}}^{\tfrac{{ - {\text{j2\pi }}N(N - 1)}}{N}}}} \end{array}} \right], $

      $ {\boldsymbol{\hat h}} $为角度域的稀疏信道向量, 同样将导频矩阵在角度域中表示为$ {{\boldsymbol{X}}^{\text{T}}} = {\boldsymbol{F}}{{\boldsymbol{\hat X}}^{\text{T}}} $, $ {\boldsymbol{\hat X}} $为角度域信道矩阵, 则 (1)式可改写为

      $ {\boldsymbol{y = \hat X\hat h + n}}. $

    • 压缩感知[11]本质上是一个逆线性问题, 目的是从少量的线性测量值中恢复高维的信号.

      设信号$ {\boldsymbol{x}} \in {\mathbb{R}^N} $存在稀疏变换${\boldsymbol{x}} = \displaystyle\sum\nolimits_{i = 1}^N {s_i} {{\boldsymbol{\varPsi }}_i} = $$ {\boldsymbol{\varPsi s}}$, $ {\boldsymbol{s}} \in {\mathbb{R}^N} $为稀疏向量, 即${\left\| {\boldsymbol{s}} \right\|_0} = D, {\text{ }}D \ll N$, ${\boldsymbol{\varPsi }} \in $$ {\mathbb{R}^{N \times N}}$为字典矩阵, 可以通过测量矩阵$ {\boldsymbol{\varPhi }} \in {\mathbb{R}^{M \times N}} $ ($M \ll N$)获得测量值$ {\boldsymbol{y}} \in {\mathbb{R}^M} $, 则${\boldsymbol{y}} = {\boldsymbol{\varPhi}} {\boldsymbol{x}} = {\boldsymbol{\varPhi}} {\boldsymbol{\varPsi}} s = $$ {\boldsymbol{\varTheta}} s$, 其中$ {\boldsymbol{\varTheta = \varPhi \varPsi }} $为感知矩阵, 当感知矩阵$ {\boldsymbol{\varTheta }} $满足2K阶约束等距性质(restricted isometry property, RIP)时, 可采用$ {l_0} $范数最小化方法对稀疏信号进行重构, 即

      $ \mathop {\min }\limits_s {\left\| {\boldsymbol{x}} \right\|_0},{\text{s}}{\text{.t}}. {\text{ }}{\boldsymbol{y = \varTheta s}} . $

      若考虑存在少量有界噪声的情况, 即${\boldsymbol{y}} = $$ {\boldsymbol{\varTheta}} s + n$, 则(4)式可改写为

      $ \min {\left\| {\boldsymbol{s}} \right\|_0},~~{\text{s}}{\text{.t}}{\text{. }}{\left\| {{\boldsymbol{\varTheta s - y}}} \right\|_2} \leqslant \varepsilon , $

      其中, $ \varepsilon $为噪声功率的界值. (4)式和(5)式均可以通过OMP算法求出近似解[12].

    • 2.1节和2.2节分析可知, 信道估计中导频矩阵的设计问题就是压缩感知中感知矩阵的设计问题. 在信道估计中, 导频矩阵X的自相关矩阵为$ {\boldsymbol{R = }}{{\boldsymbol{X}}^{\text{T}}}{\boldsymbol{X}} $, 可根据选取R中非对角元素最大值, 将一般的导频矩阵列相关性定义为

      $ {u_{{\max}}}({\boldsymbol{X}}) = \mathop {\max }\limits_{1 \leqslant i,j \leqslant N{\text{ and }}i \ne j} \left| {{{\boldsymbol{r}}_{ij}}} \right|, $

      (6)式仅考虑了X中相关性最大的列, 没有考虑其余可能存在的相关性较大的列, 缺少对矩阵相关性全面的评价, 可以考虑更为全面的定义[8],

      $ {u_p}({\boldsymbol{X}}) = {\left(\frac{{\displaystyle\sum\nolimits_{i = 1}^N {{\sum\nolimits_{j \ne i}^N {\left| {{{\boldsymbol{r}}_{ij}}} \right|} ^p}} }}{{N(N - 1)}}\right)^{\tfrac{1}{p}}},\;{\text{ }}1 \leqslant p \lt \infty , $

      通过调整参数$ p $的值, 可以改变$ {u_p}({\boldsymbol{X}}) $判别列相关性中数值大的元素多少的能力. 当$ p \to \infty $时, (7)式即为定义(6)式.

    • OMP算法是一种基于迭代的贪婪算法, 把信号看成是感知矩阵的列向量通过线性组合构成, 给定一个信号y, 寻求通过感知矩阵列向量的稀疏线性组合来表示信号y.

      考虑MIMO信道估计模型为

      $ {\boldsymbol{y = \hat X\hat h + n}} \text{, } $

      其中, $ {\boldsymbol{\hat X}} \in {\mathbb{R}^{M \times N}} $为角度域导频矩阵, $ {\boldsymbol{\hat h}} \in {\mathbb{R}^N} $为待估计的角度域稀疏信道向量, $ {\boldsymbol{y}} \in {\mathbb{R}^M} $是接收信号. $ {\boldsymbol{\hat X}} $$ {\boldsymbol{\hat h}} $分别可写为${\boldsymbol{\hat X = }}\left[ {{{\boldsymbol{x}}_{\text{1}}}, {{\boldsymbol{x}}_{\text{2}}}, \cdots, {{\boldsymbol{x}}_N}} \right]$, ${\boldsymbol{\hat h}} = [ {h_1}, $$ {h_2}, \cdots, {h_N} ]^{\text{T}}$.

      假设信道稀疏度为$ K $, 即信道向量$ {\boldsymbol{\hat h}} $只有$ K $个非零分量值, 其余分量值等于或接近于零, 信道分量指标集合$\varOmega = \left\{ {1, {\text{ }}2, \cdots, N} \right\}$, 信道非零分量指标集合${\varOmega _i} = \left\{ {i(1), i(2), \cdots, i(K)} \right\} \subseteq \varOmega$.

      OMP算法本质上寻找的目标是$ {\varOmega _i} $. 假设在OMP算法第$ m $次迭代后, 已选择出$ m $个非零信道分量指标${\varOmega ^{(m)}} = \left\{ {i(1), i(2), \cdots, i(m)} \right\}$, 对应的导频子矩阵${{\boldsymbol{X}}^{(m)}} = \left[ {{{\boldsymbol{x}}_{i(1)}}, {{\boldsymbol{x}}_{i(2)}}, \cdots, {{\boldsymbol{x}}_{i(m)}}} \right]$. 则信道估计值$ {{\boldsymbol{\hat h}}^{(m)}} \in {\mathbb{R}^N} $, 接收信号估计值$ {{\boldsymbol{\hat y}}^{(m)}} \in {\mathbb{R}^M} $和残差${{\boldsymbol{r}}^{(m)}} \in {\mathbb{R}^M}$分别计算为[13]

      $ \left\{ \begin{aligned} & {{\hat {\boldsymbol{h}}}^{(m)}} = {({({{\boldsymbol{X}}^{(m)}})^{\text{T}}}{{\boldsymbol{X}}^{(m)}})^{ - 1}}{({{\boldsymbol{X}}^{(m)}})^{\text{T}}}{\boldsymbol{y}}, \hfill \\ & {{\hat {\boldsymbol{y}}}^{(m)}} = {{\boldsymbol{X}}^{(m)}}{{\hat {\boldsymbol{h}}}^{(m)}}, \hfill \\ &{{\boldsymbol{r}}^{(m)}} = {\boldsymbol{y}} - {{\hat {\boldsymbol{y}}}^{(m)}} , \end{aligned} \right. $

      残差r为原始信号y与导频矩阵$ {\boldsymbol{\hat X}} $列向量的线性组合的差值, 它描述了还没有被解释的测量值.

      在第$ m + 1 $次迭代, OMP算法的相关性计算为

      $ {{\boldsymbol{c}}^{(m + 1)}} = {{\boldsymbol{X}}^{\text{T}}}{{\boldsymbol{r}}^{(m)}} = {\left[ {c_1^{(m + 1)},c_2^{(m + 1)},\cdots,c_N^{(m + 1)}} \right]^{\text{T}}}, $

      其中$ {{\boldsymbol{c}}^{(m + 1)}} \in {\mathbb{R}^N} $为相关性数值向量. OMP算法每次寻找相关性数值最大的指标 $i(m + 1) = $$ \mathop {\arg \max }\nolimits_j (| {c_j^{(m + 1)}} |), {\text{ }}$$ j{\text{ = 1, 2, }}\cdots{\text{, }}N $, 并将对应的导频列向量加入到原来的导频子矩阵, 生成新的导频子矩阵$ {{\boldsymbol{X}}^{(m + 1)}} = \left[ {{{\boldsymbol{x}}_{i(1)}}, {{\boldsymbol{x}}_{i(2)}}, \cdots, {{\boldsymbol{x}}_{i(m + 1)}}} \right] $, 最后通过最小二乘法恢复信道向量,

      $ {{\boldsymbol{\hat h}}^{(m + 1)}} = {({({{\boldsymbol{X}}^{(m + 1)}})^{\text{T}}}{{\boldsymbol{X}}^{(m + 1)}})^{ - 1}}{({{\boldsymbol{X}}^{(m + 1)}})^{\text{T}}}{\boldsymbol{y}} \text{, } $

      经过$ K $次迭代后, $ {{\boldsymbol{\hat h}}^{(K)}} $即为OMP算法最终得到的信道向量估计值.

    • OMP算法的目的是通过相关性判决寻找信道中非零元素的位置, 在算法每一次迭代中, 相关性判决越容易找到信道元素值较大的位置, 则信道重构越准确, 信道重构错误率越小.

      设导频矩阵$ {\boldsymbol{\hat X}} $为随机矩阵, $ {\boldsymbol{\hat X}} $各列均归一化且任意两列相关性取值$ \left\langle {{{\boldsymbol{x}}_i}, {{\boldsymbol{x}}_j}} \right\rangle = {\alpha _{i, j}}{\text{ , }}i{, }j \in \varOmega $, 当$ i = j $时, $ {\alpha _{i, j}} = 1 $.

      假设在OMP算法第$ m + 1 $迭代中, 信道向量$ {\boldsymbol{h}} $任意两分量指标$ l, s \in \varOmega , {\text{ }}l \ne s $$ \left| {{h_l}} \right| \gt \left| {{h_s}} \right| $, 指标$ l, s $对应的相关性数值分别为$ c_l^{(m + 1)}, c_s^{(m + 1)} $. 显然$ c_{_l}^{(m + 1)} $$ c_{_s}^{(m + 1)} $是与$ {\alpha _{i, j}}{, }i, j \in \varOmega $相关的随机变量. 它们绝对值之差的期望值体现了相关性判决正确与否的整体趋势, 则相关性判决期望值取值正确的条件为

      $ E(| {c_{_l}^{(m + 1)}} | - | {c_{_s}^{(m + 1)}} |) \gt 0,~~ {\text{ }}i,j \in \varOmega , $

      其中, $ E( \cdot ) $代表取期望值.

      为了最小化OMP信道重构错误率, 在OMP算法每一次迭代中, 目标函数为

      $ \max (E(| {c_{_l}^{(m + 1)}} | - | {c_{_s}^{(m + 1)}} |)) ,~~ i,j \in \varOmega . $

    • 定理1 使OMP信道恢复算法重构错误率最小化的导频矩阵优化准则为

      $ \left\{\begin{aligned} &\underset{{x}_{1},{x}_{2}\mathrm{\cdots}{x}_{N}}{\mathrm{min}}\underset{i\ne j}{\mathrm{max}}E\langle {x}_{i},{x}_{j}\rangle ,~~\forall~ i,j\in \varOmega , \\ &\underset{{x}_{1},{x}_{2}\mathrm{\cdots}{x}_{N}}{\mathrm{min}}\underset{i\ne j}{\mathrm{max}}D\langle {x}_{i},{x}_{j}\rangle ,~~\forall~ i,j\in \varOmega. \end{aligned}\right. $

      证明详见附录A. 定理1说明使OMP信道恢复算法重构错误率最小化的准则为: 导频矩阵列相关性期望绝对值的最大值和方差的最大值最小化. 它表明了导频矩阵列相关性期望的取值越集中, 且越接近于零时, OMP算法的信道恢复性能会越好.

    • 根据压缩感知理论, 约束等距特性(restricted isometry property, RIP)是稀疏信号可重构的必要条件, $ K $阶约束等距特性定义为, 如果存在$ {\delta _K} \in $$ \left( {0, 1} \right), $ 使得

      $ \left( {1 - {\delta _K}} \right)\left\| {\boldsymbol{h}} \right\|_2^2 \leqslant \left\| {{\boldsymbol{Xh}}} \right\|_2^2 \leqslant \left( {1 + {\delta _K}} \right)\left\| {\boldsymbol{h}} \right\|_2^2. $

      对所有$ {\boldsymbol{h}} \in \{ {\boldsymbol{h}}|{\left\| {\boldsymbol{h}} \right\|_0} \leqslant K\} $都成立, 其中如果针对所有$ K $阶稀疏矢量$ {\boldsymbol{h}} $均满足(15)式的最小常数为$ {\delta _K} $, 则矩阵$ {\boldsymbol{X}} $满足$ K $阶约束等距特性, $ {\delta _K} $称为矩阵$ {\boldsymbol{X}} $的约束等距常数.

      $\varDelta :{R^M} \to {R^N}$表示某一种重建算法, 则导频矩阵和重建算法对$\left( {{\boldsymbol{X}}, \varDelta } \right)$的稳定性[14]定义为: 对于任何矢量$ {\left\| {\boldsymbol{h}} \right\|_0} \leqslant K $, $ {\boldsymbol{e}} \in {\mathbb{R}^M} $, 均有

      $ {\left\| {\varDelta \left( {{\boldsymbol{Xh}} + {\boldsymbol{e}}} \right) - {\boldsymbol{h}}} \right\|_2} \leqslant C{\left\| {\boldsymbol{e}} \right\|_2} $

      成立, 则称导频矩阵$ {\boldsymbol{X}} $和重建算法$\varDelta$$ C $稳定的. 如果导频矩阵和重建算法对$\left( {{\boldsymbol{X}}, \varDelta } \right)$$ C $稳定的, 则对于所有${\left\| {\boldsymbol{h}} \right\|_0} \leqslant 2 K$, 均有

      $ \frac{1}{C}{\left\| {\boldsymbol{h}} \right\|_2} \leqslant {\left\| {{\boldsymbol{Xh}}} \right\|_2}. $

      由定义(16)式可以看出, $ C $越小, 导频矩阵和重建算法对$\left( {{\boldsymbol{X}}, \varDelta } \right)$稳定性越好, 重建性能也越好, 但是受限于导频矩阵$ {\boldsymbol{X}} $的RIP特性, $ C $不能太小, 当$ C \to 1 $时, 矩阵必须满足下限${\delta _{2 K}} = 1 - {1}/{{{C^2}}} \to 0$. 因此, 如果希望获得更优的信号重建性能, 需要调整矩阵$ {\boldsymbol{X}} $使它满足RIP定义 (15)式中更大的下界, 即更小的$ {\delta _{2 K}} $, 从而使得$ C $更小.

      考虑定义 (15)式, 设矩阵$ {\boldsymbol{X}} $满足$ 2 K $阶RIP条件, 即$ \exists {\delta _{2 K}} \in \left( {0, 1} \right) $, 有

      $ \left( {1 - {\delta _{2K}}} \right)\left\| {\boldsymbol{h}} \right\|_2^2 \leqslant \left\| {{\boldsymbol{Xh}}} \right\|_2^2 \leqslant \left( {1 + {\delta _{2K}}} \right)\left\| {\boldsymbol{h}} \right\|_2^2 $

      对所有的$ {\boldsymbol{h}} \in \{ {\boldsymbol{h|}}{\left\| {\boldsymbol{h}} \right\|_{\text{0}}} \leqslant 2 K\} $都成立.

      利用范数运算与迹运算关系, (18)式可转化为

      $ \begin{split} &\left( {1 - {\delta _{2 K}}} \right){\text{tr}}\left( {{{\boldsymbol{h}}^{\rm{H}}}{\boldsymbol{h}}} \right) \\ \leqslant\;& {\text{tr}}\left( {{{\boldsymbol{h}}^{\rm{H}}}{{\boldsymbol{X}}^{\rm{H}}}{\boldsymbol{Xh}}} \right) \leqslant \left( {1 + {\delta _{2 K}}} \right)\left( {{{\boldsymbol{h}}^{\rm{H}}}{\boldsymbol{h}}} \right).\end{split}$

      $ \forall {\left\| {\boldsymbol{h}} \right\|_0} = 2 K $, 非零分量指标集合${\varOmega _i} = \{ i(1), $$ i(2), \cdots, i(2 K) \}$. 可得:

      $ \begin{split} - {\delta _{2K}}\left( {\sum\limits_{l = 1}^{2K} {h_{i(l)}^2} } \right) \leqslant \;&2\sum\limits_{s = 2}^{2K} \sum\limits_{l = 1}^{s - 1} \left( {{h_{i(s)}}{h_{i(l)}}\left\langle {{{\boldsymbol{x}}_{i(l)}},{{\boldsymbol{x}}_{i(s)}}} \right\rangle } \right) \\ \leqslant \;& {\delta _{2K}}\left( {\sum\limits_{l = 1}^{2K} {h_{i(l)}^2} } \right) .\\[-15pt] \end{split}$

      对任意确定的${\Omega _i}$, $\displaystyle \sum\nolimits_{l = 1}^{2 K} {h_{i(l)}^2}$为一常数, 设$\displaystyle \sum\nolimits_{l = 1}^{2 K} {h_{i(l)}^2} = D \gt 0$, 则有

      $ - {\delta _{2K}}D \leqslant 2\sum\limits_{s = 2}^{2K} {\sum\limits_{l = 1}^{s - 1} {\left( {{h_{i(s)}}{h_{i(l)}}\left\langle {{{\boldsymbol{x}}_{i(l)}},{{\boldsymbol{x}}_{i(s)}}} \right\rangle } \right) \leqslant } } {\delta _{2K}}D . $

      结合定理1, 当导频矩阵$ {\boldsymbol{X}} $满足 (14)式, 即导频矩阵列相关性期望的取值越集中且越接近于零时, $ {h_{i(s)}}{h_{i(l)}}\left\langle {{{\boldsymbol{x}}_{i(l)}}, {{\boldsymbol{x}}_{i(s)}}} \right\rangle $的取值越有可能在0附近, 此时$2\displaystyle \sum\nolimits_{s = 2}^{2 K} {\displaystyle \sum\nolimits_{l = 1}^{s - 1} {\left( {{h_{i(s)}}{h_{i(l)}}\left\langle {{{\boldsymbol{x}}_{i(l)}}, {{\boldsymbol{x}}_{i(s)}}} \right\rangle } \right)} }$越有可能满足更小的$ {\delta _{2 K}} $使 (21)式成立, 即使得信号恢复性能越好.

      根据以上推理, 定理1可推广到任意稀疏恢复算法下.

      定理2 对于任意稀疏信道恢复算法重构错误率最小化的导频矩阵优化准则为

      $ \left\{\begin{aligned} &\underset{{x}_{1},{x}_{2}\mathrm{\cdots}{x}_{N}}{\mathrm{min}}\underset{i\ne j}{\mathrm{max}}E\langle {x}_{i},{x}_{j}\rangle ,\forall i,j\in \varOmega , \\ &\underset{{x}_{1},{x}_{2}\mathrm{\cdots}{x}_{N}}{\mathrm{min}}\underset{i\ne j}{\mathrm{max}}D\langle {x}_{i},{x}_{j}\rangle ,\forall i,j\in \varOmega . \end{aligned}\right.$

    • 设导频矩阵${\boldsymbol{X}} \in {\mathbb{R}^{M \times N}}$且各列均已归一化, 其自相关矩阵${\boldsymbol{R}} = {{\boldsymbol{X}}^{\text{T}}}{\boldsymbol{X}}$, 故$ {\boldsymbol{R}} $为半正定矩阵, 可以正交对角化, 即:

      $ {\boldsymbol{R}} = {\boldsymbol{Q}}\left[ {\begin{array}{*{20}{c}} {{\lambda _1}}&{}&{}&{}&{} \\ {}&{{\lambda _2}}&{}&{}&{} \\ {}&{}&{\cdots}&{}&{} \\ {}&{}&{}&{{\lambda _M}}&{} \\ {}&{}&{}&{}&0 \end{array}} \right]{{\boldsymbol{Q}}^{\text{T}}}, $

      其中, ${\lambda _{\text{1}}}, {\lambda _2}, \cdots, {\lambda _M}$$ {\boldsymbol{R}} $$ M $个大于0的特征值, $ {\boldsymbol{Q}} $$ N $阶正交矩阵, 由于$ {\boldsymbol{R}} $的对角线元素均为1 , 可得

      $ {\lambda _1} + {\lambda _2} + \cdots + {\lambda _M} = {\text{tr}}({\boldsymbol{R}}) = N . $

      又因为$ {\boldsymbol{R}} $为实对称矩阵, 有${\boldsymbol{R}} = {{\boldsymbol{R}}^{\text{T}}}$, 则

      $ \begin{split} &{\lambda _1}^2 + {\lambda _2}^2 + \cdots + {\lambda _M}^2 = {\text{tr}}({{\boldsymbol{R}}^2}) = {\text{tr}}({{\boldsymbol{R}}^{\text{T}}}{\boldsymbol{R}}) \\ =\;& \left\| {\boldsymbol{R}} \right\|_F^2 = N + {\sum\limits_{i,j = 1,2,\cdots,N,i \ne j} {\left| {{{\boldsymbol{r}}_{ij}}} \right|} ^2}.\end{split} $

      由拉格朗日乘子法, 设函数为

      $ \begin{split} &f({\lambda _1}, {\lambda _2}, \cdots, {\lambda _M}, \beta ) \\ =\;& {\lambda _1}^2 + {\lambda _2}^2 + \cdots + {\lambda _M}^2 \\ &+ \beta (N - {\lambda _1} - {\lambda _2} - \cdots - {\lambda _M}), \end{split} $

      分别对$ {\lambda _1}, {\lambda _2}, \cdots, {\lambda _M} $求偏导数, 得:

      $ \left\{ \begin{aligned} & 2{\lambda _1} - \beta = 0,~~{\lambda _1} \gt 0, \\ & 2{\lambda _2} - \beta = 0,~~{\lambda _2} \gt 0, \\ & \qquad\qquad\cdots \\ & 2{\lambda _M} - \beta = 0,~~{\lambda _M} \gt 0. \end{aligned} \right.$

      可知极点在$ {\lambda _{\text{1}}} = {\lambda _{\text{2}}} = \cdots = {\lambda _M} $处取得, 且当${\lambda _{\text{1}}} = N, $$ {\lambda _{\text{2}}} = \cdots = {\lambda _M} = 0$时,

      $ {\lambda _1}^2 + {\lambda _2}^2 + \cdots + {\lambda _M}^2 = {N^2}, $

      $ {\lambda _{\text{1}}} = {\lambda _{\text{2}}} = \cdots = {\lambda _M} = N/M $

      $ {\lambda _1}^2 + {\lambda _2}^2 + \cdots + {\lambda _M}^2 = {N^2}/M \lt {N^2}. $

      $ {\lambda _{\text{1}}} = {\lambda _{\text{2}}} = \cdots = {\lambda _M} $是唯一极点且不是极大值点, 故其为全局最小值点, 结合(28)式和(29)式可得

      $ {\sum\limits_{i,j = 1,2,\cdots,N,{\text{ }}i \ne j} {\left| {{{\boldsymbol{r}}_{ij}}} \right|} ^2} \geqslant \frac{{{N^2} - NM}}{M}. $

      (30)式代表了导频矩阵各列自相关性之和所能达到的最优下界, 令${b_{\text{d}}} ={{{N^2} - NM}}/{M}$, 同时考虑到矩阵列相关性方差最小化的条件, 将自相关性之和的最优下界平均到每一元素作为每一元素的最优下界, 记为${p_{\text{d}}}$. 则

      $ {p_{\text{d}}} = \sqrt {\frac{{{b_{\text{d}}}}}{{{N^2} - N}}} = \sqrt {\frac{{N - M}}{{M(N - 1)}}} \text{, } $

      可看出是Welch界[15].

      设参数

      $ {p_{\text{t}}} = \sqrt {\frac1{{{N^2} - N}}{{{{\sum\limits_{i,j = 1,2,\cdots,N,{\text{ }}i \ne j} {\left| {{r_{ij}}} \right|} }^2}}} } , $

      (32)式代表了待优化矩阵的平均列相关程度.

      通过设定自相关矩阵缩减参数$ {p_{\text{s}}} $使得${p_{\text{d}}} \leqslant $$ {p_{\text{s}}} \lt {p_{\text{t}}}$作为缩减标准对自相关矩阵$ {\boldsymbol{R}} $中元素进行缩减, 即可以达到减小导频矩阵$ {\boldsymbol{X}} $列相关性的目的, 具体缩减规则设定为

      $ \left\{ \begin{aligned} & {r_{ij}} = {p_{\text{s}}} \times {\rm{sign}}({r_{ij}}){\text{ }},{\text{ }}&\left| {{r_{ij}}} \right| \gt {p_{\text{s}}}, \hfill \\ &{r_{ij}} = {r_{ij}}{\text{ }},{\text{ }}&\left| {{r_{ij}}} \right| \lt {p_{\text{s}}}. \end{aligned} \right. $

      通常经过缩减后的自相关矩阵$ {\boldsymbol{R}} $会变成满秩矩阵, 但由于${\boldsymbol{R}} = {{\boldsymbol{X}}^{\text{T}}}{\boldsymbol{X}}$限定了${\text{rank}}({\boldsymbol{R}}) \leqslant M$, 故需对缩减后的自相关矩阵做进一步处理, 以恢复满足矩阵秩取值条件的导频矩阵$ {\boldsymbol{X}} $. 因为矩阵$ {\boldsymbol{R}} $可以正交分解, 所以可以采用裁剪较小特征值的方法来尽可能保留原矩阵中的数值, 由${\boldsymbol{R}} = {{\boldsymbol{X}}^{\text{T}}}{\boldsymbol{X}} = $$ {\boldsymbol{Q\varLambda }}{{\boldsymbol{Q}}^{\text{T}}} = {\boldsymbol{Q}}{{\boldsymbol{\varLambda }}^{\tfrac{1}{2}}}{({\boldsymbol{Q}}{{\boldsymbol{\varLambda }}^{\tfrac{1}{2}}})^{\text{T}}}$, 可得

      $ {\boldsymbol{X}} = {({\boldsymbol{Q}}{{\boldsymbol{\varLambda }}^{\tfrac{1}{2}}})^{\text{T}}}. $

      通过保留对角矩阵${\boldsymbol{\varLambda }}$中最大的M个特征值, 根据(34)式即可恢复导频矩阵$ {\boldsymbol{X}} $.

    • 根据以上分析, 对于任意随机高斯矩阵, 提出自适应自相关矩阵缩减参数导频优化算法如下.

      输入 调整因子$ \alpha $, 最优平均相关下界$ {p_m} $

      初始化 随机高斯矩阵${\boldsymbol{X}} \in {\mathbb{R}^{M \times N}}$, 自相关矩阵${\boldsymbol{R}} = {{\boldsymbol{X}}^{\text{T}}}{\boldsymbol{X}}$, 待优化矩阵平均列相关程度$p_{\text{t}}^{(0)}$, 缩减参数${p_{\text{s}}^{(0)}} = ({p_{\text{d}}} + p_{\text{t}}^{(0)})/2$, 缩减自相关矩阵${{\boldsymbol{R}}_{\text{s}}} \in $$ {\mathbb{R}^{N \times N}}$, 其中${r_{ii}} = 1, {r_{ij}} = {p_{\text{s}}}, i \ne j$, $ l = 0 $, $m = 0$, $r_n^{(0)} = 0$.

      While(1)

      1) $ l \leftarrow l + 1 $

      2)更新$ {{\boldsymbol{R}}_{\text{c}}} $

      While(1)

      3)$ m \leftarrow m + 1 $

      4)根据(37)式和(38)式缩减自相关矩阵$ {\boldsymbol{R}} $

      5)对$ {\boldsymbol{R}} $进行正交分解, 保留矩阵$ {\boldsymbol{R}} $最大的$ M $个特征值构成${\boldsymbol{\varLambda }}$, 并根据 (34)式重新计算$ {\boldsymbol{X}} $

      6)计算差值${r_n}^{(m)} = {\left\| {{{\boldsymbol{R}}_{\text{c}}} - {\boldsymbol{R}}} \right\|_F}$, 若$r_n^{(m)} \gt $$ r_n^{(m - 1)}$, 保留上次循环的$ {\boldsymbol{R}} $${p_{\text{t}}}$, 跳出循环, 否则继续循环

      end

      7)若${p_{\text{t}}}^{(l)} \gt p_{\text{t}}^{(l - 1)}$, 保留上次循环的$ {\boldsymbol{R}} $${p_{\text{t}}}$, 跳出程序, 否则继续循环

      8)调整$p_{\text{s}}^{\left( l \right)} = p_{\text{s}}^{(l - 1)} - (p_{\text{s}}^{(l - 1)} - {p_{\text{d}}})\alpha$

      end

      输出 优化导频矩阵

    • 因为实际的信道估计不能达到完全的精确, 可认为估计误差在某一阈值$ \xi $内时估计正确, 若经过$ T $次估计, 所得估计信道向量集合为$\{ {{\boldsymbol{\hat h}}_1}, {{\boldsymbol{\hat h}}_2}, \cdots, $$ {{\boldsymbol{\hat h}}_T}\} = \varUpsilon$, 定义数列$ \{ {a_T}\} $

      $ {a_T}({\boldsymbol{h}}) = \frac{{\# \{ {{{\boldsymbol{\hat h}}}_j}|{{\| {{\boldsymbol{h}} - {{{\boldsymbol{\hat h}}}_j}} \|}_2} \gt \xi ,~~{{{\boldsymbol{\hat h}}}_j} \in \boldsymbol\varUpsilon \} }}{T}, $

      其中, $ {{\boldsymbol{\hat h}}_j} $为估计信道向量, $ \#\{\cdot\} $表示集合中元素的个数.

      因为$ 0 \leqslant {a_T} \leqslant 1 $, 故其上极限存在, 定义信道重构错误率为

      $ \begin{split} \;&{\text{er}}{{\text{r}}_{{\text{rate}}}} = \mathop {\lim }\limits_{T \to \infty } \sup E\left( {{a_T}} \right)=\\ \;& \mathop {\lim }\limits_{T \to \infty } \sup E\left[\frac{{\# \{ {{{\boldsymbol{\hat h}}}_j}|{{\| {{\boldsymbol{h}} - {{{\boldsymbol{\hat h}}}_j}} \|}_2} \gt \xi ,~{{{\boldsymbol{\hat h}}}_j} \in \boldsymbol\varUpsilon \} }}{T}\right] .\end{split} $

    • 仿真采用FDD大规模MIMO下行链路模型, 在基站端配置N根天线, 每次估计发送M个导频, 信道稀疏度假定为K. 各仿真参数说明如表1所列, 特殊参数取值以下特别说明.

      名称参数
      天线数N/个128
      发送导频数M/个64
      相关性对比参数p1—20
      信道稀疏度K8
      调整因子α0.5
      抽样次数T3000
      错误阈值ξ0.1

      表 1  仿真参数

      Table 1.  Simulation parameters.

    • 图2给出了在(7)式定义下的导频矩阵相关性随参数$ p $变化对比情况. 从图2可以看出, 在参数$ p $取值1—20区间内, 各导频矩阵列相关性均随着$ p $的增大而增大, 其中随机高斯矩阵增幅最大, 为10%—30%, Elad方法显著降低了导频矩阵列相关性, 可达到10%—15%, 低幂平均列相关方法达到9%—12%, 所提方法可以降低到大约9%—10%, 已非常接近于理论最优下界8.87%.

      图  2  不同参数$ p $定义下的导频矩阵相关性对比

      Figure 2.  Pilot matrix correlation contrast as defined by different parameters.

      图3给出了在(6)式定义下导频矩阵列相关性随着发送导频个数变化的对比图, 可以看出导频矩阵中列相关性最大的数值. 在导频个数M取值19—57范围内, 导频矩阵列相关性均随着导频个数的增加而减小. 其中随机高斯矩阵相关性最高, 在56%—80%之间. Elad方法相对随机高斯矩阵有小幅度降低, 在导频个数小于35时与后者大体接近, 以后随着导频个数的增大略微减小, 这说明Elad方法对导频矩阵最大相关性取值的优化效果不明显. 低幂平均列相关方法随着导频个数的增加显著降低了导频矩阵列相关性, 取值在19%—70%之间, 但是在导频个数较少时还是具有较高相关性. 所提方法进一步降低导频矩阵列相关性至11%—48%, 并且在较少导频个数下便已获得稳定的效果, 随着导频个数增加, 其相关性取值逐渐趋于最优下界.

      图  3  导频矩阵相关性随发送导频数变化图

      Figure 3.  Changes of the pilot matrix correlation with the number of transmitted pilots.

      图4绘制了各导频矩阵不同列之间相关性取值的分布情况. 可以看出, 高斯随机矩阵列相关性分布在0—30%之间较多且分布平均, 说明高斯随机矩阵列相关性方差较大, 且存在较多有较大相关性的列, 根据第3节的理论分析, 这会对信道恢复的正确率产生不利影响. Elad方法减小了导频矩阵列相关性方差, 可以看出, 当$ N = 128 $, 在$ {N^2} - $$ N = 16256 $对相关性取值中, 大约有2000对取值集中在16%—17%, 其他值则均匀分布在0—16%. 低幂平均列相关方法不仅使导频矩阵列相关性的方差进一步减小, 而且相对于Elad方法得到了更低的期望值, 可以看到, 大约有7000对相关性取值分布在9%—13%之间. 所提方法在9%—11%区间内聚集了大约8000对相关性取值, 其导频矩阵列相关性期望和方差均小于上述方法.

      图  4  导频矩阵列相关性取值分布图

      Figure 4.  Column correlation value distribution of pilot matrix

      图5给出了OMP算法信道估计下重建错误率随稀疏度变化情况, 可以看出, 在信道稀疏度$ K $取16—32范围内, 各导频矩阵下的信道估计错误率均不断上升, 在稀疏度$ K = 16 $时, 高斯随机矩阵重构错误率最高为7.6%, Elad方法和低幂平均列相关方法均有效降低了信道估计的错误率, 达到2.00%和0.45%, 所提方法达到了四者中最低的信道重构错误率0.3%. 分别比前三种方法降低了96%, 85%和50%. 说明所提方法对进一步提高信道估计的可靠性有真实效果.

      图  5  信道重构错误率随稀疏度变化图

      Figure 5.  Channel reconstruction error rate change with sparsity.

      图6图7分别给出了稀疏度K = 8和K = 16时, OMP信道估计下重购错误率随导频个数的变化情况. 从图6可以看出, 在$ K $=8时, 各方法的信道重构错误率随着导频个数的增多而不断减小. 其中随机高斯矩阵最高, 在导频个数范围为21—32时, 低幂平均列相关方法重构错误率略高于Elad方法, 之后则大体重合. 所提方法在相同稀疏度下的重构错误率与以上两种方法相比, 大约降低了5%, 说明了所提方法在低稀疏度且发送较少导频时具有更好的表现, 这对于考虑到节省导频开销的实际场景是有意义的.

      图  6  信道重构错误率随导频个数变化图(K=8)

      Figure 6.  Channel reconstruction error rate with number of pilots (K=8).

      图  7  信道重构错误率随导频个数变化图(K=16)

      Figure 7.  Channel reconstruction error rate with number of pilots (K=16).

      图7可以看出, 在信道稀疏度$ K $=16时, 重构错误率明显增大. 低幂平均列相关方法与Elad方法在$ M $取值范围30—42时大体重合, 所提方法则比以上两种方法降低5%左右, 在$ M $取值范围43—60时, 低幂平均列相关方法比Elad方法有所降低, 所提方法则具有四者中最低的信道重构错误率. 说明所提方法在较为复杂的信道环境中, 在保证一定的发送导频数量的前提下, 依旧具有良好的信道重构性能.

    • 本文首先理论分析了OMP算法下信道重构错误率与导频矩阵之间的关系, 得出了优化导频矩阵的两条准则: 导频矩阵列相关性期望和方差最小化. 然后依据优化准则分析了优化导频矩阵的方法, 并设计出相应的自适应自相关矩阵缩减参数导频矩阵优化算法. 仿真结果表明, 该方法有效降低了导频矩阵列相关性期望和方差. 在采用OMP算法进行信道估计时, 所设计出的导频矩阵降低了信道重构错误率, 提高了信道估计的可靠性.

    • 由OMP算法中残差和已选取列空间的正交性可知, 当$ j \in {\varOmega ^{(m)}} $时, (10)式中的$ c_j^{(m + 1)} = 0 $. 取索引值$ \forall l, s \in {\bar \varOmega ^{(m)}} $, 可计算出第$ m + 1 $次迭代的相关性数值:

      $ \quad\left\{ \begin{aligned} & {c_l}^{(m + 1)} = {\boldsymbol{x}}_l^{\text{T}}{{\boldsymbol{r}}^{(m)}}\\ =\;& {\boldsymbol{x}}_l^{\text{T}}\{ {\boldsymbol{Xh}} - {{\boldsymbol{X}}^{(m)}}{[{({{\boldsymbol{X}}^{(m)}})^{\text{T}}}{{\boldsymbol{X}}^{(m)}}]^{ - 1}}{({{\boldsymbol{X}}^{(m)}})^{\text{T}}}{\boldsymbol{y}}\} ,\;\quad{\text{ (A1)}} \\ & {c_s}^{(m + 1)} = {\boldsymbol{x}}_s^{\text{T}}{{\boldsymbol{r}}^{(m)}}\\ =\;& {\boldsymbol{x}}_s^{\text{T}}\{ {\boldsymbol{Xh}} - {{\boldsymbol{X}}^{(m)}}{[{({{\boldsymbol{X}}^{(m)}})^{\text{T}}}{{\boldsymbol{X}}^{(m)}}]^{ - 1}}{({{\boldsymbol{X}}^{(m)}})^{\text{T}}}{\boldsymbol{y}}\} .\;\;\quad {\text{ (A2)}} \end{aligned} \right. $

      计算

      $\begin{split} &((X^{(m)})^{\rm{T}}X^{(m)})^{-1} \\ =& \left[ {\begin{array}{*{20}{c}} 1&{{\alpha _{i(1),i(2)}}}&{\cdots}&{{\alpha _{i(1),i(m)}}} \\ {{\alpha _{i(2),i(1)}}}&0&{\cdots}&{{\alpha _{i(2),i(m)}}} \\ {\cdots}&{\cdots}&{\cdots}&{\cdots} \\ {{\alpha _{i(m),i(1)}}}& {{\alpha _{i(m),i(2)}}}&{\cdots}&1 \end{array}} \right]^{-1},\end{split}\tag{A3}$

      $ {\boldsymbol{B}} = \left[ {\begin{array}{*{20}{c}} 0&{{\alpha _{i(1),i(2)}}}&{\cdots}&{{\alpha _{i(1),i(m)}}} \\ 0&0&{\cdots}&{{\alpha _{i(2),i(m)}}} \\ {\cdots}&{\cdots}&{\cdots}&{\cdots} \\ 0&0&{\cdots}&0 \end{array}} \right],\tag{A4} $

      $ {({({{\boldsymbol{X}}^{(m)}})^{\text{T}}}{{\boldsymbol{X}}^{(m)}})^{ - 1}} = {({\boldsymbol{I}} + {\boldsymbol{B}} + {{\boldsymbol{B}}^{\text{T}}})^{ - 1}}, \tag{A5}$

      根据矩阵求逆引理[16],

      $\begin{split} & {({\boldsymbol{A}} + {\boldsymbol{BCD}})^{ - 1}} \\ =\;&{{\boldsymbol{A}}^{ - 1}} - {{\boldsymbol{A}}^{ - {\text{1}}}}{\boldsymbol{B(D}}{{\boldsymbol{A}}^{ - {\text{1}}}}{\boldsymbol{B}} + {{\boldsymbol{C}}^{ - 1}}{)^{ - 1}}{\boldsymbol{D}}{{\boldsymbol{A}}^{ - 1}}, \end{split} \tag{A6}$

      $ \begin{split} &{({\boldsymbol{I}} + {\boldsymbol{B}} + {{\boldsymbol{B}}^{\text{T}}})^{ - 1}} = {({\boldsymbol{I}} + {\boldsymbol{B}})^{ - 1}} - {({\boldsymbol{I}} + {\boldsymbol{B}})^{ - 1}} \\ & ~~~~\times {[{{\boldsymbol{B}}^{\text{T}}}{({\boldsymbol{I}} + {\boldsymbol{B}})^{ - 1}} + I]^{ - 1}}{{\boldsymbol{B}}^{\text{T}}}{({\boldsymbol{I}} + {\boldsymbol{B}})^{ - 1}}, \end{split}\tag{A7} $

      因为B为幂零矩阵, $ {({\boldsymbol{I}} + {\boldsymbol{B}})^{ - 1}} $可级数展开为

      $ {({\boldsymbol{I}} + {\boldsymbol{B}})^{ - 1}} = {\boldsymbol{I}} - {\boldsymbol{B}} + {{\boldsymbol{B}}^2} + \cdots, \tag{A8}$

      忽略2次及以上的高次幂, 取

      $ {({\boldsymbol{I + B}})^{ - 1}} \approx {\boldsymbol{I}} - {\boldsymbol{B}}. \tag{A9}$

      (34)式可化简为

      $ {({\boldsymbol{I}} + {\boldsymbol{B}} + {{\boldsymbol{B}}^{\text{T}}})^{ - 1}} \approx ({\boldsymbol{I}} - {\boldsymbol{B}}){({\boldsymbol{I}} + {{\boldsymbol{B}}^{\text{T}}} - {{\boldsymbol{B}}^{\text{T}}}{\boldsymbol{B}})^{ - 1}}, \tag{A10}$

      其中, $ {{\boldsymbol{B}}^{\text{T}}}{\boldsymbol{B}} $非常接近于零矩阵, 取$ {{\boldsymbol{B}}^{\text{T}}}{\boldsymbol{B}} \approx 0 $, 同样$ {({\boldsymbol{I}} + {{\boldsymbol{B}}^{\text{T}}})^{ - 1}} $可级数展开为

      $ {({\boldsymbol{I}} + {{\boldsymbol{B}}^{\text{T}}})^{ - 1}} = {\boldsymbol{I}} - {{\boldsymbol{B}}^{\text{T}}} + {({{\boldsymbol{B}}^{\text{T}}})^2} + \cdots, \tag{A11}$

      忽略2次及以上的高次幂, 取

      $ {({\boldsymbol{I}} + {{\boldsymbol{B}}^{\rm{T}}})^{ - 1}} \approx {\boldsymbol{I}} - {{\boldsymbol{B}}^{\text{T}}},\tag{A12} $

      可得

      $ {[{({{\boldsymbol{X}}^{(m)}})^{\text{T}}}{{\boldsymbol{X}}^{(m)}}]^{ - 1}} \approx ({\boldsymbol{I}} - {\boldsymbol{B}})({\boldsymbol{I}} - {{\boldsymbol{B}}^{\text{T}}}).\tag{A13} $

      结合(A13)式, 通过计算, (37)式可进一步展开为

      $ \qquad\left\{ \begin{aligned} & c_l^{(m + 1)} = \sum\limits_{k = 1}^N {{\alpha _{l,k}}{h_k} - } \sum\limits_{k = 1}^N {(\sum\limits_{j = 1}^m {d_j^{(l)}{\alpha _{i(j),k}}} ){h_k}{\text{, }}\;\quad\left( {{\text{A}}14} \right)} \hfill \\ & c_s^{(m + 1)} = \sum\limits_{k = 1}^N {{\alpha _{s,k}}{h_k} - } \sum\limits_{k = 1}^N {(\sum\limits_{j = 1}^m {d_j^{(s)}{\alpha _{i(j),k}}} ){h_k}{\text{, }}\quad\left( {{\text{A}}15} \right)} \end{aligned} \right. $

      其中,

      $ \qquad\qquad\left\{ \begin{aligned} & d_j^{(l)} = b_j^{(l)} - \sum\limits_{k = 1}^{m - j} {{\alpha _{i(j),i(j + k)}}b_{j + k}^{(l)}} ,\;\;\;\;\;\ \quad\qquad\left( {{\text{A}}16} \right) \hfill \\ & d_j^{(s)} = b_j^{(s)} - \sum\limits_{k = 1}^{m - j} {{\alpha _{i(j),i(j + k)}}b_{j + k}^{(s)}} ,\;\;\;\;\ \quad\qquad\left( {{\text{A}}17} \right) \end{aligned} \right.$

      $\qquad\qquad \left\{ \begin{aligned} & b_j^{(l)} = {\alpha _{i(j),l}} - \sum\limits_{k = 1}^{j - 1} {{\alpha _{i(k),i(j)}}{\alpha _{i(k),l}}} ,\;\;\,\quad\qquad\;\left( {{\text{A}}18} \right) \hfill \\ & b_j^{(s)} = {\alpha _{i(j),s}} - \sum\limits_{k = 1}^{j - 1} {{\alpha _{i(k),i(j)}}{\alpha _{i(k),s}}} ,\;\;\quad\qquad\left( {{\text{A}}19} \right) \end{aligned} \right. $

      (A14)式和(A15)式是OMP算法在第$ m + 1 $次迭代时, 在索引$ l $$ s $处的相关性数值表达式.

    • 假设$ l \in {\varOmega _i} \cap {\bar \varOmega ^{(m)}} $, $ s \in {\bar \varOmega _i} \cap {\bar \varOmega ^{(m)}} $, 即$ l $$ s $分别为信道向量非零分量指标和零分量指标, $ {h_l} $$ {h_s} $为对应的信道向量分量值且$ {h_l} \gt {h_s} \gt 0 $, 因为信道分量值的正负号与相关性取值正负号呈正相关, 此时应取$| {c_l^{(m + 1)}}| \gt 0$$| {c_s^{(m + 1)}} | \gt 0$, 计算$ l $$ s $处相关性判决值为

      $ \begin{split} & \left| {c_l^{(m + 1)}} \right| - \left| {c_s^{(m + 1)}} \right| = c_l^{(m + 1)} - c_s^{(m + 1)} \\ =\;& ({h_l} - {h_s})(1 - {\alpha _{l,s}}) - \sum\limits_{k = 1}^m {(d_j^{(l)} - d_j^{(s)}){h_{i(j)}}} \\ &- \sum\limits_{k = 1,k \ne i(j)}^N {\sum\limits_{j = 1}^m {(d_j^{(l)} - d_j^{(s)}){\alpha _{i(j),k}}{h_k}. } } \\[-10pt] \end{split} \tag{A20}$

      假设导频矩阵$ {\boldsymbol{X}} $各元素为服从独立同分布的随机变量, 则各列相关性$ \left\langle {{{\boldsymbol{x}}_i}, {{\boldsymbol{x}}_j}} \right\rangle , i, j \in \varOmega , {\text{ }}i \ne j $的期望和方差可分别计算为

      $ \begin{split} & E(\left\langle {{{\boldsymbol{x}}_i},{{\boldsymbol{x}}_j}} \right\rangle ) = E({{\boldsymbol{x}}_j}^{\text{T}}{{\boldsymbol{x}}_i}) \\ = \;&E({x_{j1}}{x_{i1}}) + E({x_{j2}}{x_{i2}}) + \cdots + E({x_{jM}}{x_{iM}}) \\ = \;&\sum\limits_{l = 1}^M {E({x_{jl}})} E({x_{il}}) = \sum\limits_{l = 1}^M {{{\left| {E({x_{11}})} \right|}^2},} \end{split} \tag{A21}$

      $ \begin{split} & D(\left\langle {{{\boldsymbol{x}}_i},{{\boldsymbol{x}}_j}} \right\rangle ) \\ =\;& |E(x_{i1})|^2 E |x_{j1}|^2 + |E(x_{i2})|^2 E |x_{j2}|^2 + \cdots + \\ &| E({x_{iM}})|^2 E |x_{jM}|^2 + 2(E({x_{i1}})E({x_{i2}})E({x_{j1}})E({x_{j2}}) \\ &+ E({x_{i1}})E({x_{i3}})E({x_{j1}})E({x_{j3}}) +\cdots \\ &+ E({x_{iM - 1}})E({x_{iM}})E({x_{jM - 1}})E({x_{jM}})) \\ =\;& M{\left| {E({x_{11}})} \right|^2}E{\left| {{x_{11}}} \right|^2} + M(M - 1)E{\left| {{x_{11}}} \right|^4}. \end{split} \tag{A22}$

      可看出$ E(\left\langle {{{\boldsymbol{x}}_i}, {{\boldsymbol{x}}_j}} \right\rangle ) $$ D(\left\langle {{{\boldsymbol{x}}_i}, {{\boldsymbol{x}}_j}} \right\rangle ) $均为常数, 设:

      $ E(\left\langle {{{\boldsymbol{x}}_i},{{\boldsymbol{x}}_j}} \right\rangle ) = \varepsilon {\text{ , }}~~i,j \in \varOmega {\text{ }},~~{\text{ }}i \ne j \text{, } \tag{A23}$

      $ D(\left\langle {{{\boldsymbol{x}}_i},{{\boldsymbol{x}}_j}} \right\rangle ) = \delta ,~~ \delta \gt 0 ,~~i,j \in \varOmega ,~~{\text{ }}i \ne j .\tag{A24} $

      根据(A23)和(A24)式, 对(A20)式左右两端取期望值, 其右端可做以下处理:

      $ E(({h_l} - {h_s})(1 - {\alpha _{l,s}})) = ({h_l} - {h_s})(1 - \varepsilon ), \tag{A25}$

      $ E\left(\sum\limits_{k = 1}^m {(d_j^{(l)} - d_j^{(s)}){h_{i(j)}}} \right) = 0,\tag{A26} $

      $ E\left(\sum\limits_{k = 1,k \ne i(j)}^N {\sum\limits_{j = 1}^m {(d_j^{(l)} - d_j^{(s)}){\alpha _{i(j),k}}{h_k}} } \right) = m\delta ({h_l} - {h_s}), \tag{A27}$

      将(A25), (A26)和(A27)式代入(A20)式, 可得:

      $ E(| {c_l^{(m + 1)}} | - | {c_s^{(m + 1)}} |) = ({h_l} - {h_s})[ {(1 - \varepsilon ) - m\delta }], \tag{A28}$

      (A28)式表示对指标$ l, s $代表的位置进行相关性判决后的期望值, 因为$ l \in {\varOmega _i} $为信道非零分量位置指标, $ s \notin {\varOmega _i} $为信道零分量位置指标, 根据(12)式, 当

      $ E(| {c_l^{(m + 1)}} | -| {c_s^{(m + 1)}} |) = ({h_l} - {h_s})[ {(1 - \varepsilon ) - m\delta } ] \gt 0,\tag{A29} $

      $ \frac{1}{\delta }(1 - \varepsilon ) \gt m{\text{ , }}~~ m{\text{ = }}1,2,\cdots,K . \tag{A30} $

      相关性判决的期望选择了信道非零分量指标$ l $, 判决正确, 令$f(\varepsilon , \delta ) = \dfrac{1}{\delta }(1 - \varepsilon )$, 为了尽可能减小判决出现错误的可能性, 应使

      $ f(\varepsilon ,\delta ) \geqslant \max(m) = K . \tag{A31} $

      可见$ f(\varepsilon , \delta ) $取值越大, 则信道重构错误率越小, 因为$ f(\varepsilon , \delta ) $是关于自变量$ \varepsilon $$ \delta $的减函数, 所以应取尽可能小的$ \varepsilon $$ \delta $使$ f(\varepsilon , \delta ) $增大, 故对于导频矩阵$ {\boldsymbol{X}} $, 使OMP算法重构错误率最小化的条件为

      $ \qquad\;\;\left\{ \begin{aligned} & \mathop {\min }\limits_{{x_1},{x_2}\cdots{x_N}} \mathop {\max }\limits_{i \ne j} E\left\langle {{x_i},{x_j}} \right\rangle , ~~\forall i,j \in \varOmega ,&\qquad\qquad({\rm{A}}32) \\ & \mathop {\min }\limits_{{x_1},{x_2},\cdots,{x_N}} \mathop {\max }\limits_{i \ne j} D\left\langle {{x_i},{x_j}} \right\rangle ,~~ \forall i,j \in \varOmega . &\qquad\qquad({\rm{A}}33) \\ \end{aligned} \right. $

参考文献 (16)

目录

    /

    返回文章
    返回