SciELO - Scientific Electronic Library Online

 
vol.29 número4Predicción de Riesgos Psicosociales en Docentes de Colegios Públicos Colombianos utilizando Técnicas de Inteligencia ArtificialInfluencia del Y Plus en el Valor del Esfuerzo Cortante de Pared a través Simulaciones empleando Dinámica Computacional de Fluidos índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Compartir


Información tecnológica

versión On-line ISSN 0718-0764

Inf. tecnol. vol.29 no.4 La Serena ago. 2018

http://dx.doi.org/10.4067/S0718-07642018000400281 

Artículos

Una Revisión de los Estimadores de Matrices de Bajo Rango y Matrices Dispersas

A Review of Low Rank and Sparse Matrix Estimators

Juan P. Hoyos1 

Pablo E. Jojoa2 

1Corporación Universitaria Comfacauca Unicomfacauca, Facultad de Ingeniería, Santander de Quilichao-Colombia(e-mail: jhoyos@unicomfacauca.edu.co)

2Universidad del Cauca, Facultad de Ingeniería Electrónica y Telecomunicaciones, Popayán-Colombia (email: pjojoa@unicauca.edu.co)

Resumen

Se presenta una revisión selectiva de los desarrollos más recientes en la estimación de la matriz de covarianza con un número de muestras menores a la dimensión ambiente. En particular se consideran estimadores para las estructuras bajo rango y dispersa, dando especial atención a los algoritmos más utilizados en la práctica. Se presentan estimadores que recurren al uso de técnicas clásicas como umbrales y descomposición de valor único (SVD), así como estimadores más novedosos basados en matrices aleatorias y optimización convexa. Una de las principales conclusiones del estudio es que a pesar de los grandes avances en el desarrollo de nuevos estimadores, temas relacionados al tiempo de cómputo de los programas convexos que utilizan los estimadores han sido poco explorados. Además, se observa la falta de trabajos sobre el desarrollo de estimadores para matrices con estructura conjuntamente dispersa y bajo rango.

Palabras clave: matriz de covarianza; bajo rango; dispersa; sketch; estimadores; matrices aleatorias

Abstract

A selective review of the most recent developments in the estimation of the covariance matrix with a number of samples smaller than the ambient dimension is presented. In particular, estimators are considered for low rank and sparse structures, paying special attention to the algorithms most used in practice. Estimators that resort to the use of classical techniques such as thresholds and singular-value decomposition (SVD), as well as newest estimators based on random matrices and convex optimization are presented. One of the main conclusions of the study is that, in spite of the great advances in the development of new estimators, issues related to the computation time of the convex programs that use the estimators have been little explored. Additionally, lack of works on the development of estimators for matrices with jointly sparse and low rank structure is observed

Keywords: covariance matrix; low rank; sparse; sketch; estimators; random matrices

INTRODUCCIÓN

La teoría de señales ha sido un área de constante investigación desde sus primeros usos en la teoría de la información (Shannon, 2001). Sus avances han permitido el desarrollo de novedosos sistemas que han impactado notablemente la manera de vivir, llevando a la sociedad a la era de las Tecnologías de la Información y las Comunicaciones (TIC). El rápido crecimiento en la generación de datos e información por los diferentes sistemas de comunicaciones, y las actuales limitantes han ocasionado que los problemas de inferencia estadística y procesamiento de datos de altas dimensiones se hayan convertido en un reto de alta complejidad, ya que buscan cada vez métodos más eficientes de estimación de las estadísticas de segundo orden, manteniendo niveles óptimos de precisión (Chen et al., 2015; Leus y Tian, 2011). Entre las limitantes actuales se encuentra la capacidad de procesamiento y la memoria disponible, por lo cual técnicas como censado compresivo o compressed sensing (Bryan y Leise, 2013) y sketches (Chen et al., 2015) recurren al uso de optimizaciones y matrices aleatorias para realizar una recuperación a partir de mediciones y procesamiento de los datos sin requerir de su almacenamiento.

La estimación de matrices juega un papel preponderante en muchas aplicaciones, en especial la estimación de la matriz de covarianza es fundamental en aplicaciones como procesamiento de señales (Krim y Viberg, 1996), reconocimiento de patrones, geometría convexa computacional, estadística de altas dimensiones, aprendizaje de máquina,..., ya que captura la estructura de la covarianza de las variables aleatorias (Vershynin, 2012). Sea x un vector aleatorio en Rn distribuido acorde a alguna función de distribución μ. La matriz de covarianza viene definida como

y tiene las propiedades de ser simétrica y semi-definida positiva. Los autovectores de la matriz de covarianza son llamados los componentes principales, he aquí la importancia en Análisis de Componentes Principales o PCA (por sus siglas en ingles). La estimación de la matriz de covarianza se puede realizar a partir de muestras mediante

y de acuerdo a la ley de grandes números se garantiza que el estimador se vuelva ajustado cuando el número de muestras k va al infinito, es decir Σ k → Σ cuando k →∞. La dificultad radica en cuán grande debe ser el número de muestras para asegurar que la muestra de covarianza converja a la covarianza verdadera?, o equivalentemente cuantas muestras debo tener para lograr cierta precisión (ε=0.001) en el operador norma

donde ║∙║es la norma espectral. En (Tropp, 2015) se demuestra que si el número de muestras es mayor a cε-2nlogn el estimador muestral provee una relativa precisión en la estimación de la verdadera matriz de covarianza Σ. Pero con la gran cantidad de datos, generalmente las matrices son extremadamente grandes y con las facilidades en el censado y adquisición de datos, el tamaño tiende cada vez a aumentar.

Por limitaciones de volumen y costos es común no poder muestrear completamente los datos de salida para obtener la matriz completa, o en campos como la biología o medicina el número de muestras disponibles es reducido y generalmente menor que el tamaño de variables (Kwan, 2011). Por tanto se hace necesario desarrollar técnicas de estimación de matrices de covarianza capaces de lograr un bajo error sujetos a que el número de muestras k sea moderado comparado a n.

El estimador bien condicionado desarrollado por Ledoit y Wolf (2003, 2004) conocido como estimación shrinkage que al igual que el estimador muestral tiene la ventaja de no necesitar conocer la estructura de la matriz de covarianza y logra un mejor desempeño que el estimador muestral (Ledoit y Wolf, 2012). Otros métodos basados en teoría de matrices aleatorias, optimización convexa y muestreo compresivo han demostrado obtener una mejor estimación que los anteriores métodos, incluso cuando se tiene ruido (Bai y Shi, 2011; Walden y Schneider-Luftman, 2015). Además, sus resultados son mejores cuando se tiene en cuenta en la estimación la estructura que podría presentar la matriz de covarianza.

ESTIMACIÓN DE MATRICES BAJO RANGO

Las matrices de bajo rango son muy comunes debido a su aparición en diferentes campos: sistemas de identificación (Liu y Vandenberghe, 2009), restauración de películas (Yu et al., 2016), recuperación del movimiento en 3-D (Wang et al., 2016), ensamble de señales (Davies y Eldar, 2012), aprendizaje de maquina o machine learning (Argyriou et al., 2008; Guan et al., 2016).

Definición:(Matriz de bajo rango) Una matriz X ϵ Rmxn se le llama de bajo rango si su rango r << min(m,n). Entonces la matriz puede ser expresada exactamente o aproximadamente mediante:

donde αi≥0, i=1,…,r , u1,…, ur ϵ Rm y v1,…, vr Rn son vectores ortonormales. Una interpretación es que los escalares son los valores singulares de X y los vectores ortonormales son los correspondientes vectores singulares de la Descomposición en Valores Singulares o SVD (por sus siglas en ingles).

Los diferentes métodos desarrollados hasta el momento se basan en variaciones en el diseño del operador (, el cual se encarga de la toma de mediciones o muestras, por tanto encontramos (Davenport y Romberg, 2016): operador aleatorio, operador que retorna un subconjunto de las entradas y operador de rango uno. En lo que sigue, se listan los estimadores más representativos en la recuperación de matrices bajo rango.

Aproximación de bajo rango: La idea principal es encontrar la mejor aproximación de bajo rango de una matriz dada X ϵ Rmxn. Cuando se habla de la mejor aproximación significa que se desea determinar la matriz más cercana en norma de Frobenius, es decir:

donde ║∙║2 F es el cuadrado de la norma de Frobenius, y r es el rango deseado de la aproximación. A pesar que el problema es no convexo, una forma para solucionarlo de manera fácil es utilizar la SVD

donde U,V son matrices ortonormales y es una matriz diagonal que contiene los valores singulares ordenados. La solución se encuentra truncando la expansión, es decir aplicando un umbral o thresholding a los valores singulares para mantener los más grandes y a partir de ellos se reconstruya la matriz (Horn y Johnson, 1994)

donde el conjunto de soluciones obtenidas para 0<λ<∞ es igual al conjunto de soluciones obtenidas en (5) para 1≤r≤k con k=min(m,n). Para un λ especifico, (7) se puede solucionar calculando la SVD y sometiendo los valores singulares a un umbral duro. Cuando el umbral es igual a λ /2 el resultado es igual a la solución de:

donde ║∙║* es la norma nuclear o norma traza (suma de valores singulares) que es una relajación convexa del rango, muy utilizada en problemas de optimización (Boyd y Vandenberghe, 2004).

Recuperación bajo rango y minimización por traza: Generalmente, en cambio de observar directamente la matriz X, lo que se hace es obtener mediciones de la forma y= ((X)+η, donde η es un término de error acotado y (: Rmxn →Rk es un operador lineal de medición que actúa sobre la matriz X tomando el producto interno estándar con matrices previamente establecidas A1,…, Ak. Así, cada componente del vector y ϵ Rk viene dada por:

El objetivo es recuperar una buena aproximación de X con pocas medidas tanto como sean posibles. Una aproximación de bajo rango puede venir dada por

pero el problema de minimización de rango es en general NP-difícil (Boyd y Vandenberghe, 2004). En cambio si se usa el programa de optimización convexa (9) se tiene

que puede ser solucionado sistemáticamente mediante algoritmos como el proximal o FISTA (Davenport y Romberg, 2016). La soluciones a (12) para cualquier β>0 obedecerán la condición de punto fijo

Recuperación de fase: Un problema que ha recibido gran atención ha sido la recuperación de la señal x ϵ Rn a partir de m mediciones cuadráticas (intensidad) de la forma xi=│˂x,ai ˃│,i=1,…,m. Para recuperar la señal además de la magnitud se necesita determinar la fase, y este problema es NP-difícil (Sahinoglou y Cabrera, 1991). En un muy interesante trabajo conocido como PhaseLift desarrollado por Candès et al. (2013) demostraron que si los vectores Gaussianos ai son muestreados independiente y uniformemente sobre la esfera unitaria entonces la señal puede ser recuperada exactamente a partir de las mediciones de magnitud. El problema original puede ser reescrito como

y la estimación de la señal original x es exitosa cuando el número de muestras (mediciones) depende logarítmicamente de la dimensión, es decir m ≥ n log(n). Además, este concepto ha tenido gran impacto en la recuperación de imágenes, matrices y tensores.

Mediciones cuadráticas o sketch: En los anteriores estimadores los vectores de censado eran variables Gaussianas Independientes e Idénticamente Distribuidas (i.i.d.), en (Chen et al., 2015) se extendió el análisis a vectores de censado sub-Gaussianos, permitiendo utilizar una clase más amplia de mecanismos de muestreo. Además, utilizando los vectores de medición o sketch se obtiene mediciones cuadráticas a partir de las cuales demostraron que es posible la estimación de una matriz de covarianza. Cada medición cuadrática viene dada por:

donde ║∙║ es a norma espectral y ε1 es la cota superior de ║η║1. Pero como hemos visto el problema de la minimización del rango es un problema NP-difícil, una relajación convexa que permite volver el problema tratable viene dada por:

Sus resultados coinciden con los encontrados con PhaseLift y al recurrir al uso de los sketches permite recuperar matrices de covarianza sin la necesidad de almacenar todas las realizaciones del vector de variables aleatorias.

ESTIMACIÓN DE MATRICES DISPERSAS O SPARSE

Las matrices dispersas o sparse se caracterizan por ser matrices con muchas de sus entradas iguales cero; es decir que contiene muy pocos elementos diferentes de cero por columna. La relación entre el número de entradas cero y el total de entradas es conocida como el nivel de dispersión o sparsity. La importancia de estas matrices radica en el impacto que tiene en la reducción en la complejidad de los algoritmos, la computación y el almacenamiento de las matrices (Arora et al., 2006; Drineas y Zouzias, 2011; Astaiza-Hoyos et al., 2017), por lo cual se ha convertido en una área muy activa de investigación que ha dado origen a nuevos métodos de muestreo, estimación y aprendizaje (Chen et al., 2015; Dasarathy et al., 2015; Gilbert y Indyk, 2010). De forma general podemos clasificar los esquemas de estimación de matrices dispersas de como umbral o aleatorios.

Umbral o Thresholding

Uno de los métodos más fáciles para estimar matrices de covarianza dispersas ha sido el uso de un umbral, el cual establece elementos pequeños (menores al umbral) a cero (Bickel y Levina, 2008). Cada componente fuera de la diagonal principal de la matriz de covarianza Σk es sometido a un umbral especifico wT, entonces la matriz dispersa viene dada por:

y una ventaja del umbral es que evita estimar elementos pequeños ayudando a reducir el nivel de ruido presente en los datos. Por otra parte, Rothman et al. (2009) combinaron el método de umbral y shrinkage para crear reglas de umbral más flexibles. Cai y Liu (2011) propusieron un umbral el cual es adaptativo a la variabilidad de las entradas y Cai y Yuan (2012) consideraron la estimación adaptativa de la matriz de covarianza utilizando un umbral en bloque. Pero la gran desventaja de este tipo de estimadores es que no garantiza que la matriz de covarianza estimada vaya a ser definida positiva.

Métodos Aleatorios

Dentro de las clasificaciones de métodos aleatorios se encuentran:

Producto de Tensores: Cuando se desea recuperar la matriz T ϵ Rnxn de la matriz de mediciones

donde A y B son matrices de censado o Sketching de mxn con m << n, formando un ensamble bipartita-δ, es decir consiste del conjunto de todas las matrices 0-1 que tienen al menos δ unos por columna. Si la matriz tiene filas y columnas con pocas entradas diferentes de cero, a esta estructura se le conoce como dispersión distribuida. (Dasarathy et al., 2015) mostraron que la estimación es posible resolviendo la optimización convexa

con x=vect(X) y y=vect(Y). Este tipo de aproximaciones presenta dos grandes desventajas ya que al hacer uso del producto Kronecher se incrementa la dimensión y se pierde algo de la estructura del problema, en especial es difícil hacer cumplir la propiedad de semi definida positiva en la forma vectorial. Entonces, la aproximación generalmente ignora este requerimiento y la matriz de covarianza estimada puede no ser una matriz de covarianza valida.

Minimización Alternante: Para solucionar (28) Bioucas-Dias et al. (2014) propusieron explotar la información a priori sobre la matriz de covarianza para recuperar la matriz a partir de mediciones compresivas. Desarrollaron un algoritmo llamado CoVALSA, el cual produce formulaciones semi definidas para matrices dispersas, Toeplitz, bajo rango y bajo rango permutadas, las cuales son solucionadas eficientemente por el algoritmo SALSA (Afonso et al., 2011). Sea x ϵ Rn un vector aleatorio de media cero con matriz de covarianza X, la idea consiste en tomar mediciones compresivas dadas por:

donde ϕ es una función cerrada, propia y convexa que captura la estructura deseada de la matriz (bajo rango, sparse, Toeplitz). λ es un parámetro de regularización. La ventaja que esa aproximación presenta es que en el problema de optimización el espacio de matrices está limitado a semi-definidas positivas, lo cual nos asegurara que la matriz recuperada es una matriz de covarianza valida, y aunque Y es una matriz de menor dimensión se hace necesario un almacenamiento importante, por ejemplo muestran que para una matriz de dimensión n=100 se logra una buena recuperación si m=50, que en ultimas se pasa de tener una matriz de 100 x 100 a una matriz de 50 x 50, aunque una buena relación estamos interesados en buscar algoritmos que permitan una mejor reducción, y además de ser posible tratar que Y sea un vector y no una matriz para una computación más rápida.

Mediciones cuadráticas o sketch: El modelo de estimación desarrollado por Chen et al. (2015) también abarca el caso cuando la matriz de covarianza a estimar es dispersa. Si X es dispersa, es conocido que la norma ℓ0 promueve la dispersión, entonces el problema de estimación puede ser planteado como

donde la norma ℓ1 es la relajación convexa del tamaño de soporte y que ha demostrado ser exitosa en muchos algoritmos de censado compresivo promoviendo la dispersión (Candès, 2008; Foucart y Rauhut, 2013). Además, demostraron que cuando la matriz es exactamente p-dispersa y no hay presencia de ruido, la solución a (33) es exactamente igual a la verdadera siempre que el número de mediciones satisfaga k > p log (n^2/p). Inclusive, para matrices aproximadamente dispersas la estimación es robusta frente al ruido indicando que las mediciones cuadráticas son al menos tan buenas como las mediciones lineales.

La idea de sketch también ha sido utilizada en (Pedarsani et al., 2015) para la estimación de matrices dispersas mediante códigos de grafos dispersos, en (Bahmani y Romberg, 2015) para la estimación de matrices de bajo rango dispersas, o en el producto de tensores expuesto anteriormente. Otra forma de aproximarse a sketching es encontrar un pequeño subconjunto de columnas o filas de la matriz que aproximen la matriz entera, esto es conocido como Problema de Selección de Subconjunto Columna (Boutsidis et al., 2009, 2014; Drineas y Kannan, 2003). Un último enfoque ha sido Direcciones Frecuentes, el cual se realiza de forma determinística (Ghashami et al., 2016).

CONCLUSIONES

La estimación de la matriz de covarianza con un número de muestras menores que la dimensión ambiente u original se ha convertido en un campo de rápido desarrollo, ya que el estimador clásico presenta serias desventajas ante esta condición.

Estimadores basado en métodos conocidos como SVD logran una aceptable recuperación de la matriz al incluir información de la estructura de bajo rango que presenta la matriz de covarianza, mientras que nuevos métodos basado muestreo aleatorio y optimización convexa superan los desempeños de los métodos comunes, aún en presencia de alteraciones en las muestras. Además para reducir el tiempo de convergencia de los algoritmos se utilizan técnicas como métodos proximales.

Por otra parte, la estimación de matrices dispersas ha tomado un gran auge debido en parte al desarrollo de representaciones dispersas de las señales en bases o frames, y su fácil computación e almacenamiento. Algoritmos basados en el método de umbral logran satisfacer la condición de pocas muestras para su estimación, aunque su desempeño es superado por los nuevos algoritmos basados en matrices aleatorias y optimización convexa que al incorporar la condición de dispersión de la matriz logran reducir notablemente el número de muestras manteniendo un alto grado de precisión en la estimación, incluso en presencia de ruido.

A pesar de los grandes avances en el desarrollo de nuevos estimadores, temas relacionados al tiempo de computo de los programas convexos que utilizan los estimadores quedan por explorar, como también la inclusión de nueva información en la recuperación y el desarrollo de estimadores para matrices con una estructura conjuntamente dispersa y bajo rango.

AGRADECIMIENTOS

Los autores agradecen el apoyo de Colciencias a través de la convocatoria 528y de la Universidad del Cauca.

REFERENCIAS

Afonso, M.V., Bioucas-Dias, J.M. y Figueiredo, M.A.T. An Augmented Lagrangian Approach to the Constrained Optimization Formulation of Imaging Inverse Problems, IEEE Trans. Image Process, 20, 681-695 (2011) [ Links ]

Argyriou, A., Evgeniou, T. y Pontil, M. Convex multi-task feature learning, Mach. Learn, 73, 243-272 (2008) [ Links ]

Arora, S., Hazan, E. y Kale, S. A Fast Random Sampling Algorithm for Sparsifying Matrices. In Approximation, Randomization, and Combinatorial Optimization, Algorithms and Techniques, Springer, Berlin, Heidelberg, 272-279 (2006) [ Links ]

Astaiza-Hoyos, E., Bermúdez-Orozco, H. y Muñoz, F. Sensado de Espectro Local de Banda Ancha para Radios Cognitivos Multi-antena basado en Compleción de Matrices y Muestreo Sub-Nyquist Uniforme en el Dominio Disperso, Información Tecnológica, 28(3), 185-196 (2017) [ Links ]

Bahmani, S. y Romberg, J.K. Sketching for simultaneously sparse and low-rank covariance matrices. In 6th IEEE International Workshop on Computational Advances in Multi-Sensor Adaptive Processing, CAMSAP 2015, Cancun, Mexico, pp. 357-360, 13-16 de December (2015) [ Links ]

Bai, J. y Shi, S. Estimating High Dimensional Covariance Matrices and its Applications, Annals of Economics and Finance, 12, 199-215 (2011) [ Links ]

Bickel, P.J. y Levina, E. Covariance regularization by thresholding, The Annals of Statistics, 36, 2577-2604 (2008) [ Links ]

Bioucas-Dias, J.M., Cohen, D. e Eldar, Y.C. Covalsa: Covariance estimation from compressive measurements using alternating minimization. In 2014 22nd European Signal Processing Conference (EUSIPCO), 999-1003 (2014) [ Links ]

Boutsidis, C., Mahoney, M. y Drineas, P. An Improved Approximation Algorithm for the Column Subset Selection Problem. In Proceedings of the Twentieth Annual ACM-SIAM Symposium on Discrete Algorithms, (Society for Industrial and Applied Mathematics), 968-977 (2009) [ Links ]

Boutsidis, C., Drineas, P. y Magdon-Ismail, M. Near-Optimal Column-Based Matrix Reconstruction, SIAM J. Comput., 43, 687-717 (2014) [ Links ]

Boyd, S. y Vandenberghe, L. Convex Optimization, New York, NY, USA, Cambridge University Press (2004) [ Links ]

Bryan, K. y Leise, T. Making Do with Less: An Introduction to Compressed Sensing, SIAM Rev., 55, 547-566 (2013) [ Links ]

Cai, T. y Liu, W. Adaptive Thresholding for Sparse Covariance Matrix Estimation, ArXiv11022237 Stat (2011) [ Links ]

Cai, T.T. y Yuan, M. Adaptive covariance matrix estimation through block thresholding, Ann. Stat., 40, 2014-2042 (2012) [ Links ]

Candès, E.J., The restricted isometry property and its implications for compressed sensing, Comptes Rendus Math., 346, 589-592 (2008) [ Links ]

Candès, E.J., Strohmer, T. y Voroninski, V. PhaseLift: Exact and Stable Signal Recovery from Magnitude Measurements via Convex Programming. Commun. Pure Appl. Math., 66, 1241-1274 (2013) [ Links ]

Chen, Y., Chi, Y. y Goldsmith, A.J. Exact and Stable Covariance Estimation from Quadratic Sampling via Convex Programming. Inf. Theory IEEE Trans. Appear (2015) [ Links ]

Dasarathy, G., Shah, P., Bhaskar, B.N. y Nowak, R.D. Sketching Sparse Matrices, Covariances, and Graphs via Tensor Products. Inf. Theory IEEE Trans., On 61, 1373-1388 (2015) [ Links ]

Davenport, M.A. y Romberg, J. An Overview of Low-Rank Matrix Recovery From Incomplete Observations, IEEE J. Sel. Top. Signal Process, 10, 608-622 (2016) [ Links ]

Davies, M.E. e Eldar, Y.C. Rank Awareness in Joint Sparse Recovery, IEEE Trans. Inf. Theory, 58, 1135-1146 (2012) [ Links ]

Drineas, P. y Kannan, R. Pass Efficient Algorithms for Approximating Large Matrices. In Proceedings of the Fourteenth Annual ACM-SIAM Symposium on Discrete Algorithms, Philadelphia, PA, USA, Society for Industrial and Applied Mathematics, pp. 223-232 (2003) [ Links ]

Drineas, P. y Zouzias, A. A note on element-wise matrix sparsification via a matrix-valued Bernstein inequality. Inf. Process. Lett., 111, 385-389 (2011) [ Links ]

Foucart, S. y Rauhut, H. A Mathematical Introduction to Compressive Sensing, New York, Birkhäuser (2013) [ Links ]

Ghashami, M., Liberty, E., Phillips, J. y Woodruff, D. Frequent Directions: Simple and Deterministic Matrix Sketching, SIAM J. Comput. , 45, 1762-1792 (2016) [ Links ]

Gilbert, A. y Indyk, P. Sparse Recovery Using Sparse Matrices. Proc. IEEE, 98, 937-947 (2010) [ Links ]

Guan, Y., Lu, T. y otros cuatro autores, Efficient low-rank supported extreme learning machine for robust face recognition, In 2016 Visual Communications and Image Processing (VCIP), 1-4 (2016) [ Links ]

Horn, R.A. y Johnson, C.R. Topics in Matrix Analysis, Cambridge University Press (1994) [ Links ]

Krim, H. y Viberg, M. Two decades of array signal processing research: the parametric approach. IEEE Signal Process. Mag., 13, 67-94 (1996) [ Links ]

Kwan, C., An Introduction to Shrinkage Estimation of the Covariance Matrix: A Pedagogic Illustration, Spreadsheets Educ. EJSiE, 4 (2011) [ Links ]

Ledoit, O. y Wolf, M. Improved estimation of the covariance matrix of stock returns with an application to portfolio selection, J. Empir. Finance, 10, 603-621 (2003) [ Links ]

Ledoit, O. y Wolf, M. A well-conditioned estimator for large-dimensional covariance matrices, J. Multivar. Anal., 88, 365-411 (2004) [ Links ]

Ledoit, O. y Wolf, M. Nonlinear shrinkage estimation of large-dimensional covariance matrices, The Annals of Statistics , 40, 1024-1060 (2012) [ Links ]

Leus, G. y Tian, Z. Recovering second-order statistics from compressive measurements. In 2011 4th IEEE International Workshop on Computational Advances in Multi-Sensor Adaptive Processing (CAMSAP), pp. 337-340 (2011) [ Links ]

Liu, Z. y Vandenberghe, L. Interior-Point Method for Nuclear Norm Approximation with Application to System Identification, SIAM J. Matrix Anal. Appl., 31, 1235-1256 (2009) [ Links ]

Pedarsani, R., Lee, K. y Ramchandran, K. Sparse covariance estimation based on sparse-graph codes. In 2015 53rd Annual Allerton Conference on Communication, Control, and Computing (Allerton), 612-619 (2015) [ Links ]

Rothman, A.J., Levina, E. y Zhu, J. Generalized Thresholding of Large Covariance Matrices, J. Am. Stat. Assoc., 104, 177-186 (2009) [ Links ]

Sahinoglou, H. y Cabrera, S.D. On phase retrieval of finite-length sequences using the initial time sample. IEEE Trans. Circuits Syst., 38, 954-958 (1991) [ Links ]

Shannon, C.E., A Mathematical Theory of Communication. SIGMOBILE Mob Comput. Commun. Rev., 5, 3-55 (2001) [ Links ]

Tropp, J.A., An Introduction to Matrix Concentration Inequalities, Found. Trends® Mach, Learn, 8, 1-230 (2015) [ Links ]

Vershynin, R., How Close is the Sample Covariance Matrix to the Actual Covariance Matrix? J. Theor. Probab., 25, 655-686 (2012) [ Links ]

Walden, A.T. y Schneider-Luftman, D. Random Matrix Derived Shrinkage of Spectral Precision Matrices. IEEE Trans. Signal Process, 63, 4689-4699 (2015) [ Links ]

Wang, M., Li, K. y otros tres autores, 3-D motion recovery via low rank matrix analysis. In 2016 Visual Communications and Image Processing (VCIP), 1-4 (2016) [ Links ]

Yu, B., Ding, Y., Huang, X. y Wu, B. , Corrupted old film sequences restoration using improved PatchMatch and low-rank matrix recovery. In 2016 International Conference on Audio, Language and Image Processing (ICALIP), 295-300 (2016) [ Links ]

Recibido: 26 de Octubre de 2017; Aprobado: 11 de Enero de 2018

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons