Lema de Johnson-Lindenstrauss

De Wikipedia, la enciclopedia libre

En matemáticas, el lema de Johnson-Lindenstrauss es un resultado que lleva el nombre de William B. Johnson y Joram Lindenstrauss sobre encajes de puntos de baja distorsión, desde el espacio euclídeo de alta dimensión al espacio euclídeo de baja dimensión. El lema establece que un conjunto de puntos en un espacio de dimensión alta se puede incrustar en un espacio de dimensión mucho más baja de tal manera que las distancias entre los puntos casi se conservan. El mapa utilizado para el encaje es al menos lipschitziano, e incluso puede tomarse como una proyección ortogonal.

El lema tiene aplicaciones en detección comprimida, aprendizaje de variedades, reducción de dimensionalidad y embebido de grafos. Gran parte de los datos almacenados y manipulados en las computadoras, incluyendo texto e imágenes, se pueden representar como puntos en un espacio de alta dimensión (consúltese el artículo modelo de espacio vectorial para el caso del texto). Sin embargo, los algoritmos esenciales para trabajar con dichos datos tienden a funcionar cada vez con mayor lentitud a medida que aumenta la dimensión. Por lo tanto, es deseable reducir la dimensionalidad de los datos de una manera que conserve su estructura relevante. El lema de Johnson-Lindenstrauss es un resultado clásico en este sentido.

Además, el lema es estrecho módulo un factor constante, es decir que existe un conjunto de puntos de tamaño m que necesita dimensión

para que se puedan preservar las distancias entre todos los pares de puntos dentro de un factor de .[1][2]

Lema[editar]

Dado , un conjunto de puntos en ( ), y un número entero  , existe un mapa lineal tal que

para todos .

La fórmula se puede reorganizar como sigue:

Alternativamente, para cualquier y cualquier entero [Nota 1]​ existe una función lineal tal que la restricción es - bi-lipschitziana.[Nota 2]

Una prueba del lema toma ƒ como un múltiplo adecuado de la proyección ortogonal sobre un subespacio aleatorio de dimensión en , y explota el fenómeno de la concentración de la medida.

En general, una proyección ortogonal reducirá la distancia promedio entre los puntos, pero se puede considerar que el lema trata con distancias relativas, que no cambian con la escala. En pocas palabras, tiras los dados y obtienes una proyección aleatoria, que reducirá la distancia promedio, y luego aumentas las distancias para que la distancia promedio vuelva a su valor anterior. Si continúa tirando los dados, encontrará, en tiempo aleatorio polinomial, una proyección para la cual las distancias (escaladas) satisfacen el lema.

Declaración alternativa del lema[editar]

Un lema relacionado es el lema distribucional JL. Este lema establece que para cualquier y entero positivo , existe una distribución probabilística sobre el espacio de donde la matriz se toma tal que para y para cualquier vector de longitud unitaria , se mantiene la siguiente afirmación.[3]

Se puede obtener el lema JL de la versión distribucional definiendo y para algún par ambos en . Entonces el lema JL sigue por una cuota de unión sobre todos esos pares.

Aceleramiento de la transformación JL[editar]

Dado A, calcular el producto vectorial de la matriz toma tiempo . Ha habido investigación en la derivación de distribuciones para las cuales el producto vectorial de matrices se puede calcular en tiempo menor que .

Hay dos grandes líneas de trabajo. La primera, Fast Johnson Lindenstrauss Transform (FJLT),[4]​ fue presentada por Ailon y Chazelle en 2006. Este método permite calcular el producto matriz-vector en tan solo para cualquier constante .

Otro enfoque es construir una distribución compatible con matrices que son dispersas.[5]​ Este método permite mantener sólo un fracción de las entradas en la matriz, lo que significa que el cálculo se puede hacer en tiempo tan solo . Además, si el vector tiene sólo entradas distintas de cero, el Lema JL disperso toma tiempo , que puede ser mucho menor que el tiempo utilizado por el Lema JL rápido, que es .

Proyecciones aleatorias tensorizadas[editar]

Es posible combinar dos matrices JL tomando el llamado producto de división de caras, que se define como los productos tensoriales de las filas (propuesto por V. Slyusar[6]​ en 1996[7][8][9][10][11]​ para aplicaciones de conjuntos de antenas digitales y de radares ). Más concretamente, sean y dos matrices. Entonces el producto de división de cara es dado por[7][8][9][10][11]

La idea de tensorización fue utilizada por Kasiviswanathan et al. 2010[12]​ para la rama de privacidad diferencial.

Las matrices JL definidas así usan menos bits aleatorios y se pueden aplicar rápidamente a vectores que tienen estructura tensorial, debido a la siguiente identidad:[9]

,

dónde es el producto entrada por entrada (Hadamard). Dichos cálculos se han utilizado para calcular de manera eficiente los núcleos polinómicos y muchos otros algoritmos de álgebra lineal.[13]

En 2020[14]​ se demostró que si las matrices son matrices independientes con entradas o Gaussianas, la matriz combinada satisface el lema distribucional JL si el número de filas es al menos

.

Para valores grandes de esto es tan bueno como el Lema Johnson-Lindenstrauss completamente aleatorio, pero un límite inferior coincidente en el mismo documento muestra que esta dependencia exponencial de es necesaria. Se sugieren construcciones JL alternativas para evitar esta circunstancia.

Véase también[editar]

Notas[editar]

  1. O cualquier entero
  2. Este resultado se deriva del resultado anterior. Bosquejo de la demostración: Nótese que y para todo . Analícense los casos para 1=m y 1<m, aplicando el resultado anterior a en el último caso, teniendo en cuenta que

Referencias[editar]

  1. . Proceedings of the 58th Annual IEEE Symposium on Foundations of Computer Science (FOCS). 2017. pp. 633-638. doi:10.1109/FOCS.2017.64. 
  2. Nielsen, Frank (2016). «10. Fast approximate optimization in high dimensions with core-sets and fast dimension reduction». Introduction to HPC with MPI for Data Science. Springer. pp. 259-272. ISBN 978-3-319-21903-5. 
  3. Johnson, William B. (1984). Beals, Richard, ed. Conference in modern analysis and probability (New Haven, Conn., 1982) 26. Providence, RI: American Mathematical Society. pp. 189–206. ISBN 0-8218-5030-X. doi:10.1090/conm/026/737400. 
  4. Ailon, Nir (2006). «Approximate nearest neighbors and the fast Johnson–Lindenstrauss transform». Proceedings of the 38th Annual ACM Symposium on Theory of Computing. New York: ACM Press. pp. 557-563. ISBN 1-59593-134-1. doi:10.1145/1132516.1132597. 
  5. Kane, Daniel M.; Nelson, Jelani (2014). «Sparser Johnson-Lindenstrauss Transforms». Journal of the ACM 61 (1): 1. arXiv:1012.1577. doi:10.1145/2559902. . A preliminary version of this paper was published in the Proceedings of the Twenty-Third Annual ACM-SIAM Symposium on Discrete Algorithms, 2012.
  6. Anna Esteve, Eva Boj & Josep Fortiana (2009): Interaction Terms in Distance-Based Regression, Communications in Statistics - Theory and Methods, 38:19, P. 3501
  7. a b Slyusar, V. I. (27 de diciembre de 1996). «End products in matrices in radar applications.». Radioelectronics and Communications Systems 41 (3): 50-53. 
  8. a b Slyusar, V. I. (20 de mayo de 1997). «Analytical model of the digital antenna array on a basis of face-splitting matrix products.». Proc. ICATT-97, Kyiv: 108-109. 
  9. a b c Slyusar, V. I. (15 de septiembre de 1997). «New operations of matrices product for applications of radars». Proc. Direct and Inverse Problems of Electromagnetic and Acoustic Wave Theory (DIPED-97), Lviv.: 73-74. 
  10. a b Slyusar, V. I. (13 de marzo de 1998). «A Family of Face Products of Matrices and its Properties». Cybernetics and Systems Analysis C/C of Kibernetika I Sistemnyi Analiz.- 1999. 35 (3): 379-384. doi:10.1007/BF02733426. 
  11. a b Slyusar, V. I. (2003). «Generalized face-products of matrices in models of digital antenna arrays with nonidentical channels». Radioelectronics and Communications Systems 46 (10): 9-17. 
  12. Kasiviswanathan, Shiva Prasad, et al. "The price of privately releasing contingency tables and the spectra of random matrices with correlated rows." Proceedings of the forty-second ACM symposium on Theory of computing. 2010.
  13. Woodruff, David P. "Sketching as a Tool for Numerical Linear Algebra." Theoretical Computer Science 10.1-2 (2014): 1-157.
  14. . ACM-SIAM Symposium on Discrete Algorithms. Association for Computing Machinery. 2020. doi:10.1137/1.9781611975994.9. 

Lecturas adicionales[editar]