Pregunta:
Supongamos que tengo $ n $ fuentes independientes, $ X_1, X_2, …, X_n $ y observo $ m $ mezclas convexas: \ begin {align} Y_1 & = a_ {11} X_1 + a_ {12} X_2 + \ cdots + a_ {1n} X_n \\ … & \\ Y_m & = a_ {m1} X_1 + a_ {m2} X_2 + \ cdots + a_ {mn} X_n \ end {align}
con $ \ sum_j a_ {ij} = 1 $ para todos los $ i $ y $ a_ {ij} \ ge 0 $ para todos los $ i, j $.
¿Cuál es el estado del arte para recuperar $ X $ de $ Y $?
PCA está fuera de discusión porque necesito que los componentes sean identificables. He analizado ICA y NMF: no puedo encontrar ninguna forma de imponer la no negatividad de los coeficientes de mezcla para ICA, y NMF no parece maximizar la independencia.
Respuesta:
Se podría lograr utilizando una no linealidad exponencial en lugar del típico / predeterminado tanh (), si X tampoco es negativo.
Fórmula 40 en https://www.cs.helsinki.fi/u/ahyvarin/papers/NN00new.pdf y disponible en la mayoría de las implementaciones.
Por ejemplo, en sklearn simplemente use fun = 'exp' https://scikit-learn.org/stable/modules/generated/sklearn.decomposition.FastICA.html