x
1

Análisis discriminante lineal



Análisis Discriminante Lineal (ADL, o LDA por sus siglas en inglés) es una generalización del discriminante lineal de Fisher, un método utilizado en estadística, reconocimiento de patrones y aprendizaje de máquinas para encontrar una combinación lineal de rasgos que caracterizan o separan dos o más clases de objetos o eventos. La combinación resultante puede ser utilizada como un clasificador lineal, o, más comúnmente, para la reducción de dimensiones antes de la posterior clasificación.

LDA está estrechamente relacionado con el análisis de varianza (ANOVA) y el análisis de regresión, el cual también intenta expresar una variable dependiente como la combinación lineal de otras características o medidas.[1][2]​ Sin embargo, ANOVA usa variables independientes categóricas y una variable dependiente continua, mientras que el análisis discriminante tiene variables independientes continuas y una variable dependiente categórica (o sea, la etiqueta de clase). La regresión logística y la regresión probit son más parecidas a ADL que ANOVA, pues también explican una variable categórica por los valores de variables independientes continuas. Estos otros métodos son preferibles en aplicaciones donde no es razonable asumir que las variables independientes están normalmente distribuidas, lo cual es una suposición fundamental del método ADL.

ADL está también estrechamente relacionado con el análisis de componente principal (ACP) y el análisis factorial en que ambos buscan combinaciones lineales de variables que explican mejor los datos.[3]​ ADL explícitamente intenta modelar la diferencia entre las clases de datos. ACP por otro lado no toma en cuenta cualquier diferencia entre las clases, y el análisis factorial construye las combinaciones de características basadas en las diferencias en vez de las semejanzas. El análisis discriminante es también diferente del análisis factorial en que no es una técnica de independencia: una distinción entre las variables independientes y las variables dependientes (también llamadas variables de criterio) debe estar hecha.

ADL funciona cuando las medidas hechas sobre las variables independientes para cada observación son valores continuos. Al ocuparse de variables independientes categóricas, la técnica equivalente es el análisis discriminante de correspondencia.[4][5]

Considere un conjunto de observaciones (también llamadas características, atributos, variables o medidas) para cada muestra de un objeto o evento con clase conocida y. Este conjunto de muestras es conocido como conjunto de entrenamiento. El problema de clasificación consiste en encontrar a un buen estimador para la clase y de cualquier ejemplo con la misma distribución (no necesariamente del conjunto de entrenamiento) dada solamente una observación .[6]:338

ADL enfrenta el problema asumiendo que las funciones de densidad de las probabilidades condicionales y siguen una distribución normal con parámetros de media y covarianza , respectivamente. Bajo esta suposición, la solución óptima de Bayes es predecir puntos como en la segunda clase si el registro de las proporciones de probabilidad está debajo de algún umbral T, de tal modo que:

Más allá de cualquier suposición el clasificador resultante es referido como análisis discriminante cuadrático (ADC).

ADL en lugar de eso hace la suposición simplificadora adicional de homocedasticidad (las covarianzas de las clase son idénticas, con ) y que las covarianzas tengan rango completo. En este caso, varios términos se cancelan:

y el anteriormente citado criterio de decisión se convierte en un umbral en el producto dot

para alguna constante de umbral c, donde

Esto quiere decir que el criterio de la entrada , siendo y una clase, es puramente una función de esta combinación lineal de las observaciones conocidas.

Esto es frecuentemente útil para ver esta conclusión en términos geométricos: el criterio de una entrada en una clase y es puramente una función de proyección de puntos en el espacio-multidimensional sobre el vector (así, solo se considera su dirección). En otras palabras, la observación forma parte de y, si la correspondiente está ubicada en un cierto lado de un hiperplano perpendicular a . La localización del plano está definida por el umbral c.

El análisis discriminante canónico (ADC) busca los ejes (k – 1 coordenadas canónicas, donde k es el número de clases) que mejor separan las categorías. Estas funciones lineales no están correlacionadas y definen, en efecto, un espacio óptimo k – 1 a través del conjunto n-dimensional de datos que mejor separa (las proyecciones en ese espacio) los k grupos. Ver ADL multiclase debajo para más detalles.

Los términos de discriminante lineal de Fisher y ADL son a menudo usados para expresar la misma idea, aunque el artículo original de Fisher realmente describe un discriminante ligeramente diferente, que no hace algunas de las suposiciones de ADL como una distribución normal de las clases o covarianzas iguales entre las clases.[1]

Suponga que dos clases de observaciones tienen medias y covarianzas . Entonces, la combinación lineal de características , tendrá medias y varianzas para . Fisher definió la separación entre estas dos distribuciones por la proporción de la varianza entre las clases, entre la varianza dentro de las clases:

Esta medida es, en cierto sentido, una medida de la proporción de la señal de ruido para el etiquetado de clases. Puede demostrarse que la separación máxima ocurre cuando

Cuando las suposiciones de ADL son satisfechas, la ecuación citada anteriormente es equivalente a ADL.

Es notable ver que es el vector normal al hiperplano discriminante. Como ejemplo, en problemas bidimensionales, la línea que mejor divide los dos grupos es perpendicular a .

Generalmente, los puntos de datos que serán discriminados son proyectados sobre , entonces el umbral que mejor separa los datos es escogido del análisis de la distribución en una dimensión. No hay regla general para el umbral. Sin embargo, si las proyecciones de puntos de ambas clases exhiben aproximadamente las mismas distribuciones, una buena elección sería el hiperplano entre las proyecciones de las dos medias y . En este caso el parámetro c en condición del umbral , puede ser encontrado explícitamente:

El método Otsu está relacionado con el discriminante lineal de Fisher, y se creó para binarizar el histograma de píxeles de una imagen en escala de grises, escogiendo óptimamente el umbral negro/blanco que minimiza la varianza dentro de las clases y maximiza la varianza entre las clases, de la escala de grises asignada a las clases de píxeles blanco y negro.

En el caso donde existen más de dos clases, el análisis utilizado se deriva del discriminante de Fisher, que puede ser extendido para encontrar un subspacio que parezca contener toda la variabilidad de la clase. Esta generalización es debido a C. R. Rao.[7]​ Suponga que cada una de las clases C tiene una media y la misma covarianza . Entonces, la dispersión entre la variabilidad de las clases puede ser definida por la covarianza de las medias de las clases

donde es la media de las medias de las clases. La separación de clases en una dirección será dada en este caso por

Esto significa que cuando es un vector propio de , la separación será igual a su correspondiente valor propio.

Si es diagonalizable, la variabilidad entre las características estará contenida en el subespacio abarcado por los vectores propios correspondientes a los C – 1 valores propios más grandes (si está en el rango de C – 1 a lo sumo). Estos vectores propios son primordialmente usados en la reducción de características, como en ACP. Los vectores propios correspondientes a los valores propios más pequeños tienden a ser muy sensibles a la elección exacta de los datos de entrenamiento, y es usualmente necesario usar regularización como se describe en la siguiente sección.

Si la clasificación es requerida, en lugar de reducir la dimensión, hay un número de técnicas alternativas disponibles. Por ejemplo, las clases pueden estar particionadas, y el discriminante estándar de Fisher o ADL pueden ser usados para clasificar cada partición. Un ejemplo común de esto es "uno contra el resto" donde los puntos de una clase son agrupados, y todos lo demás puestos en otro grupo, y luego se aplica el ADL. Esto dará como resultado C clasificadores, cuyos resultados se combinan. Otro método común es la clasificación por parejas, donde un nuevo clasificador es creado para cada par de clases (dando C(C − 1)/2 clasificadores en total), con los clasificadores individuales combinados para producir una clasificación final.

La implementación típica de la técnica ADL requiere que todos los ejemplos estén disponibles por adelantado. Sin embargo, hay situaciones donde el conjunto de datos no está disponible en su totalidad y los datos de entrada son observados como un flujo. En este caso, es conveniente para la extracción de características por ADL, tener la habilidad de actualizar las características computadas por ADL, observando nuevos ejemplos sin correr el algoritmo sobre la totalidad del conjunto de datos. Por ejemplo, en muchas aplicaciones en tiempo real como la robótica móvil o el reconocimiento de caras en línea, es importante actualizar las características extraídas por ADL tan pronto como las observaciones nuevas estén disponibles. Una técnica de extracción que puede actualizar las características de ADL es simplemente observando los nuevos ejemplos. Este es un algoritmo ADL incremental, y su idea ha sido extensamente estudiada en las dos últimas décadas.[8]​ Catterjee y Roychowdhury propusieron un algoritmo ADL incremental que se organiza por sí solo para actualizar las características ADL.[9]​ En otro trabajo, Demir y Ozmehmet propusieron algoritmos de aprendizaje locales en línea, para actualizar características ADL incrementalmente utilizando la corrección de errores y las reglas de aprendizaje de Hebbian.[10]​ Posteriormente Aliyari derivó algoritmos incrementales rápidos para actualizar las características ADL observando los nuevos ejemplos.[8]

En la práctica, las medias de las clases y las covarianzas no son conocidas. Estas, sin embargo, pueden ser estimadas por medio del conjunto de entrenamiento. Ya sea la estimación de la máxima verosimilitud, o la estimación máxima a posteriori, pueden ser usadas en lugar del valor exacto en las anteriormente citadas ecuaciones. Aunque las estimaciones de la covarianza pueden ser consideradas óptimas en ciertos casos, esto no quiere decir que el discriminante resultante obtenido de sustituir estos valores es óptimo en cualquier caso, aun si la suposición de clases normalmente distribuidas es correcta.

Otra complicación en aplicar ADL y el discriminante de Fisher a los datos reales ocurre cuando el número de medidas de cada ejemplo excede el número de ejemplos en cada clase.[3]​ En este caso, las estimaciones de la covarianza no tienen un rango completo, y así no puede ser invertida. Hay un número de formas para lidiar con esto. Una es usar la seudo inversa en lugar de la inversa utilizada en las fórmulas anteriores. Sin embargo, la mejor estabilidad numérica puede ser lograda primeramente proyectando el problema en el subespacio abarcado por .[11]​ Otra estrategia para lidiar con un tamaño pequeño de los ejemplos es usar un estimador reducción de la matriz de covarianzas, el cual puede ser expresado matemáticamente como:

donde es la matriz identidad, y es la intensidad de reducción o parámetro de regularización. Esto conduce a un análisis discriminante regularizado o análisis discriminante de reducción o encogimiento.[12][13]

También, en muchos casos prácticos los discriminantes lineales no resultan adecuados. El ADL y el discriminante de Fisher pueden ser extendidos para el uso de la clasificación no lineal, usando el truco del kernel. Aquí, las observaciones originales son mapeadas efectivamente dentro de un espacio dimensional no lineal mayor. La clasificación lineal en este espacio no lineal, es entonces equivalente a la clasificación no lineal en el espacio original. El ejemplo más comúnmente utilizado para esto es el kernel del discriminante de Fisher.

ADL puede ser generalizado para el análisis discriminante múltiple, dónde c se convierte en una variable categórica con N estados posibles, en lugar de solo dos. Análogamente, si las densidades de clases condicionales son normales, con covarianzas compartidas, entonces la estadística suficiente para son los valores de las N proyecciones, los cuales están en el subespacio abarcado por las N medias, proyectados por la inversa de la matriz de covarianza. Estas proyecciones pueden ser encontradas solucionando el problema generalizado del valor propio, dónde el numerador es la matriz de covarianzas formada por las medias de los ejemplos, y el denominador es la matriz de covarianzas compartidas.

Además de los ejemplos anteriormente dados, ADL es aplicado en posicionamiento y administración de productos.

En la predicción de bancarrota, basada en considerar proporciones y otras variables financieras, el análisis discriminante lineal fue el primer método estadístico aplicado sistemáticamente para explicar cuáles empresas entraron en bancarrota vs. supervivencia. A pesar de las limitaciones de ADL de considerar una distribución normal, el modelo de Edward Altman de 1968 es todavía un modelo esencial en aplicaciones prácticas.

En el reconocimiento de caras computarizado, cada cara es representada por un gran número de valores de píxeles. El análisis discriminante lineal es primordialmente usado aquí para reducir el número de características a un número más práctico antes de la clasificación. Cada una de las nuevas dimensiones son una combinación lineal de valores de los píxeles, los cuales forman una plantilla. Las combinaciones lineales obtenidas usando el discriminante lineal de Fisher son denominadas ''caras de Fisher'', mientras que aquellas obtenidas usando el análisis de componente principal son denominadas ''caras propias''.

En el márketing, el análisis discriminante es usado a menudo para determinar los factores que distinguen tipos diferentes de clientes y/o productos, sobre la base de las encuestas u otras formas de recopilación de datos. La regresión logística u otros métodos son ahora más comúnmente usados. El uso del análisis discriminante en el márketing puede estar descrito por los siguientes pasos:

La aplicación principal del análisis discriminante en medicina es la valoración del estado de severidad en los pacientes y prognosis de los resultados de la enfermedad. Por ejemplo, durante el análisis retrospectivo, los pacientes están divididos en grupos según la severidad de la enfermedad – ligera, moderada y severa. Luego los resultados del análisis clínico y de laboratorio son estudiados para revelar variables que son estadísticamente diferentes en los grupos estudiados. Usando estas variables las funciones discriminantes se construyen, lo cual ayuda a clasificar objetivamente la magnitud de la enfermedad en un futuro paciente en ligera, moderada o severa.

En la biología, principios similares son usados para clasificar y definir grupos de diferentes objetos biológicos, por ejemplo, para definir tipos de fagos de Salmonella enteritidis, basados en el espectro infrarrojo de la transformada de Fourier, para detectar una fuente animal de Escherichia coli, estudiando sus factores de virulencia, etc.[14][15]

Este método puede ser utilizado para separar las zonas de alteración. Por ejemplo, cuando datos diferentes de zonas diversas están disponibles, el análisis discriminante puede encontrar un patrón dentro de los datos y clasificarlos eficazmente.[16]



Escribe un comentario o lo que quieras sobre Análisis discriminante lineal (directo, no tienes que registrarte)


Comentarios
(de más nuevos a más antiguos)


Aún no hay comentarios, ¡deja el primero!