Abstract
La elección de un tamaño adecuado para las representaciones de la señal, por ejemplo, los espectros de frecuencia, en un determinado problema de aprendizaje automático no es una tarea trivial. Puede afectar en gran medida al rendimiento de los modelos entrenados. Se han propuesto muchas soluciones para para resolver este problema. La mayoría de ellas se basan en el diseño de una entrada optimizada o en la selección de la entrada más adecuada según una búsqueda exhaustiva. En este trabajo, utilizamos la divergencia de Kullback-Leibler y el test de Kolmogorov-Smirnov para medir la disimilitud entre las representaciones de las señales que pertenecen a clases iguales y diferentes, es decir, medimos las disimilitudes intraclase e interclase. entre clases. Además, analizamos cómo se relaciona esta información con el rendimiento del clasificador. Los resultados sugieren que tanto Los resultados sugieren que tanto las disimilitudes interclase como las intraclase están relacionadas con la precisión del modelo, ya que indican la facilidad con la que un modelo puede aprender información discriminativa de los datos de entrada. Los ratios más elevados entre las disimilitudes medias interclase e intraclase se relacionaron con los clasificadores más precisos. Podemos utilizar esta información para seleccionar un tamaño de entrada adecuado para entrenar el modelo de clasificación. de clasificación. El enfoque se probó en dos conjuntos de datos relacionados con el diagnóstico de fallos en compresores alternativos.
Translated title of the contribution | Uso de la divergencia de Kullback-leibler y la prueba de Kolmogorov-smirnov para seleccionar tamaños de entrada para el problema de diagnóstico de fallas basado en un modelo de CNN |
---|---|
Original language | English (US) |
Pages (from-to) | 16-26 |
Number of pages | 11 |
Journal | Learning and Nonlinear Models |
Volume | 18 |
Issue number | 18 |
DOIs | |
State | Published - 30 Jun 2021 |
Keywords
- Deep learning
- Input size selection
- Kolmogorov-smirnov test
- Kullback-leibler divergence
CACES Knowledge Areas
- 116A Computer Science