Using the Kullback-leibler Divergence and Kolmogorov-smirnov Test to Select Input Sizes to the Fault Diagnosis Problem Based on a Cnn Model

Rodrigo De Paula Monteiro, Carmelo Bastos-Filho, Mariela Cerrada Lozada, Diego Roman Cabrera Mendieta, Rene Vinicio Sanchez Loja

Research output: Contribution to journalArticle

Abstract

La elección de un tamaño adecuado para las representaciones de la señal, por ejemplo, los espectros de frecuencia, en un determinado problema de aprendizaje automático no es una tarea trivial. Puede afectar en gran medida al rendimiento de los modelos entrenados. Se han propuesto muchas soluciones para para resolver este problema. La mayoría de ellas se basan en el diseño de una entrada optimizada o en la selección de la entrada más adecuada según una búsqueda exhaustiva. En este trabajo, utilizamos la divergencia de Kullback-Leibler y el test de Kolmogorov-Smirnov para medir la disimilitud entre las representaciones de las señales que pertenecen a clases iguales y diferentes, es decir, medimos las disimilitudes intraclase e interclase. entre clases. Además, analizamos cómo se relaciona esta información con el rendimiento del clasificador. Los resultados sugieren que tanto Los resultados sugieren que tanto las disimilitudes interclase como las intraclase están relacionadas con la precisión del modelo, ya que indican la facilidad con la que un modelo puede aprender información discriminativa de los datos de entrada. Los ratios más elevados entre las disimilitudes medias interclase e intraclase se relacionaron con los clasificadores más precisos. Podemos utilizar esta información para seleccionar un tamaño de entrada adecuado para entrenar el modelo de clasificación. de clasificación. El enfoque se probó en dos conjuntos de datos relacionados con el diagnóstico de fallos en compresores alternativos.
Translated title of the contributionUso de la divergencia de Kullback-leibler y la prueba de Kolmogorov-smirnov para seleccionar tamaños de entrada para el problema de diagnóstico de fallas basado en un modelo de CNN
Original languageEnglish (US)
Pages (from-to)16-26
Number of pages11
JournalLearning and Nonlinear Models
Volume18
Issue number18
DOIs
StatePublished - 30 Jun 2021

Keywords

  • Deep learning
  • Input size selection
  • Kolmogorov-smirnov test
  • Kullback-leibler divergence

CACES Knowledge Areas

  • 116A Computer Science

Cite this