Explicación corta
Proyecto "Reconocimiento de expresión" tiene como objetivo reconocer las expresiones faciales humanas utilizando el método de la red neuronal convolucional (CNN). El algoritmo CNN se aplica para analizar datos visuales como imágenes faciales en formato en escala de grises, que luego se clasifica en siete categorías de expresiones básicas: feliz, triste, enojado, conmocionado, miedo, disgusto y neutral. Este modelo está capacitado utilizando el conjunto de datos FER2013 y alcanzó con éxito una precisión del 91.67% después del entrenamiento para 500 Epoch.
Proyecto de objetivos
Proyecto "Reconocimiento de expresión cara" es el final del curso de inteligencia artificial donde en este proyecto hay logros que deben lograrse, incluidos:
Desarrollar un sistema de introducción de la expresión facial basada en la inteligencia artificial.
Se espera que este sistema pueda identificar las emociones que irradian de las expresiones faciales automáticamente y con precisión.
- experimentando con algoritmos de aprendizaje automático para aumentar la precisión de las expresiones faciales.
En este proyecto, se prueba el algoritmo CNN para comprender hasta qué punto este modelo puede reconocer patrones complejos en los dibujos faciales. Este esfuerzo también incluye optimizar los parámetros del modelo, los datos de capacitación adicionales y el uso de métodos de aumento de datos.
-
Pila tecnológica utilizada
marco: Python usa biblioteca como tensorflow/difícil de implementar CNN.
DataSet: el conjunto de datos utilizado es FER2013 (reconocimiento de expresión facial 2013), que contiene 35,887 imágenes de escala de grises con dimensiones de 48x48 píxeles. Estas imágenes están equipadas con una etiqueta que incluye siete categorías de expresión básica.
Herramientas: -
-
numpy y pandas para la manipulación de datos.
- matplotlib para visualización.
Haar Cascade para la detección de la cara de la cámara.
Enojado
-
Neutral
-
sorprendido
-
Asustado
-
Desagradable
-
El problema y cómo lato con él
-
- El problema de las diferencias de iluminación que afectan el nivel de precisión.
Las variaciones de iluminación pueden afectar la precisión del modelo. Para superar esto, la normalización de los datos se lleva a cabo para garantizar que la iluminación en la imagen sea más uniforme para que los patrones en la imagen se puedan reconocer mejor.
complejidad de expresiones similares.
Algunas expresiones, como "miedo" y "sorprendido", tienen características similares que son difíciles de distinguir por los modelos. La solución aplicada es llevar a cabo el aumento de datos, como la rotación, el zoom, el volteo y los cambios de contraste para mejorar la capacidad de la generalización de los modelos de nuevos datos.
DataSet que es bastante limitado
DataSet FER2013, aunque bastante grande, no cubre una variedad de variaciones faciales a nivel mundial. Para enriquecer el conjunto de datos, utilizo la técnica de aumento de datos y agrego datos de otras fuentes relevantes para crear una mejor representación de las expresiones faciales.
-
Lecciones aprendidas
Este proyecto proporciona información sobre cómo se pueden utilizar sistemas basados en inteligencia artificial para reconocer las expresiones faciales. El proceso de desarrollo muestra su importancia:
-
Data Pra-Per-PermeSesia para manejar problemas de iluminación y mejorar la calidad de los datos.
Experimento de parámetros de entrenamiento para obtener combinaciones óptimas, como regular el número de época, tasa de aprendizaje y tamaño por lotes.
aumentando la diversidad de los datos de capacitación a través del aumento para mejorar el rendimiento del modelo de datos del mundo real.
- Al superar los desafíos existentes, este proyecto ha logrado construir un modelo de introducción de expresión facial que se puede aplicar a diversas aplicaciones, como la interacción humana-computadora, el análisis emocional y el monitoreo psicológico.