Sabemos qué es la estadística, pero ¿qué pasa con el Machine Learning? Es la rama de la Inteligencia Artificial que busca comprender la naturaleza de los datos mediante la revisión automatizada de datos para diferentes tareas como: predicciones de valores, clasificación, clustering… Normalmente, esto es tan sencillo como tomar el modelo estadístico lineal: Predicción = m · Datos + c. Y desarrollar un algoritmo que calcule automáticamente los coeficientes m y c cada vez que cambie el número de datos.
Entonces, ¿qué es el Deep Learning?
Es una extensión del Machine Learning que busca lograr una mayor automatización en el análisis de datos y reconocimiento de patrones imitando la forma en que funciona el cerebro humano (Redes Neuronales). Puede ofrecer soluciones a modelos que el Machine Learning convencional no es capaz de comprender, a cambio de un notable aumento de la complejidad y el consumo de recursos que dificulta, entre otras cosas, su implementación en tiempo real.
Entonces… ¿Es mejor utilizar Machine Learning o Deep Learning? ¿O deberíamos quedarnos con las estadísticas básicas? La respuesta es… depende. Las tres opciones nos ofrecen herramientas útiles y potentes que dan excelentes resultados. Corresponde al analista decidir cuál de estas herramientas utilizar.
Gracias a estas herramientas podemos calcular la probabilidad de que una pieza esté defectuosa. Podemos calcularlo en cada Estación de Trabajo donde se recojan datos y así evitar desperdiciar recursos en una pieza que va a resultar defectuosa.
A través de este know-how, hemos logrado grandes logros como reducir una tasa de rechazo del 12%, que genera un costo de chatarra de millones por año, a una tasa de rechazo del 1,4%.
Compartir este artículo