Codea Blog  

Blog Details

Future is now: Redes neuronales en voladura

I. INTRODUCCIÓN

En un mundo impulsado por la tecnología las diversas industrias han revolucionado drásticamente, y el campo de la minería no es una excepción. La implementación de soluciones tecnológicas avanzadas ha llevado a mejoras significativas en la eficiencia operativa, seguridad y toma de decisiones en la industria minera. Entre estas tecnologías, las redes neuronales han emergido como un recurso poderoso para la toma de decisiones optimas y basadas en grandes cantidades de información.

 

Es por ello, que el artículo tiene la finalidad de adentrar en el emocionante mundo de las redes neuronales, iniciando con una explicación de la teoría básica. Para así a lo largo del artículo, explorar diversas aplicaciones que demuestran cómo las redes neuronales están optimizando la predicción de vibraciones inducidas por voladuras, la estimación de fragmentación de roca y la proyección de roca durante las operaciones mineras.


II. REDES NEURONALES

Las redes neuronales o también conocida como Artificial Neural Networks (ANNs), son un conjunto de algoritmos que imitan la estructura y funciones de la Red Neuronal Biologica (BNN) del cerebro humano. Este modelo computacional está diseñado para procesar información y aprender patrones complejos de datos, por lo que es fundamental en el campo del aprendizaje automático y la inteligencia artificial.

 

Asimismo su funcionamiento se resume en la idea de nodos interconectados que colaboran entre sí para resolver problemas complejos y mejorar su rendimiento con el tiempo.

 

2.1. NEURONA ARTIFICIAL 

Es la unidad básica de procesamiento dentro de una red neuronal artificial. De la misma manera que una neurona biológica, una neurona artificial cuenta con conexiones de entrada por medio de las cuales recibe estímulos externos conocidos como los valores de entrada. Luego de procesar la información por medio de una función, la neurona devuelve un valor de salida.

 

Figura N1. Arquitectura feedforward de un red neuronal.

                            

 

2.1.1. Componentes de una neurona

• Entradas (x1, x2, ... xn): son los datos iniciales como variables o características del objeto a estudiar. Pueden ser de tipo numérico, imágenes, texto, audio, datos categóricos, entre otros.

• Pesos (w1, w2, ... wn): representa la importancia relativa de una entrada específica para el resultado final de la red, es por ello que cada neurona está unida a las otras neuronas a través de enlaces de conexión que llevan peso.

• Nodo: En este se realiza la suma ponderada de las entradas para poder identificar qué factores o entradas pueden ser más influyentes que otros en función de los pesos asignados.

• Función de activación: Esta función introduce no linealidad en la neurona artificial, permitiendo a la red neuronal modelar relaciones y patrones complejos en los datos.

• Salida: Representa la respuesta de la neurona a los datos de entrada y puede utilizarse como entrada para otras neuronas.

 

2.2. FUNCIÓN DE ACTIVACIÓN

La suma ponderada lineal, que es el resultado de multiplicar las entradas por sus respectivos pesos y luego sumarlos, podría llevar a que la red neuronal solo pueda aprender relaciones lineales simples, como si estuviera trazando una línea recta en un gráfico. Sin embargo, en la mayoría de los casos, los datos del mundo real no siguen patrones lineales tan simples.

 

Es aquí donde entra en juego la función de activación. Añadiendo una función de activación no lineal después de la suma ponderada, como la función ReLU, la red neuronal puede introducir curvas y dobleces en su comportamiento. Esto permite que la red modele patrones más complejos y represente datos que no son lineales.

 

Figura N2. Funciones de activación mas usados para redes neuronales.

                

 

2.2.1. Sigmoide

Transforma la suma ponderada a un rango entre 0 y 1, pero presenta problemas de gradiente desvaneciente en entrenamiento de redes profundas, ya que los valores de las derivadas se hacen pequeñas y a veces casi insignificantes en las capas anteriores. Como resultado, las capas iniciales de la red neuronal apenas aprenden o ajustan sus pesos, lo que puede llevar a que la red tenga un rendimiento deficiente en términos de aprendizaje y predicción.

 

2.2.1. Rectificación lineal - ReLU

Devuelve el valor mismo si es positivo, y cero si es negativo. Es simple, eficiente y evita problemas de gradientes desvanecientes. Cuando x es mayor que cero, la derivada es 1, lo que facilita la propagación del gradiente durante el entrenamiento y evita que los gradientes se vuelvan muy pequeños. Esto ayuda a que las capas anteriores en una red profunda puedan ajustar sus pesos de manera más efectiva.

 

2.2.1. Tangente Hiperbólica - Tanh

La función Tanh es parecida a la función sigmoide, pero tiene un rango entre -1 y 1 en lugar de 0 y 1. Esto significa que puede manejar datos con signos positivos y negativos, lo que puede ser útil en ciertos contextos.

 

Sin embargo, al igual que con la función sigmoide, la función Tanh también puede sufrir de gradientes desvanecientes en redes neuronales profundas, lo que puede ralentizar el proceso de entrenamiento.

 

Conoce más sobre las funciones de activación en el siguiente video.

 

 

 

 

2.3. CAPAS DE UNA RED NEURONAL

Las redes neuronales están compuestas por varias capas que trabajan en conjunto para procesar y transformar los datos de entrada en una salida deseada. Debido a las numerosas capas, a veces se las denomina MLP (Multi-Layer Perceptron).

 

Figura N3. Esquema basico de una red neural de tres capas.                            

 

 2.3.1. Input Layer - Capa de entrada

Esta capa recibe los datos de entrada y pasa la información a la red. Cada neurona en esta capa representa una característica o dimensión de los datos y no realiza ningún cálculo, simplemente pasa las señales hacia adelante.

 

 2.3.2. Hidden Layer - Capa oculta

 Las capas ocultas son donde ocurre la mayor parte del procesamiento en una red neuronal. Estas capas contienen neuronas que realizan cálculos complejos y transformaciones en los datos de entrada. Las redes neuronales profundas tienen múltiples capas ocultas, lo que les permite capturar patrones más sofisticados.

 

 2.3.2. Output Layer - Capa de salida

 La capa de salida produce los resultados finales de la red neuronal. La forma y el número de neuronas en esta capa dependen de la tarea que la red está realizando. Por ejemplo, en una tarea de clasificación, cada neurona podría representar una clase diferente.

 

2.4. APRENDIZAJE CON RETROPROPAGACIÓN

El algoritmo de retropropagación (backpropagation en inglés) es fundamental en el entrenamiento de redes neuronales, ya que permite ajustar los pesos de las conexiones entre neuronas para que la red pueda aprender de los datos y mejorar su capacidad para hacer predicciones o tomar decisiones.

 

El algoritmo primero, muestra datos a la red y obtiene respuestas. Luego, compara esas respuestas con las respuestas correctas y encuentra errores. El cálculo de gradientes es como una guía que dice cuánto deben cambiar los "interruptores" en la red para mejorar esas respuestas. La red sigue esta guía para ajustar sus "interruptores" y mejorar cada vez más. Así, con muchos ejemplos y ajustes, la red aprende a dar respuestas muy cercanas a las correctas.

 

Conoce más sobre el algortimo de backpropagation en el siguiente video.

 

 

 

 

2.4. RELACIÓN CON MACHINE Y DEEP LEARNING

 2.4.1. Machine Learning

Las redes neuronales son esenciales en el ámbito del aprendizaje automático, el cual se enfoca en crear algoritmos y modelos que capaciten a las computadoras para aprender de los datos y mejorar su desempeño en tareas particulares sin necesidad de programación directa.

 

 2.4.1. Deep Learning

El deep learning es una rama dentro del aprendizaje automático que se especializa en redes neuronales de gran profundidad, compuestas por múltiples capas. Estas redes neuronales profundas, tienen la habilidad de identificar patrones y rasgos sumamente complicados en los datos.

 


III. PREDICCIÓN DE VIBRACIONES

El artículo "Prediction of Ground Vibrations Using Neural Network in a Peruvian Mine" elaborado por estudiantes de la Universidad Nacional Mayor de San Marcos muestra cómo es posible aplicar las redes neuronales para abordar el desafío de estudiar y predecir las vibraciones del suelo causadas por la voladura.

 

Debido a los sistemas geológicos complejos los modelos empíricos tradicionales para predecir estas vibraciones tienen poca eficiencia, lo cual puede ser complementado con un modelo de Red Neural Artificial (ANN) para predecir la velocidad pico partículas (PPV) que es un indicador de daño relacionado con las vibraciones.

 

Figura N4. Esquema y capas de la red neuronal.

                 

3.1. INPUT LAYER

La capa de entrada cuenta con 11 neuronas que tienen como data de entrada parámetros como: Distancia del punto de monitoreo desde la cara de banco, carga explosiva máxima por retardo, diámetro del taladro, espaciamiento, burden, altura del taladro, altura del taco, carga explosiva total, densidad del explosivo, número de taladros y tipo de sistema de iniciación que es una variable categórica (no electrónico o electrónico).

 

Figura N5. Parametros de entrada para la red neuronal.

                                         

 

3.2. HIDDEN LAYER

Esta capa en particular está compuesta por tres subcapas ocultas, cada una de las cuales tiene su propia configuración.

 

La primera subcapa oculta, consta de 500 neuronas. Las neuronas utilizan la función de activación ReLU, que básicamente enciende la neurona si la entrada es positiva y la deja apagada si la entrada es negativa. La segunda subcapa oculta tiene 500 neuronas y usa la función de activación ReLU pero introduce un componente adicional llamado Regularización L1, el cual agrega una pequeña penalización a las neuronas según cuánto contribuyen a la salida general. Esto ayuda a reducir la complejidad de la red y evita que algunas neuronas dominen excesivamente. La última subcapa oculta tiene 200 neuronas y utiliza la misma Regularización L1 que la segunda subcapa. Pero la función de activación es sigmoidea, por lo que los valores de entrada se comprimirán entre 0 y 1.

 

3.3. OUTPUT LAYER

Esta última capa solo cuenta con una neurona de salida y utiliza un función de activación lineal para mostrar la variable objetivo del VPP máximo, que es el mayor de los tres VPP componentes.

 

3.4. ENTRENAMIENTO DE LA RED

La red neuronal fue entrenada mediante aprendizaje supervisado, comparando sus predicciones con los valores reales de PPV medidos en el campo. A través de la biblioteca Scikit-learn, la información fue dividida en 36 conjuntos de datos para entrenamiento (80%) y 9 conjuntos de datos para prueba (20%).

 

El cálculo de pérdida se utilizó para evaluar el rendimiento de la red ya que esta compara la salida predicha por la red neuronal con los valores reales de PPV medidos en el campo. En este caso, se empleó la función de error cuadrático medio, para medir la diferencia cuadráticas entre las predicciones y los valores reales.

 

También se usó el algoritmo de retropropagación para calcular los gradientes de pérdida respecto a los pesos de la red, indicando cómo ajustar los pesos para reducir la pérdida. Se buscó ajustar los pesos en la dirección que disminuyera la pérdida, mejorando las predicciones a lo largo de los 300 ciclos (epochs) de ajuste.

 

3.5. RESULTADOS DE LA RED NEURONAL

De acuerdo al artículo, el modelo ANN superó al modelo empírico en términos de desempeño. La figura N6 muestra la asociación entre el PPV predicho por el modelo ANN y el PPV real medido en el campo fue de 0.975, con un el error porcentual medio del 18%. En comparación, el modelo empírico se muestra un R2 de 0.442 y un error porcentual medio del 53%, es por ello que se considera un rendimiento superior del modelo ANN sobre los modelos empíricos.

 

Esta afirmación fue sustentada con un caso de estudio en el que se necesitaba predecir el impacto de una voladura en una estructura crítica, donde se evidencio la eficacia del modelo ANN para proporcionar pronósticos precisos. A través de la comparación de resultados, se demostró que las predicciones del modelo empírico se sobreestimaron y el modelo ANN en esa situación habría facilitado decisiones más acertadas.

 

Figura N6. Contrastre de los valores reales y con la predicción de PPV realizado por ANN.

        


IV. PREDICCIÓN DE FRAGMENTACIÓN DE ROCA

Un artículo elaborado por Velasquez, Rojas, Guerra & Silva (2020), presenta el desarrollo de un modelo de fragmentación utilizando redes neuronales (ANN) y datos de una operación de mina de oro superficial en Perú, América del Sur. El modelo utiliza información relacionada con voladuras recopilada de 836 eventos (disparos de producción), incluyendo la geometría de los disparos, el tipo de roca y explosivos, características de la masa rocosa y el retardo utilizado en cada disparo.

 

4.1. LAYERS DE LA RED NEURONAL

La red neuronal en cuestión consta de tres capas: una capa de entrada, una capa oculta y una capa de salida. En la capa de entrada se reciben 15 parámetros que representan características de las voladuras que se muestran en la figura N7. La capa oculta, tiene 17 neuronas, procesa los datos de entrada y captura patrones complejos. Finalmente, la capa de salida, compuesta por tres neuronas, emite las predicciones de fragmentación de roca: P20, P80 y P90.

 

Figura N7. Esquema y capas de la red neuronal.

                             

4.2. ENTRENAMIENTO DE LA RED NEURONAL

Se utilizo el algoritmo de retropropagación, un proceso de aprendizaje supervisado. Se ajustaron los pesos de las conexiones entre las neuronas para minimizar el error cuadrático medio (MSE) entre las predicciones de la red y los valores reales de fragmentación.

 

El algoritmo de retropropagación tuvo como función de entrenamiento el TrainLM, la función de aprendizaje fue Learngdm y como función de transferencia el Tansig. Asimismo el conjunto de datos se dividió de la siguiente manera; entrenamiento 376 muestras (70%), validación 80 muestras (15%) y pruebas 80 muestras (15%).

 

En la figura N8, se muestra que los resultados tienen una correlación aceptable entre las predicciones y los valores reales, con un R igual a 0.92628 lo que implica que la red neuronal se ajustó adecuadamente para estimar los parámetros de fragmentación de roca.

 

Figura N8. Entrenamiento y resultados de la red neuronal.

      

 

 


IV. MODELAMIENTO DE PROYECCIÓN DE ROCAS

Otro estudio realizado por Guerra, Manuel & Villalobos (2022) en la Unidad Minera La Arena demuestra que las redes neuronales se pueden usar también para predecir la distancia máxima de flyrock.


La implementación de la redes neuronales surgió como una necesidad debido a que los modelos tradicionales no lograron una correlación precisa entre las predicciones y resultados reales. Es por ello que se desarrolló un modelo propio, donde se seleccionaron parámetros clave y se entrenó una red neuronal personalizada, logrando una correlación efectiva entre las predicciones y resultados reales.

 

Figura N9. Correlación de flyrock con modelo estimado por ANN

                

Esto permitió estimar con mayor precisión la distancia de proyección de flyrock y definir factores de seguridad óptimos para planificación y seguridad minera. De tal manera que los radios de evacuación de equipos mineros se definieron con base en las predicciones del modelo sobre la distancia máxima de proyección de flyrock.

Figura N10. Estimación de la altura y distancia de proyección de roca.


VI. DISCUSIÓN

La comprensión de las redes neuronales y su aplicación en el campo de la ingeniería de minas se ha vuelto cada vez más crucial para los estudiantes que están a punto de ingresar al mercado laboral. A medida que la industria minera abraza la digitalización y la automatización, las redes neuronales se han convertido en una herramienta esencial para abordar desafíos complejos y optimizar operaciones.

 

Si bien las redes neuronales alguna vez se consideraron una tecnología futurista, es emocionante ver cómo han avanzado hacia aplicaciones prácticas en la minería. La voladura, que es un aspecto fundamental de la minería, ha experimentado mejoras significativas en términos de precisión y seguridad gracias a las redes neuronales. Además, estas tecnologías se han extendido a áreas como seguridad minera (Copiloto - Hudbay), predicción de recuperación en planta, Ore Sorting, entre otros. Esto demuestra cómo el conocimiento de las redes neuronales no solo es útil, sino que se ha vuelto esencial para optimizar todas las etapas de la operación minera.


VII. CONCLUSIÓN

Las redes neuronales son una innovación tecnológica basada en el funcionamiento del cerebro humano, que han revolucionado diversos campos, incluida el área de voladura en la industria minera.

 

En la estimación de vibraciones del suelo inducidas por voladuras, las redes neuronales han alcanzado correlaciones de hasta 0.975 entre las predicciones y los valores reales medidos en campo. Además, en la estimación de fragmentación de roca, estas redes han logrado una precisión del 92% en la predicción de tamaños de partículas (P80 y P90) utilizando datos de entrada sobre la geometría de las voladuras y características del terreno.

 

Asimismo, para estimar la distancia máxima de proyección de rocas durante operaciones mineras, las redes neuronales han permitido establecer correlaciones significativas entre las predicciones y los resultados observados, mejorando así la seguridad al momento de evacuar los equipos y personas.

 

Por ultimo para estudiantes de ingeniería de minas, comprender esta tecnología es esencial para abordar desafíos de manera eficiente y contribuir a la innovación en la industria.


REFERENCIAS BIBLIOGRAFICAS

- César Guerra, Hilder Altamirano & Christian Villalobos, (2022). Gestión de la percepción de voladuras con un enfoque social y eficiencia operativa en Unidad Minera La Arena.Luis Velasquez, Alejandro Rojas, Cesar Guerra & Dr. Jhon Silva, (2020). Rock Fragmentation Modeling Using a Neural Network-Based Approach in a Gold Open Pit Mine.

- Darwin Torres, Sandro Huaman & Pavel A. Torres , (2020).  Prediction of Ground Vibrations Using Neural Network in a Peruvian Mine.

- GeeksforGeeks. (2022). Artificial Neural Network Terminologies. GeeksforGeeks. https://www.geeksforgeeks.org/artificial-neural-network-terminologies/

- Maknojia, K. (n.d.). Demystifying Complex Algorithms: A Beginner’s Guide to Neural networks. www.linkedin.com. https://www.linkedin.com/pulse/demystifying-complex-algorithms-beginners-guide-neural-maknojia?trk=public_profile_article_view

- Paulo Alcazar, Alex Conco, Carlos Herrera & Fremy Flores, (2022). COPILOTO, el sistema de inteligencia artificial para la prevención y control de accidentes por fatiga.

- Ponce, J. (2021, August 30). Conoce qué son las funciones de activación y cómo puedes crear tu función de activación usando Python, R y Tensorflow - Jahaziel Ponce. Jahaziel Ponce. https://jahazielponce.com/funciones-de-activacion-y-como-puedes-crear-la-tuya-usando-python-r-y-tensorflow/

- Singh, G. (2023). Introduction to artificial neural networks. Analytics Vidhya. https://www.analyticsvidhya.com/blog/2021/09/introduction-to-artificial-neural-networks/

 

Comentarios

Registrate o Inicia Sesión para comentar y obtener Cursos de pago gratis

function loadurl(){ var val1 = document.getElementById("valor3").value; console.log(val1); if(val1){ window.location = "/comunidad/blog/filtrar/"+val1+"/"} }