1 of 8

Back – propagation en el análisis de la madurez textural de rocas sedimentarias

2 of 8

Análisis de la madurez textural de una roca sedimentaria

INTRODUCCIÓN

Datos de entrada

Zingg (1935)

Fold y Ward (1957)

3 of 8

1. Initialize the parameters

LEARNING PROCESS

Variable

Valor

Selección (σ)

0.7

Redondez

0.6

Matriz

20 %=0.2

Rasgos sedimentológicos

  • σ: 0.2 – 2.0
  • R: 0 – 1
  • Matriz: 0 – 40%

Vector de entrada

 

ARQUITECTURA DE LA RED

  • 3 datos de entrada
  • 3 neuronas ocultas
  • 3 neuronas de salida
  • Activación entrada → oculta: ReLU
  • Activación oculta → salida: Softmax
  • Función de pérdida: Categorical Cross Entropy

4 of 8

2. Forward-propagation

Softmax (salida)

 

Pesos iniciales

Entrada → Oculta

z1(1)​=0.2(0.7)+0.3(0.6)−0.2(0.2) -0.1=0.18 ��z2(1)=−0.1(0.7)+0.4(0.6)+0.1(0.2)+0.01=0.20 ��z3(1)=0.1(0.7)−0.2(0.6)+0.3(0.2)+ 0.1= 0.11

Activación ReLU

 

Pesos Oculta → Salida

z(2)=W(2)a(1) ��z1=0.064��z2=0.065��z3 = 0.082

 

 

 

 

 

5 of 8

3. Error calculation (cost or loss)

Suponiendo que el análisis petrográfico indica:

Clase real: Submadura

 

Clase real

Función de pérdida (Category Cross – Entropy)

 

 

6 of 8

4. Minimizing error y Back-progression

 

 

 

Regla de la cadena

Teniendo:

 

 

Derivada 1

 

 

 

 

Derivada 2

 

Softmax:

 

 

Derivada 3

 

 

 

Combinación de las derivadas

 

7 of 8

 

La expresión se reduce a:

 

Y por lo tanto:

Descenso del gradiente

Clase

Inmadura

0.331

0

Submadura

0.332

1

Madura

0.337

0

 

Peso: Submadura

 

 

Por ejemplo, supongamos que:

Actualización del parámetro

 

 

 

El peso aumenta porque la derivada es negativa

De la capa de salida a la capa oculta.

Cálculo del error

 

z(2)=W(2)a(1) ��z1=0.064��z2=0.068��z3 = 0.082

 

 

 

 

8 of 8

De la capa oculta a la entrada