Skip to content

Albert0sans/MachineLearning

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

13 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

MachineLearning

SVR [Máquina de Vectores Soporte para Regresión, Support Vector Regression] Modo linear: linearsvr.py Modo completo: completesvr.py

Máquina de vectores sopote para regresión trata de obtener una función con el menor error que se ajuste a los datos. Es un sistema matemático de minimización con restricciones, se resuelve utilizando multiplicadores de Lagrange. Su objetivo es encontrar la recta que mejor se ajuste a los datos que se ajuste con un menor error. Al trabajar únicamente con rectas es necesario transformar el plano de forma que los datos en este se ajusten a una recta de forma que el algoritmo se ajuste a cualquier tipo de función, para esto se utilizan los llamados kernels.

basado en

      A. J. Smola and B. Scholkopf, “A tutorial on support vector regression,” Statistics
      and computing, vol. 14, no. 3, pp. 199–222, 2004.

MLP [Perceptrón Multicapa, Multilayer Perceptron] mlp.py

El Perceptrón multicapa es una red neuronal con una capa de entrada, otra de salida y múltiples capas ocultas cuyos pesos se ajustan por medio del algoritmo Gradiente Descendente. Los valores "fluyen" por la red hasta alcanzar la capa de salida en donde se calcula dicho gradiente, una vez calculado este se retropropaga hacia la entrada, corrigiendo los pesos de las neuronas en el proceso, de forma que en cada iteración el error disminuya. Se debe seleccionar cuidadosamente el escalón de aprendizaje, ya que valores elevados pueden resultar que el algoritmo nunca converja hacia una solución óptima.

basado en

https://pabloinsente.github.io/the-multilayer-perceptron

ELM [Máquina de aprendizaje extremo, Extreme Learning Machine] elm.py

Máquina de aprendizaje extremo consiste en una versión del algoritmo MLP (Perceptrón multicapa) en donde únicamente existe un capa oculta además de la de entrada y salida, los valores de cada neurona de esta capa se establece una sola vez, sin existir iteraciones como en MLP, estos pesos iniciales se establecen según los datos de entrenamiento: Se multiplica la matriz speudo inversa de la capa de entrada por los valores objetivo (y), de esta forma se obtiene un algoritmo extremadamente eficiente y rápido indicado para conjuntos de datos muy grandes.

basado en

    Q.-Y. Z. G.-B. Huang and C.-K. Siew, “Extreme learning machine: Theory and ap�plications,” vol. 70, no. 1–3,         pp. 489–501,Dec. 2006.

RF [Bosque aleatorio, Random Forest] ranforest.py (Implementación con errores)

Desde la experiencia este se trata del algoritmo más eficiente ya que implícitamente realiza una selección de características a la hora de construir cada árbol. Este algoritmo consiste en una agrupación de árboles de decisión, a cada uno de ellos se les asigna conjuntos de datos diferentes y aleatorios, la predicción final consiste en un promedio de cada uno, de forma que los errores se minimicen. Al realizar una selección intrínseca de características está indicado para grandes conjuntos de datos con muchas variables.

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 2

  •  
  •  

Languages