You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
description: Various commentaries about various ML models
7
+
---
8
+
9
+
# Introduction
10
+
11
+
No eres precisamente un experto en aprendizaje automático y alguna vez te sentiste abrumado en este inmenso bosque de modelos disponibles en machine learning? NO?, Eres un experto? Pues También es para ti es post. Daremos un "paso hacia atrás" y contemplaremos algunos de los modelos clasicos más importantes en machine learning, para no perderlos de vista y sobre todo recordar que si puedes resolver un prblema complejo suficientemnet ebien mediante una herramienta sencilla muchas veces es la manera óptima de atacarlo.
12
+
13
+
# ML models
14
+
15
+
Vamos a hacer un muy breve pero conciso compendio sobre las características de algunos de los modeos más ampliamente usados en el mundo del aprendizaje automático, destacando su intuición, fundamentación teórica y casos de uso típicos.
16
+
17
+
See [https://www.linkedin.com/posts/gunagunal1112_ml-datascience-dataworld-activity-7260909409235578880--jod/]
18
+
See [https://www.linkedin.com/feed/update/urn:li:activity:7291080517934878720/]
19
+
20
+
## Linear Regression
21
+
simple training among all models
22
+
fast time in predictions
23
+
24
+
## Logistic Regression
25
+
Iterative optimization needed
26
+
Ideal for binary classification
27
+
28
+
## Naive Bayes
29
+
Incredibly fast training speed
30
+
Perfect for text classification
31
+
32
+
## Decision Trees
33
+
Quick predictions after training
34
+
Great for interpretable results
35
+
36
+
## Random Forest
37
+
Memory intensive during training
38
+
Superior to single trees
39
+
40
+
## Gradient Boosting
41
+
Memory-efficient implementations available
42
+
Better accuracy-speed trade-off
43
+
44
+
## PCA
45
+
Fast for low dimensions
46
+
Struggles with high dimensions
47
+
48
+
## K-Nearest Neighbors (KNN)
49
+
Memory scales with data size
50
+
Heavy prediction phase
51
+
52
+
## K-Means
53
+
Usually quick convergence
54
+
Scales well with mini-batches
55
+
56
+
## Support Vector Machines (SVM)
57
+
10/ Dense Neural Networks
58
+
Memory usage varies greatly
59
+
Complex hyperparameter tuning
60
+
61
+
# Loss Functions
62
+
63
+
See [https://medium.com/@tam.tamanna18/a-comprehensive-guide-to-machine-learning-algorithms-and-loss-functions-01fe4e7fb053]
64
+
65
+
# Time complexity
66
+
67
+
See []
68
+
69
+
Remember these insights when choosing algorithms.
70
+
71
+
Consider your data size, available computing resources, and time constraints.
72
+
73
+
74
+
Sometimes, simpler models offer the best trade-off between complexity and performance.
Copy file name to clipboardExpand all lines: _posts/XXXX-XX-XX-split-bregman.md
+10-4Lines changed: 10 additions & 4 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -31,7 +31,7 @@ D^p_J (u, v) := J(u) - J(v) - <p, u - v>, p \in parc_J(v),
31
31
32
32
donde <p, u - v> es el producto interno entre p (que pertenece al subdiferncial [derivada en un sentido débil] de Jen el punto v) y el vecotr u-v. Actúa como el plano tangente a la función en v.
33
33
34
-

34
+

35
35
36
36
D^p_J (u, v) compara el valor J(u) con el plano tangente (que en 1D es una línea) J(v) + <p, u-v>. Escogiendo una H diferenciable, el subdiferencial se convierte en el gradiente nabla_H. Esta no es estrictamente una distancia, pues no es necesariamente simétrica, pero mantiene muchas propiedades de distancia (ver [8]). En vez de medir distancia directa entre dos puntos, la mide como diferencias entr elos valores d ela función, comparando el valor J(u) con una aproximación lineal de J basada en supunto tangente J(v). En otras paralbras, mide la diferencia entre el valor de la función en u, que es J(u), u la mejor aproximación lineal de J(u) desde v.
37
37
@@ -89,8 +89,14 @@ En [12] se propuso to solve the above-mentioned problem by an alternating direct
89
89
2. compute the solution of the **d-subproblem** with u fixed by means of a projection or shrinkage/soft-threasholding, que impone sparsity controlando (en la dirección de gra u_i,j + b_ij) la magnitud de d_ij (i.e. que muchos ele,mentos de la solución tiendan ser cero o pequeños, regularizando para reducir el ruido co caracteŕisicas no esenciales). Este problema se desacopla sobre el espacio, lo que significa que se puede resolver independientemente para cada píxel..
90
90
91
91
3. The auxiliary variable b is initialized to zero and updated as bk+1 = bk + uk+1 dk+1. A good choice of is one for which both d and u subproblems converge quickly and are numerically well-conditioned. In d subproblem, the shrinking effect is more dramatic when issmall. In u subproblem, the effect of and increase when gets larger. It is also ill-conditioned in the limit gamma -> infinite. Therefore, should be neither extremely large nor small for good convergence [11].
92
-
93
-
Un sencillo pseudocódigo un flujo típicao de resolución de un problema convexo mediante S-B es:
92
+
93
+
Cabe mencionar que una manera alternativa de ver este procedimiento es que: primero se hace las sustituciones de las variables oportunas (e.g. d_i,j = grad u) , lo cual impone **aproximadamente** las restricciones de igualdad, por ejemplo, añadiendo penalizaciones cuadráticas:
y luego querremos reforzar **exactamente** la restricción de igualdad d = grad_U aplicando bregman iteration al problema no restringido, lo cual ya nos leva al procedimiento descrito. Estos osn los pasos que componen SPlit Bregman.
98
+
99
+
Un sencillo pseudocódigo de este procedimineto nos sirve como regla mnemotécnica:
94
100
95
101
```
96
102
initialize u = f, d = b = \mathbf{0}
@@ -127,4 +133,4 @@ En [14] usan el enfoque explicado para deconvolutión y no mantienen gamma fijo,
127
133
[11] Variational Models and Numerical Methods for Image Processing Suh-Yuh Yang 2020
128
134
[12] THE SPLIT BREGMAN METHOD FOR L1 REGULARIZED PROBLEMS TOM GOLDSTEIN, STANLEY OSHER 2009
129
135
[13] E. Esser, Applications of Lagrangian-Based Alternating Direction Methods and Connections to Split Bregman, UCLA CAMReport09-21, 2009. ftp://ftp.math.ucla.edu/pub/camreport/ cam09-31.pdf
130
-
[14] Total variation blind deconvolution employing split Bregman iteration Weihong Li et al 2012
136
+
[14] Total variation blind deconvolution employing split Bregman iteration Weihong Li et al 2012
0 commit comments