Clases
Acá estarán disponibles los recursos para las clases. El tl;dr es una breve explicación de la misma. Para cada clase, intentaremos compartir el link del video de YouTube y el material asociado.
-
00 - Introducción al curso y ejemplo de vida real - (Parte 1)
tl;dr: Explicación corta del contenido del curso e introducción a ML (Parte 1)
[Video de YouTube ML 2024] [Clase introductoria 1] [Jupyter Notebook]
Contenido
- Estructura del curso
- Nota informativa
- Qué es la inteligencia?
- Ejemplos de IA
- Ejemplos de Aprendizaje automático: Page Rank
-
00 - Introducción al curso y ejemplo de vida real - (Parte 2)
tl;dr: Explicación corta del contenido del curso e introducción a ML (Parte 2)
[Video de YouTube ML 2024] [Clase introductoria 2] [Jupyter Notebook]
Contenido
- Noción básica
- Representación
- Ejemplos
- Detección de correos SPAM
- Predicción de precios de inmuebles
- Segmentación de imágenes médicas
- Compresión de datos
- Predicción de ganadores MLB y LoL
- Agrupamiento y representación
- Ejemplo ChatGPT
- Objetivo Principal ML
-
00 - Introducción a Regresión lineal
tl;dr: Explicación de la intuición detrás de regresión lineal
[Clase introductoria Regresión Lineal] [Jupyter Notebook] [Repaso Álgebra Lineal v3 (Pre 2024)]
Contenido
- Repaso de clase 2 (problemas audio)
- Introducción e intuición a regresión lineal
- Cómo medimos el error? Valor absoluto o cuadrado?
- Breve explicación de notación matricial de RL.
-
01 - Álgebra Lineal (Parte 1)
tl;dr: Introducción a Álgebra Lineal: Vectores, Matrices, Funciones de vectores
[Clase 1 - Álgebra Lineal] [Repaso Álgebra Lineal v4 (2025)]
Contenido
- Vectores
- Operaciones Básicas: suma, resta, sobrecarga de operadores.
- Multiplicación escalar
- Producto Hadamard
- Matrices
- Matriz Identidad
- Matrices diagonales
- Matrix Traspuesta
- Propiedades
- Funciones de Vectores
- Normas
- Ejemplo LinAlg
- Vectores
-
01 - Álgebra Lineal (Parte 1)
tl;dr: Introducción a Álgebra Lineal: Vectores, Matrices, Funciones de vectores
[Clase 2 - Álgebra Lineal] [Repaso Álgebra Lineal v5 (2025)]
Contenido
- Operaciones entre Matrices y Vectores (M-v)
- Operaciones Matriz - Matriz (M-M)
- Cálculo Matricial
- Propiedades básicas
-
02 - Regresión Lineal
tl;dr: Formulación del problema de Regresión Lineal partiendo del general de ML
[Clase 1 - Regresión Lineal (Formulación)] [Regresión Lineal formulación (versión v5 - v1 2025)]
Contenido
- Regresión Lineal: definición
- Definiciones generales sobre aprendizaje automático
- Función de coste
- Función de error (L1 y L2)
- Ejemplos
- Representación gráfica de Loss(theta)
-
02 - Regresión Lineal
tl;dr: Derivando las ecuaciones normales
[Clase 2 - Regresión Lineal (Ecuaciones normales)] [Regresión Lineal (Ecuaciones normales) (versión v5 - v1 2025)]
Contenido
- Derivando ecuaciones normales usando el gradiente y formulación matricial
-
02 - Regresión Lineal
tl;dr: Descenso del gradiente
[Clase 3 - Regresión Lineal (Descenso del gradiente)] [Regresión Lineal (Descenso del gradiente) (versión v5 - v1 2025)]
Contenido
- Interpretación de la calidad del modelo
- Método del descenso del gradiente
-
02 - Regresión Lineal - Laboratorio
tl;dr: Descenso del gradiente - Scikit-Learn
[Clase 3 - Regresión Lineal (Descenso del gradiente)] [Regresión Lineal (Descenso del gradiente) (versión v6 - Con lab)]
Contenido
- Método del descenso del gradiente “casero”
- Scikit-Learn
-
03 - Regresión Logística
tl;dr: Formulación de f_β(x) y de L(β)
[Clase 1 - Regresión Logística (Formulación de f_β(x) y de L(β))] [Clase 1 - Regresión Logística (Formulación de f_β(x) y de L(β))]
Contenido
- Clasificación
- Clasificación binaria
- Desarrollo de f_beta(x)
- Desarrollo de L(beta) para Regresión Logística
-
03 - Regresión Logística
tl;dr: Formulación de f_β(x) y de L(β) con ejemplos
[Clase 1 - Regresión Logística (Formulación de f_β(x) y de L(β))] [Clase 1 - Regresión Logística (Formulación de f_β(x) y de L(β))]
Contenido
- Resumen de formulación
- Ejemplo con dataset iris
- Comparando salidas con Scikit-Learn
-
04 - Regularización Lasso (L1) y Ridge (L2)
tl;dr: Formulación de Lasso y Ridge
[Regularización Lasso y Ridge] [04 - Regularización Lasso y Ridge]
Contenido
- Justificación de regularización
- Lasso: formulación lagrangeana (λ) y con restricciones (s)
- Ridge: formulación lagrangeana (λ) y con restricciones (s)
-
05 - Tradeoff Sesgo-Varianza
tl;dr: Tradeoff entre sesgo y varianza
[Tradeoff entre sesgo y varianza] [Tradeoff entre sesgo y varianza]
Contenido
- Repaso probabilidad: Estimadores
- Sesgo y varianza
- Descomposición Sesgo-Varianza
- Ejemplos con Lasso y Ridge
-
06 - Evaluación y selección de modelos - Matriz de Confusión
tl;dr: Matriz de confusión, métricas básicas, score F1
[Evaluación y selección de modelos - Matriz de Confusión] [Evaluación y selección de modelos - Matriz de Confusión]
Contenido
- Repaso de selección de modelos partes 1 a 4
- Matriz de confusión y métricas importantes
- Importancia del Score F1
- Introducción a curvas ROC
-
06 - Evaluación y selección de modelos - Curvas ROC
tl;dr: Curvas ROC, algoritmo, aplicación
[Evaluación y selección de modelos - Curvas ROC] [Evaluación y selección de modelos - Curvas ROC]
Contenido
- Intuición de curvas ROC
- Cómo recrearlas usando el método del threshold
- Aplicación de “vida real”
-
07 Máquinas de Soporte Vectorial (SVM)
tl;dr: Separación lineal, hiperplanos, formulación
[Máquinas de Soporte Vectorial (SVM)] [Máquinas de Soporte Vectorial (SVM)]
Contenido
- Clasificación binaria
- Conjunto linealmente separables
- Hiperplanos (semiespacios)
- Formulación de SVM
-
07 SVM + 08 Árboles de Decisión (intro)
tl;dr: Formulación Soft-margin. Introducción a Árboles de Decisión
[Máquinas de Soporte Vectorial (SVM)] [Máquinas de Soporte Vectorial (SVM)] [Árboles de Decisión]
Contenido
SVM
- Formulación soft-margin cuando no hay separación lineal
- Teoría de dualidad
- Teorema de representación
- Ejemplos con playground
Árboles de Decisión
- Intuición
- Formulación formal
- Criterios de parada y selección de theta.
-
08 Árboles de Decisión (intro)
tl;dr: Formulación Soft-margin. Introducción a Árboles de Decisión
[Árboles de Decisión] [Árboles de Decisión]
Contenido
- Midiendo la calidad de los candidatos
- Criterio Gini y Entropía
- Graficando criterios y entendiendo peores casos
- Ejemplo con playground para entender cómo crear un árbol
-
09 Agrupamiento K-medias
tl;dr: K-medias, Algoritmo de Lloyd, Inercia, Varianza
[Agrupamiento K-medias] [Agrupamiento K-medias]
Contenido
- Aprendizaje no supervisado
- Agrupamiento (Clustering)
- K-medias
- Problema a resolver en K-medias usando Inercia/Varianza inter cluster
- Algoritmo de Lloyd (K-medias) con criterio $u_k^(k)= media puntos$
- Breve intro a método de codo
-
09 Agrupamiento K-medias - Método de Codo y Silhoutte - (Parte 1 13/02)
tl;dr: Método de Codo y Silhoutte
[Método de Codo y Silhoutte] [09 Agrupamiento]
Contenido
- Repaso de Agrupamiento y algoritmo de Lloyd
- Método de codo
- Método de Silhoutte
- Ejemplos en Playground
- Intro a Agrupamiento jerárquico (previo a corte llamada)
-
09 Agrupamiento Jerárquico - (Parte 2 13/02)
tl;dr: Agrupamiento jerárquico, bottom-up, top-down, dendrograma
[Agrupamiento] [09 Agrupamiento]
Contenido
- Criterios de distancia
- Simple
- Completo
- Promedio
- Ward
- Ejemplo de creación de Dendrograma
- Ejemplos en PlayGround
- Criterios de distancia
-
10 Reducción de dimensionalidad - PCA
tl;dr: Autovalores, autovectores; componentes principales;varianza
[Clase 1] [Clase 2] [Notebook v1] [Notebook v2]
Contenido
Clase 1
- Proyección de un vector sobre otro vector
- Definición de varianza de las proyecciones
- Problema de optimización usando cociente de Rayleigh
-
Restricción del problema con w =1 - Solución con autovalores y autovectores
Clase 2
-
10 Reducción de dimensionalidad - PCA 2
tl;dr: Autovalores, autovectores; componentes principales;varianza
[Clase 2] [Notebook v2]
Contenido
Clase 2
- ómo transformar X con los vectores soporte
- Ejemplos de visualización de data discreta usando PCA
-
11 Redes Neuronales - Parte 0 - Introducción
tl;dr: Inicio redes neuronales
[Clase 0] [Notebook v1]
Contenido
Clase 0
- Introducción a Redes Neuronales
- Nexo entre Biología y AI sobre RN
- Modelos iniciales, activación y función de activación
- Espacio de parámetros
- Idea inicial sobre teorema de aproximación
-
11 Redes Neuronales - Parte 2 - Parte A
tl;dr: Teorema de aproximación Universal
[Clase 1] [Notebook v1]
Contenido
Clase 2-A
Teorema de aproximación universal Múltiples entrada/Multiples salidas
-
11 Redes Neuronales - Parte 2 - Parte B
tl;dr: Curvas de nivel;formulación;resumen
[Clase 2] [Notebook v1]
Contenido
Clase 2-B
- Curvas de nivel 3D
- Formulación con capas ocultas extra
- Resumen
-
11 Redes Neuronales - PyTorch I
tl;dr: PyTorch
[Clase 3] [Notebook v1]
Contenido
Clase 3
- Introducción a PyTorch
- Tensores
- Operaciones básicas
- Noción de la capa Lineal
-
11 Redes Neuronales - PyTorch I
tl;dr: PyTorch
[Clase 4] [Notebook v2 - Final]
Contenido
Clase 4
- De la teoría a la práctica: los componentes más importantes de PyTorch emulando el proceso de optimización de L
- Módulo de Autodiferenciación
-
11 Redes Neuronales - PyTorch I
tl;dr: PyTorch
[Clase 5] [Notebook v2 - Final]
Contenido
Clase 5
- Pipeline final de entrenamiento de redes neuronales
- Partes esenciales para el entrenamiento de redes
- Breve discusión del curso de DL