Clase 8: Introducción al Aprendizaje Supervisado
Los modelos Predictivos/Supervisados tienen la capacidad de predecir valores en datos no vistos.
“Machine Learning Algorithms do not predict the future but encode the past, thus perpetuating the biases in the data and mode…”
Aprenden mediante un proceso de entrenamiento
en un train set
y evalúan su performance/rendimiento utilizando un test set
.
También llamadas
variables
oatributos
. Corresponden al input del Modelo y con el cuál el modelo aprende y predice. Normalmente es representado mediante una Matriz denominada \(X\).
Corresponden a las respuestas que el modelo necesita mapear para poder descubrir patrones de manera automática. Normalmente se representa mediante un vector denominado \(y\).
Queremos generar un algoritmo de aprendizaje tal que dado un cierto set de datos predigamos si es que a un niño se le dará o no permiso para jugar.
Problema de Clasificación Binaria (Dos clases opuestas).
\[h_\theta(X) = f(X, \theta)\]
hipótesis
o simplemente modelo
.features
(\(n\times m\) donde \(n\) es el número de observaciones y \(m\) el número de features).algoritmo
tendrá su propio mapeo \(f(\cdot)\) para tratar de predecir una etiqueta.Tipos de Hipótesis
Clasificación
.Regresión
.Clasificación:
Regresión:
Supongamos el siguiente problema de clasificación. Tenemos un algoritmo, que dadas las variables
Largo
yPeso
sean capaces de predecir si es que un Pez es una Reineta o una Sardina.
Regla de Decisión
(Decision Rule) que permita clasificar correctamente un punto nuevo.Es importante mencionar que un modelo de clasificación puede generar:
En el caso de predicción multiclase o multilabel. Se calcula la probabilidad para cada clase. Por lo tanto se se asigna la clase de mayor probabilidad.
El modelo de vecinos más cercanos, o KNN por sus siglas en Inglés es un modelo basado en
distancias
. Suregla de decisión
se basa en imitar el comportamiento de sus \(K\) vecinos más cercanos por votación (para clasificación) o la media (para regresión).
K es un hiperparámetro
de este modelo.
En el caso de un KNN NO HAY APRENDIZAJE en esta etapa.
Es considerado un modelo no-paramétrico
ya que no aprende parámetros para realizar su predicción.
En este caso, KNN calcula las distancias del punto a predecir (en verde) a todos los otros puntos existentes (proceso caro).
votacioń
votacioń
.from sklearn.neighbors import KNeighborsClassifier
knn_clf = KNeighborsClasifier(n_neighbors = 5, metric="minkowski", p=2, n_jobs=-1)
knn_clf.fit(X, y)
# Predicción...
y_pred = knn_clf.predict(X)
from sklearn.neighbors import KNeighborsRegressor
knn_clf = KNeighborsRegressor(n_neighbors = 5, metric="minkowski", p=2, n_jobs=-1)
knn_clf.fit(X, y)
# Predicción...
y_pred = knn_clf.predict(X)
¿Cómo se encuentran las predicciones en un modelo de Regresión?
Fortalezas
Debilidades
Curse of Dimensionality
: A medida que el número de dimensiones del problema crece, se requiere un incremento exponencial en la cantidad de datos para asegurar que existen suficientes vecinos cercanos para cualquier punto.