Featured image

De la probabilidad a la inteligencia artificial: cómo se han utilizado los datos para reducir la incertidumbre (Euskal Encounter)

OpenGune - Zona talleres SPRI-Enpresa Digitala

En la actualidad se ha dado un gran auge en la explotación de los datos a través de las diferentes técnicas que se engloban dentro del campo de la Inteligencia Artificial. Esto ha tenido un crecimiento aún más destacado gracias a la aparición de los diferentes modelos de IA generativa, tales como ChatGPT.

Sin embrago, los datos se llevan utilizando desde hace cientos de años para tratar de reducir la incertidumbre y generar conocimiento. Esto no es algo que haya empezado con la aparición de la Inteligencia Artificial, ni todos los problemas, relacionados con datos, existentes en la actualidad, se pueden solucionar mediante la aplicación de la Inteligencia Artificial.

Por ello, en el presente taller se abordará el concepto de incertidumbre y el impacto que tiene esto en la toma de decisiones. Tras ello, se analizarán las diferentes técnicas y opciones que se han ido desarrollando para minimizar este problema. Haciendo un análisis de la evolución que se ha dado desde la aparición del concepto de probabilidad, distribuciones de la probabilidad, contrastes de hipótesis hasta la aparición del Machine Learning, donde también se analizarán los principales algoritmos. Por último, se mostrará cómo numerosos conceptos estadísticos son necesarios para interpretar los resultados de un modelo de Machine Learning.

Inscripciones

Este evento es parte de la programación de la Euskal Encounter 2024. Las plazas son limitadas, por lo que es necesario inscribirse previamente. Sólo podrán asistir aquellas personas que se hayan inscrito y que hayan recibido confirmación de su plaza.

Dirigido a

Cualquier persona que quiera conocer cómo ha evolucionado el análisis de datos para reducir la incertidumbre. No es necesario tener conocimientos previos.

Programa

Tipos de variables:

  • Cualitativas.
  • Cuantitativas:
    • Discretas VS continuas
    • Cero Absoluto VS Cero Convencional

Conceptos básicos:

  • Media
  • Mediana
  • Moda
  • Varianza y Desviación Típica
  • Covarianza y Correlación

Probabilidad:

  • Cálculo de la probabilidad simple
  • Cálculo de la probabilidad conjunta
  • Concepto de independencia
  • Requisitos y limitaciones de esta metodología
  • Estimación de la probabilidad con datos
  • Transmisión de la probabilidad

Distribución de la probabilidad:

  • ¿Qué es?
  • ¿Para qué sirve?
  • Casos prácticos aplicados a la industria

Contraste de hipótesis:

  • ¿Qué es?
  • ¿Para qué sirve?
  • Aproximación intuitiva
  • Elementos básicos:
    • Hipótesis nula y alternativa
    • Estadístico del contraste
    • Valor en tablas
    • P-Valor
  • Ejemplo práctico.

Machine Learning:

  • Definición de modelo
  • Mapa conceptual:
    • Clasificación de modelos
    • Explicabilidad VS Exactitud
    • Validación de modelos
    • Interpretación Modelos explicativos:
      • Árbol de decisión
      • Regresión Lineal

Ponente

Borja Balparda es Doctor en Econometría (Análisis de Datos), profesor en la Universidad de Navarra, donde es profesor de la facultad de económicas (Análisis de Datos con R) y en el Master de Big Data. Además de ello es Ceo y Científico de datos de Data Value Management, Start-up especializada en el Análisis de Datos e Inteligencia Artificial.

 

Anteriores ediciones »»