Inteligencia Artificial

Piezas y Partes

Daniel Kottow, abril 2023

Elementos para un sano juicio

  1. ¿De dónde viene la Inteligencia Artificial?
  2. ¿Qué sabe hacer y cómo lo aprende?
  3. ¿Cómo y en qué ha progresado "ahora" ?
  4. ¿Qué tan cerca está de "nivel humano" ?
  • Premio Nobel Descripción de neurona y actividad eléctrica

1906

Redes Neuronales

  • Tenemos
    ~100 000 000 000 neuronas

     
  • Cada neurona tiene
    hasta 15 000 conexiones

Santiago Ramón y Cajal

Camillo Golgi

1943

Warren S. McCulloch & Walter Pitts

El perceptrón
A probabilistic model...

 

1957

Entradas

Pesos

Salida

Frank Rosenblatt

Elementos para un sano juicio

  1. ¿De dónde viene la Inteligencia Artificial?
  • No viene de la computación tradicional!
     
  • Viene de una abstracción matemática - ingenieril de las neuronas biológicas bastante grosera.

Perceptrones multicapa

Yann LeCun

Meta AI

Geoffrey Hinton
Google AI

1986

3Blue1Brown

Luego de treinta años AI Winter...

1998

2012

Entradas Capas Pesos Salidas
28 x 28 5 430K 10
224 x 224 x 3 8 61M 1000

Alex Krizhevsky
ex-Google

Ilya Sutskever

Open AI

El Tamaño importA

Elementos para un sano juicio

2. ¿Qué sabe hacer y cómo lo aprende?

  • Gran aumento de poder computacional en los últimos 10 años (GPUs).
  • Transformar miles de entradas - números, imágenes - usando muchas "neuronas" iguales.
     
  • Entradas similares entregan salidas iguales (clasificación).
     
  • Aprende cualquier transformación a partir de ejemplos.

3. ¿Cómo y en qué ha progresado "ahora" ?

Nature science report

2015

Yann LeCun - Meta AI

1989 -1998

Redes neuronales multicapa

Imagen 28 x 28

10 Categorías

Alex Krizhevsky

2012

Imagen 224 x 224 x 3

1000 Categorías

 Ilya Sutskever - Open AI

Geoffrey Hinton - Google

Fase Entrenamiento

Fase Producción

Machine Learning

¡Entrenar requiere muchos y buenos ejemplos!

Validar

Entrenar

?=

¿Cómo encontrar pesos óptimos durante el entrenamiento?

¡La corrección de los pesos es delicada!

Entrenamiento AlexNet:

90 x 1.000.000 Imágenes ~ 6 días

1986

Sutton & Barto

2013

Google DeepMind

AlphaGo

AlphaFold

2018

2015

Demis Hassabis

Towards Data Science

  • Siempre "en loop".
  • Acciones y premios están desfasados.
Biología Machine Learning
Aprendizaje continuo Entrenamiento / Producción
Química / Neurotransmisores Optimización / Diseño
Plasticidad neuronal Arquitecturas fijas

1.000 Mill EUR

2013 - 2023

Aprendizaje

Elementos para un sano juicio

  • Aprende en base a ejemplos o premios ajustando iterativamente el modelo.
     
  • Aprende solo durante fase de entrenamiento.
     
  • No se progama, se construye y parametriza. Aquí está el arte!
     
  • No sabemos codificar programas equivalentes! (caja negra)

2. ¿Qué sabe hacer y cómo lo aprende?

CS antes de US mejora resultados.

1897

Ivan Pavlov

"Neurons wire together if they fire together"

1949

Neuronas Espejo

1990s

Donald Hebb

Aprender es asociar

Vectores

\sum x_i w_i = X\cdot W \sim cos(\theta)

Neuronas calculan similitud entre entradas y pesos (memoria)

"Neurons wire together if they fire together"

1949

Donald Hebb

Neurosicólogo

8 conexiones / 8 dimensiones

Color es similar a muchos conceptos no similares entre sí

Digitalizar es Vectorizar

  • Imágenes
  • Sonidos
  • Planillas
  • Letras
  • ¿Palabras?

¡Palabra (concepto) "king" en 50 dimensiones!

"king - man + woman = queen"

1. Seleccionar textos

y tokenizar

2. Generar ejemplos deslizando una ventana

Ventanas de 5 - 20 palabras

Jay Allamar

3. Entrenar con ejemplos ventana modo "supervisado"

Tomáš Mikolov
ex Google

2013

  • Representación de palabras con vectores númericos de muchas dimensiones.
     
  • Medida de similitud coseno entre vectores permite establecer errores y aprendizaje.
     
  • Aprendizaje ocurre "leyendo" textos. No requiere preparación de ejemplos!
     
  • Similitud entre palabras aprendidas refleja su próximidad / relación en los textos.

Elementos para un sano juicio

3. ¿Cómo y en qué ha progresado "ahora" ?

Large Language Models

¿Cómo se llama la capital de Chile?

La capital de Chile es Santiago.

What is the name of Chile´s capital?

Modelo de lenguaje para traducir y responder

2014

 Google AI

Él vio a ella con un telescopio.

Contextos tienen largo variable.

Secuencias y Contexto

Jay Allamar

Secuencia con contexto largo fijo pierde información

Atención da estructura a la secuencia

Los LLM como GPT son Transformer

2017

Ashish Vaswani
ex-Google

A. Vaswani et al

Secuencia transformer de 3+3 bloques.

Cada palabra produce su contexto.
Arcos ilustran capas de atención.

Google AI Blog

Atención capta contexto apropiado para discernir "it"

El Tamaño importA - parte 2

Publicado Entrenamiento Parámetros Prompt

GPT-1

Q2 2018
Common Crawl BookCorpus
117.000.000

1.024
GPT-2 Q1 2019 + WebText 1.500.000.000 2.048
GPT-3 Q2 2020 + Wikipedia
+ libros
175.000.000.000 4.096
GPT-4 Q1 2023 Desconocido 1.000.000.000.000 32.000
  • Tenemos
    ~100 000 000 000 neuronas
  • Cada neurona tiene
    hasta 15 000 conexiones

1000 ~ 3 pag.

Entrenamiento ChatGPT

  1. Entrenar a predecir próxima(s) palabra(s) "leyendo" textos de entrenamiento (GPT 3.5).
  2. Refinamiento supervisado con respuestas ejemplares.
  3. Refinamiento RLHF con humanos expresando sus preferencias entre respuestas alternativas. 

A portrait photo of a kangaroo wearing an orange hoodie and blue sunglasses standing on the grass in front of the Sydney Opera House holding a sign on the chest that says Welcome Friends!

Propiedades Emergentes

Sebastien Bubeck

Google AI Blog

Elementos para un sano juicio

  • Atención y contexto modelan una memoria de trabajo (no persistente). ¡Aqui está lo "creepy"!
     
  • Fenómenos emergentes usando
    mismo modelo, solo más "grande".

Muchas gracias :)

3. ¿Cómo y en qué ha progresado "ahora" ?

4. ¿Qué tan cerca está de "nivel humano" ?

  • En "poder computacional" parece estar cerca.
     
  • Manejo de lenguaje natural a nivel humano.
    ¡Es la nueva interfaz con los sistemas!

     
  • Razonamiento y discernimiento de sus propias capacidades aun limitados.

Inteligencia Artificial - Piezas y Partes

By daniel kottow

Inteligencia Artificial - Piezas y Partes

Una introduccion a Machine Learning y los Large Language Models.

  • 171