Cálculo de la Complejidad de Kolmogorov vía AGs

Fernanda Mora

Aarón Sánchez

Luis E. Pérez

 

11 diciembre del 2015

Any darn fool can make something complex; it takes a genius to make something simple.

-Pete Seeger

Contenido

  • Antecedentes

  • Metas

  • Programa

  • Resultados

  • Bibliografía

Antecedentes

Motivación

Any darn fool can make something complex; it takes a genius to make something simple.

-Pete Seeger

  • Teoría de la Información: Estadística y Algorítmica

  • Proyecto 1: Estadística con Shannon

  • Proyecto final: Algorítmica con Kolmogorov

  • Además, máquinas de Turing, funciones incomputables y algoritmos genéticos

¿Qué se va a estudiar en este proyecto?

Proceso de transmisión de la información

Envío y pérdida de información mediante sistema de información

También vimos en clase:  

Si algo se puede cuantificar, entonces se puede codificar.


Si algo se puede codificar, entonces se puede hacer el código binario asociado.


Entonces, cualquier información puede ser expresada con código binario.


Un código binario se puede almacenar y enviar.


Para llevar a cabo la transmisión se requieren recursos temporales y de almacenamiento.

Surge naturalmente una pregunta:

 

¿Cuál es la mejor manera de representar un conjunto de datos a modo de minimizar los recursos necesarios?

  • Tenemos primero que determinar la cantidad de información contenida en los datos: Shannon?

  • 2 desventajas: 
    • Asume que conocemos la distribución de probabilidades en la fuente.
    • Asume que la fuente es ergódica. El problema con esto es que la ergodicidad depende de la manera en como definamos un símbolo

¿Cómo le hacemos? 

Propuesta alternativa: Kolmogorov

  • Andrey Kolmogorov tomó una ruta alternativa y definió la información en un mensaje como la longitud en bits del programa más pequeño que puede reproducir el mensaje y a esto  le llamó información algorítmica

  • También conocida como Complejidad de Kolmogorov

  • Esta es la idea central de donde parte la Teoría de la Información Algorítmica que mencionamos en la introducción.

 

Exploremos el concepto

  • En la definición estamos hablando de un programa: ¿en qué lenguaje? ¿con qué máquina?

  • Para lograr generalidad, Kolmogorov estableció que dicha máquina tenía que sea una máquina de Turing.

     

Definición 1.- (Kolmogorov (1965), Chaitin (1966)). La información algorítmica, también llamada Complejidad de Kolmogorov de una cadena s es la longitud del programa más pequeño p que produce a s en una máquina de Turing universal U.

 

Es decir, K(s)={min|p| : U(p)=s}

Definición (Kolmogorov 1965-Chaitin 1966)

Teorema 1.- Sea M un mensaje tal que en un lenguaje C encontramos el programa P más pequeño que reproduce M con una longitud dada por L(C). Sea C' otro lenguaje y P' el programa más pequeño que reproduce M con una longitud dada por L(C').

 

Entonces |L(C)-L(C')|<a para alguna a constante con a>=0.

 

     Es decir, la información algorítmica es independiente del lenguaje salvo por constantes aditivas

     Realmente no importa el lenguaje que escojamos

Algunos resultados

3 importantes dificultades surgen al considerar la complejidad de Kolmogorov:

 

  1. Incomputabilidad


  2. Imposibilidad de la aleatoriedad


  3. Inestabilidad

Algunas dificultades

Teorema 2.- Calcular la Complejidad de Kolmogorov para un mensaje arbitrario es un problema incomputable.

 

 

 

1. Incomputabilidad

  • No existe un algoritmo que pueda decir si un programa p que genera es el más pequeño

  • Es imposible calcular en una cantidad acotada de tiempo la información algorítmica para un mensaje arbitrario

  • La complejidad de Kolmogorov sólo puede ser aproximada en la práctica.

 

    Implicaciones del Teorema 2

2. Imposibilidad de la aleatoriedad

  • Una cadena con una complejidad algorítmica baja se puede comprimir mucho: es posible codificar la información que contiene mediante un programa con una longitud mucho más pequeña

  • Encontrar el programa más pequeño que replique el mensaje original descansa del hecho de que es posible encontrar regularidades-patrones en el mensaje original y entonces la CK es más pequeña que el mensaje original, de modo que es posible comprimir el mensaje

  • Entonces, la CK de una cadena mide su aleatoriedad: más complejidad implica menor posibilidad de compresión y mayor aleatoriedad.

2. Imposibilidad de la aleatoriedad

  • Una sucesión aleatoria no se debe poder comprimir y un mensaje comprimido lo máximo posible debería parecer una sucesión aleatoria

  • Para calcular la CK tenemos que buscar algoritmos que puedan detectar patrones en el mensaje y que logren comprimirlo para que “parezca” una sucesión aleatoria.

2. Imposibilidad de la aleatoriedad

  • A pesar de que la compresión y la aleatoriedad están relacionadas, no es posible decir que una sucesión es realmente aleatoria

  • ¿Por qué? porque esto implicaría poder calcular K(s) de manera exacta y compararla con la longitud de s.

2. Imposibilidad de la aleatoriedad

  • Pero sí podemos es mostrar que una sucesión no es aleatoria si podemos encontrar un programa de una longitud menor a la sucesión

  • Entonces, es posible acotar superiormente a K(s) y s no puede ser más compleja que la longitud del programa mucho más chico conocido que genere a s.

La mayoría de las sucesiones  no son aleatorias

Resultado: Hay más sucesiones no aleatorias que aleatorias.

 

Esbozo de prueba:

  • Existen exactamente         cadenas de bits de longitud
  • Sólo hay                                                                     cadenas con menor número de bits
  • Existen considerablemente menos programas cortos que programas largos.
  • No podemos parear a todas las cadenas de longitud n con programas de longitud mucho menor, pues no hay suficientes programas pequeños para codificar a todas las cadenas más largas
2^n
2n2^n
n
nn
2^0+2^1+2^2+...+2^(n-1) = 2^n-1
20+21+22+...+2(n1)=2n12^0+2^1+2^2+...+2^(n-1) = 2^n-1
  • CK depende de la máquina de Turing: K(s)=min{|p| : U(p)=s}

  • ¿Es posible que                                   si                  ?: Sí.

3. Inestabilidad

K_{U_1}(s) \neq K_{U_2}(s)
KU1(s)KU2(s)K_{U_1}(s) \neq K_{U_2}(s)
U_1 \neq U_2
U1U2U_1 \neq U_2

Metas

¿Qué queremos hacer ?

 

  • Entregable final: obtener una aproximación de la Complejidad de Kolmogorov para cadenas pequeñas. Esto requiere encontrar la máquina de Turing más pequeña que replique la cadena.

  • Esta tarea se puede ver como un problema de optimización.

  • Los algoritmos genéticos son una acertada elección cuando el espacio de búsqueda es prohibitivamente grande o cuando tenemos poca idea del espacio solución.

  • Monte-M. Conte, I. De Falco [3] “el enfoque evolutivo ha ayudado a resolver los problemas relativos a tiempo y espacios intractactables que generalmente ocurren con los métodos que tratan de aproximar la función de complejidad de Kolmogorov”.  

¿Qué queremos hacer ?

 

 

  • Entonces el problema se planteó como un problema de optimización a resolver vía un algoritmo genético con una población inicial de Máquinas de Turing.

  • ¿En qué consiste dicho problema? En encontrar la máquina de Turing que al ser corrida genere una sucesión que se parezca “lo más posible” a la cadena original.

  • Hay que definir a qué nos referimos con “parecerse lo más posible” a la cadena original. Luego, hay que proponer una función de fitness entre la cadena de entrada y la cadena generada por una máquina de Turing.

Metodología

 

  • El algoritmo genético que se usó fue el canónico, el cual fue propuesto por John Holland en 1965.

  • A continuación se muestra el proceso usual de evaluación en un algoritmo genético.

Definiciones: Algoritmo Genético

   Población: Los individuos son Máquinas de Turing definidas mediante un string de 0’s y 1’s. Los genes entonces son los bits y los cromosomas los strings.

Número individuos: cuántos individuos por generación van a ingresar al algoritmo.

Número de generaciones: cuántas corridas al algoritmo genético se harán.

Cadena inicial: cadena pequeña de 0’s y 1’s que es ingresada por el usuario.

Definiciones: Algoritmo Genético simple

Fitness:

  • A cada Máquina de Turing se le asigna un valor de fitness como una medida de desempeño.
  • Se asume que la función de fitness es positiva y entre mejor sea un individuo como solución, el valor de fitness es mayor.
  • La función de fitness que definimos está basada en la idea de la distancia de Hamming entre dos strings de igual longitud, que es el número de posiciones en las cuales los símbolos correspondientes son diferentes. Es decir, el mínimo número de sustituciones necesarias para cambiar un string a otro.

Definiciones: Algoritmo Genético simple

Selección:

  • En esta fase se escogen individuos de la población en curso que constituirán un conjunto para reproducción.
  • Se usó "sigma truncation" en vez de selección proporcional para asignar el número esperado de hijos a cada individuo

Definiciones: Algoritmo Genético simple

Selección:

Queda definida de la siguiente manera:

 

 

es el fitness del individuo i

Fitness promedio de la población

es la desviación estándar del fitness de la población.

 

min(\frac{1+(F(i)-F)}{2v},1.5)
min(1+(F(i)F)2v,1.5)min(\frac{1+(F(i)-F)}{2v},1.5)
v
vv
F
FF
F(i)
F(i)F(i)

Definiciones: Algoritmo Genético simple

 

  • Lo que ocasiona restringir el número esperado a 1.5 es que los individuos se reproduzcan 0, 1 o 2 veces.

  • El efecto de esta manera de seleccionar es demorar la convergencia restringiendo el efecto que un solo individuo puede tener en la población, sin importar qué tan mejor fitness tenga este individuo con respecto a toda la población.

Programa

 

Software: La interfaz gráfica y sua rutinas se llevaron a cabo en Java

 

Manuales:

Recursos desarrollados

Resultados

 

Nuestros resultados

El humor nunca está de más

El humor nunca está de más

Bibliografía

Bibliografía

 

[1] Boolos, Burgess & Jeffrey, 2007.

[2] A. Kuri-Morales, Approximate Calculation of Information via Evolutionary Algorithms.

[3] M. Conte, I. De Falco, Genetic Programming Estimates of Kolmogorov Complexity, University of Naples \Federico II", Research Institute on Parallel Information Systems.

[4] D. E. Goldberg, Genetic Algorithm in Search, Optimization, and Machine Learning, Addison Wesley Publishing Company, January 1989.

Gracias

Made with Slides.com