1. Fundamentos: Dos Mundos, Una Idea
Comprendiendo los orígenes físicos y su evolución hacia la Inteligencia Artificial.
Movimiento Browniano
Descubierto por el botánico Robert Brown al observar polen en agua. Las partículas realizan un recorrido aleatorio (random walk) debido a las colisiones impredecibles con las moléculas del fluido.
- Es un proceso estocástico (gobernado por la probabilidad).
- Las partículas tienden a dispersarse desde zonas de alta concentración hacia una distribución uniforme.
- Descrito matemáticamente por Albert Einstein en 1905.
Modelos de Difusión
Un enfoque de IA generativa (como Midjourney o DALL-E) que aprende a crear datos destruyéndolos primero. Utiliza ruido aleatorio para corromper la información de manera iterativa.
- Proceso Forward: Añade ruido gradualmente a una imagen hasta que es irreconocible.
- Proceso Reverse: Una red neuronal aprende a "limpiar" ese ruido paso a paso.
- Genera nuevos datos a partir de ruido puro.
2. El Puente Matemático
¿Cómo conectamos el polen en el agua con la generación de píxeles?
El secreto que une ambas disciplinas es la Ecuación Diferencial Estocástica (SDE), y más específicamente, la Dinámica de Langevin.
Dinámica de Langevin
En física, describe la evolución del estado de un sistema sometido a fuerzas estocásticas (ruido). En IA, la usamos para definir cómo los píxeles de una imagen original x_0 se difuminan hacia una distribución de ruido gaussiano x_T a lo largo de un tiempo T.
Donde dw es el Movimiento Browniano (ruido de Wiener), inyectando el caos necesario.
El Cronograma de Ruido (Beta Schedule)
En los modelos de difusión, controlamos cuánta "física" (ruido) aplicamos en cada paso temporal.
3. Laboratorio Interactivo: Dinámica de Partículas
Visualiza la relación. Cada punto representa datos (un píxel) o una partícula en el espacio.
Observación: El movimiento hacia adelante representa la Ecuación de Difusión Estándar. El movimiento hacia atrás representa la red neuronal estimando y restando el Gradiente del Logaritmo de la Probabilidad (Score).
4. Diseño de Laboratorio en Google Cloud (GCP)
Arquitectura propuesta para entrenar un modelo DDPM (Denoising Diffusion Probabilistic Model) a escala.
Entrenar modelos de difusión requiere simular millones de trayectorias estocásticas y calcular funciones de pérdida complejas. GCP proporciona la infraestructura necesaria para acelerar este proceso mediante Vertex AI y computación acelerada por hardware.
Cloud Storage
Almacena los datasets de imágenes crudas. Debido a la naturaleza iterativa del modelo, el pipeline de datos debe ser altamente eficiente (usando tf.data o Dataflow para preprocesamiento).
Vertex AI Custom Training
Utiliza máquinas A2 o A3 (NVIDIA A100/H100). Aquí se simula el movimiento browniano añadiendo ruido (Forward Process) y se entrena una red U-Net para estimar el ruido original.
Vertex AI Endpoints
Despliega la red U-Net entrenada. Al recibir una solicitud, el Endpoint toma ruido gaussiano puro y ejecuta el ciclo iterativo de denoising (resolviendo la SDE inversa) para generar los datos finales.