- ODE
- Ecuación Diferencial Ordinaria (Ordinary Differential Equation). Ecuación que describe la evolución de un estado en función de sus derivadas respecto al tiempo: . — Clase 2
- PDE
- Ecuación en Derivadas Parciales (Partial Differential Equation). Generalización de las ODEs donde el estado depende de múltiples variables independientes (e.g., tiempo y espacio). — Clase 2
- NODE
- Ecuación Diferencial Ordinaria Neuronal (Neural Ordinary Differential Equation). Modelo donde la dinámica del estado está parametrizada por una red neuronal: . Introducido por Chen et al. (2018). — Clase 2
- UDE
- Ecuación Diferencial Universal (Universal Differential Equation). Generalización de las NODEs donde partes de una ecuación diferencial conocida son reemplazadas por redes neuronales. Introducido por Rackauckas et al. (2020).
- Parámetro
- Vector que caracteriza el comportamiento de un sistema dinámico. Inferir a partir de datos observados es uno de los problemas centrales del curso. — Clase 2
- Condición inicial
- Valor que especifica el estado del sistema en el tiempo inicial . Junto con la ecuación diferencial ordinaria, determina unívocamente la solución (bajo condiciones de regularidad). — Clase 2
- Ajuste de trayectorias
- Método de inferencia estadística (trajectory matching) que estima los parámetros minimizando la discrepancia entre la solución numérica y las observaciones . Ver Ramsay & Hooker (2017). — Clase 2
- Programación diferenciable
- Paradigma computacional (differentiable programming) que permite calcular gradientes de funciones definidas por programas, incluyendo simulaciones numéricas de ecuaciones diferenciales. Habilita el entrenamiento de modelos híbridos física-datos. Ver Sapienza et al. (2024) y Blondel & Roulet (2024).
- Sistema de Lotka-Volterra
- Modelo depredador-presa descripto por el sistema de ODEs: , . Es uno de los ejemplos recurrentes del curso. — Clase 2
- Chen, R. T., Rubanova, Y., Bettencourt, J., & Duvenaud, D. K. (2018). Neural ordinary differential equations. Advances in Neural Information Processing Systems, 31.
- Rackauckas, C., Ma, Y., Martensen, J., Warner, C., Zubov, K., Supekar, R., Skinner, D., Ramadhan, A., & Edelman, A. (2020). Universal differential equations for scientific machine learning. arXiv Preprint arXiv:2001.04385.
- Ramsay, J., & Hooker, G. (2017). Dynamic data analysis. Springer New York, New York, NY. Doi, 10, 978–1.
- Sapienza, F., Bolibar, J., Schäfer, F., Groenke, B., Pal, A., Boussange, V., Heimbach, P., Hooker, G., Pérez, F., Persson, P.-O., & Rackauckas, C. (2024). Differentiable Programming for Differential Equations: A Review. arXiv. 10.48550/arxiv.2406.09699
- Blondel, M., & Roulet, V. (2024). The elements of differentiable programming. arXiv Preprint arXiv:2403.14606.