UNIVERSIDAD DE VIGO
DEPARTAMENTO DE INGENIERIA QUIMICA
MODELADO E IDENTIFICACION DE
BIOPROCESOS
Memoria que para optar al grado de Doctora por la
Universidad de Vigo presenta
Marıa Rodrıguez Fernandez
Vigo, 2006
Autorizacion
El Doctor Julio Rodrıguez Banga, Investigador Cientıfico del Instituto de
Investigaciones Marinas de Vigo (C.S.I.C.)
CERTIFICA:
Que la memoria adjunta, titulada “Modelado e Identificacion de Bioprocesos”,
que para optar al grado de Doctora presenta Da. Marıa Rodrıguez Fernandez, ha sido
realizada bajo su inmediata direccion en el Instituto de Investigaciones Marinas del
C.S.I.C. y, considerando que constituye trabajo de Tesis, autoriza su presentacion
en la Universidad de Vigo.
Vigo, 9 de Octubre de 2006
Fdo.: Dr. Julio Rodrıguez Banga
Agradecimientos
Son muchas las personas e instituciones que durante estos anos han participado
en este trabajo y a todas ellas quiero expresar mi gratitud por el apoyo prestado.
En primer lugar deseo expresar mi mas profundo agradecimiento al Dr. Julio
Rodrıguez Banga por su labor de direccion en este trabajo y por su constante apoyo
y asesoramiento en todos los aspectos de la investigacion y elaboracion de esta Tesis.
A el debo agradecer la confianza depositada en mi al brindarme la oportunidad de
formar parte de su grupo ası como todo su tiempo y permanente disponibilidad.
Quisiera agradecer a todo el personal del Instituto de Investigaciones Marinas del
CSIC, en especial al grupo de Ingenierıa de Procesos por todos los momentos com-
partidos, ¡os echare de menos!. Me gustarıa destacar aquı a Eva por la colaboracion
prestada en todo momento.
Asimismo, agradezco al Ministerio de Educacion y Ciencia por la financiacion de
los proyectos AGL2001-2610-C02-02 y AGL2004-05206-C02-01/ALI y a la Xunta de
Galicia por el proyecto PGIDIT02PXIC40211PN y por concederme una beca que me
permitio realizar una estancia en la UCSB (University of California Santa Barbara).
Quiero mandar desde aquı mi mas sincero agradecimiento al Prof. Francis J.
Doyle III, a su grupo de investigacion de la UCSB y al equipo del Sansum Diabetes
Research Institute por la amabilidad y el afecto con el que me acogieron y por lo
mucho que he aprendido de ellos.
A la Comision Europea, a traves del CTS (Control Training Site), por darme la
oportunidad de realizar una estancia en Supelec y a la Prof. Francoise Lamnabhi-
Lagarrigue y al Prof. Eric Walter por la supervision del trabajo allı realizado.
A mi familia y amigos debo el carino y los animos necesarios para que este trabajo
llegase a buen puerto, especialmente a mis padres y a mis hermanos, gracias es lo
menos y a la vez lo mas que puedo deciros.
No puedo acabar los agradecimientos sin recordar a la persona que mas ha sufrido
este trabajo. Gracias Juan, por estar siempre ahı.
A todos los mencionados y a todos los que quedan en el tintero, muchas gracias
por el apoyo prestado, el carino recibido y los animos proporcionados.
A mis padres y a mis hermanos
A Juan
All models are wrong... but some are useful.
George E. P. Box
Resumen
La ingenierıa de procesos moderna se basa en el uso de modelos matematicos
rigurosos para realizar tareas de analisis, diseno, optimizacion y control. En el caso
de bioprocesos (industria alimentaria y biotecnologica) estos modelos suelen tener
un caracter dinamico y no lineal.
El desarrollo de un modelo matematico puede considerarse como un ciclo: par-
tiendo de unos objetivos (finalidad del modelo) y de unos conocimientos a priori
(datos preliminares, analisis basico e hipotesis iniciales), se propone una estructura
para el modelo. A partir de los datos experimentales, se realiza entonces la esti-
macion de parametros dando lugar a un modelo inicial que debe ser validado con
nuevos experimentos, lo que en la mayorıa de los casos revelara algunas deficiencias.
En ese caso, debe plantearse una nueva estructura del modelo o un nuevo diseno de
experimentos. Este proceso debe repetirse de forma iterativa hasta que la etapa de
validacion se considere satisfactoria. El presente estudio se centra en los problemas
de (i) estimacion de parametros y (ii) diseno optimo de experimentos dinamicos.
El problema de estimacion de parametros se plantea como la minimizacion de
una funcion de coste (J) que mide la calidad del ajuste del modelo con respecto
a un conjunto de datos experimentales, sujeto a la dinamica del sistema y a otras
posibles restricciones algebraicas. Esta formulacion corresponde a la de un problema
de optimizacion no lineal (Non-Linear Optimization Problem, NLO) con ecuaciones
diferenciales ordinarias y algebraicas como restricciones.
Matematicamente, el diseno optimo de experimentos puede plantearse como un
problema de optimizacion dinamica en donde el objetivo es encontrar un conjunto
de variables de entrada (controles) para los experimentos dinamicos que maximicen
la calidad de algun indicador estadıstico de los parametros estimados. Con objeto
de aumentar la identificabilidad practica y la precision de los parametros, en este
trabajo se han utilizado funciones escalares de la matriz de informacion de Fisher.
Empleando metodos directos, que transforman el problema original en un problema
de optimizacion no lineal (NLO) mediante la parametrizacion de los controles y/o
de los estados, se pueden obtener soluciones numericas.
xi
xii Resumen
Debido a la naturaleza no lineal del modelo dinamico, estos dos problemas son fre-
cuentemente multimodales (no convexos) y, por lo tanto, si se resuelven con metodos
tradicionales de optimizacion local es muy probable que converjan a optimos locales.
Ademas, en el caso de un mal ajuste de los parametros, no hay modo de saber si
este se debe a una mala formulacion del modelo o si es debido a la convergencia a
una solucion de naturaleza local. Esta es una clara motivacion para la utilizacion
de metodos que proporcionen mas garantıas de convergencia al optimo global tanto
para resolver el problema de calibracion como para resolver el problema de diseno
optimo de experimentos.
La creciente demanda de los consumidores con respecto a la calidad de los ali-
mentos y el endurecimiento de las normas de seguridad, han motivado el desarrollo
de metodos de computacion basados en modelos para la simulacion, la optimizacion
y el control de tecnicas de procesamiento de alimentos. Las aproximaciones basadas
en modelos son tambien un tema central en la biologıa de sistemas ya que proporcio-
nan nuevos modos de analizar los datos procedentes de la genomica y la proteomica,
proporcionando un gran entendimiento sobre el lenguaje de las celulas y los orga-
nismos. Ademas, estas aproximaciones proporcionan estrategias sistematicas para
cuestiones clave de la medicina y la industria farmaceutica y biotecnologica como,
por ejemplo, el desarrollo de farmacos teniendo en cuenta los efectos de posibles
nuevos medicamentos en rutas bioquımicas y en la fisiologıa.
En este trabajo se estudia el modelado y la identificacion de una serie de bioproce-
sos. Relativos a la industria alimentaria, se han considerado procesos de conservacion
basados en tecnicas de secado y procesamiento termico de alimentos. En relacion a
la biologıa de sistemas, se han considerado modelos de rutas bioquımicas de gran
interes ası como la modelizacion de la cinetica de la glucosa en pacientes diabeticos
que es un paso clave en el desarrollo del deseado “pancreas artificial”.
Para llevar a cabo estas tareas, se presentan nuevas metodologıas de optimizacion
global que aumentan significativamente la eficiencia de las hasta ahora utilizadas
garantizando su robustez. Se hace tambien una revision de los metodos de analisis de
sensibilidades ası como de los tipos de funciones de sensibilidad y de su aplicabilidad,
especialmente para cuantificar la importancia de los parametros estableciendo un
ranking de los mismos. Ademas, se analizan las tecnicas existentes para el estudio de
la identificabilidad y se presenta un programa desarrollado en Matlab R© que, como se
explicara detalladamente a lo largo de este trabajo, permite automatizar las tareas de
analisis de identificabilidad, ranking de parametros, calibracion del modelo, calculo
de intervalos de confianza y diseno optimo de experimentos dinamicos.
Objetivos
El objetivo fundamental de esta tesis consiste en desarrollar una metodologıa
integrada para el modelado y la identificacion de bioprocesos, es decir, aquellos per-
tenecientes a la industria alimentaria y biotecnologica. Los modelos que representan
estos procesos suelen tener un caracter dinamico y no lineal por lo que el problema
inverso asociado resulta especialmente complejo. Para poder realizar esta tarea con
exito, se han propuesto una serie de sub-objetivos:
Analisis de la identificabilidad de los modelos tanto estructural (para aquellos
abordables mediante las tecnicas disponibles en la actualidad) como practica
y cuantificacion de la importancia de los parametros estableciendo un ranking
de los mismos.
Estimacion robusta de parametros mediante metodos que permitan el mane-
jo adecuado de ruido en las medidas y observaciones parciales ası como la
resolucion de este tipo de problemas en un tiempo de calculo reducido.
Diseno optimo de experimentos empleando tecnicas de optimizacion dinamica
con objeto de reducir los problemas de identificabilidad practica, aumentar la
precision de los parametros estimados y disminuir el esfuerzo experimental.
Debido a la multimodalidad de este tipo de problemas, el uso de metodos
globales permitira asegurar que los nuevos experimentos disenados sean glo-
balmente optimos y evitar la convergencia a mınimos locales.
Desarrollo de un entorno integrado para la automatizacion de las tareas de
estimacion de parametros, diseno optimo de experimentos, analisis de la iden-
tificabilidad y otras medidas asociadas.
Modelado e identificacion de una serie de bioprocesos de interes relativos a:
i.- Secado de alimentos
ii.- Procesamiento termico de alimentos
xiii
xiv Objetivos
iii.- Isomerizacion del α-pineno
iv.- Inhibicion de la proteasa del HIV
v.- Funcion de las caspasas en la apoptosis
vi.- Ruta bioquımica en tres pasos
vii.- Cinetica de la glucosa en pacientes diabeticos
Indice general
I Introduccion 1
1. Modelos matematicos 3
1.1. Desarrollo de modelos matematicos . . . . . . . . . . . . . . . . . . . 4
1.2. Tipos de modelos matematicos . . . . . . . . . . . . . . . . . . . . . . 5
II Metodologıa 9
2. Estimacion de parametros 11
2.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1. Caracterizacion del modelo . . . . . . . . . . . . . . . . . . . . 11
2.1.2. Datos experimentales . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.3. Funciones de coste . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2. Metodos de estimacion . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1. Metodos de valor inicial . . . . . . . . . . . . . . . . . . . . . 18
2.2.2. Metodo multiple shooting . . . . . . . . . . . . . . . . . . . . . 19
3. Analisis de sensibilidad 21
3.1. Metodos numericos para el calculo de sensibilidades locales . . . . . . 22
3.1.1. Aproximacion por diferencias finitas . . . . . . . . . . . . . . . 22
3.1.2. Metodos directos . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.3. Metodo de la funcion de Green . . . . . . . . . . . . . . . . . 24
3.2. Tipos de funciones de sensibilidad . . . . . . . . . . . . . . . . . . . . 24
3.2.1. Funcion de sensibilidad absoluta . . . . . . . . . . . . . . . . . 25
3.2.2. Funcion de sensibilidad relativa . . . . . . . . . . . . . . . . . 25
3.2.3. Funcion de sensibilidad semirelativa . . . . . . . . . . . . . . . 26
3.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4. Analisis de identificabilidad 29
4.1. Identificabilidad estructural . . . . . . . . . . . . . . . . . . . . . . . 30
xv
xvi Indice general
4.2. Identificabilidad local a priori . . . . . . . . . . . . . . . . . . . . . . 32
4.3. Identificabilidad practica o a posteriori . . . . . . . . . . . . . . . . . 34
4.3.1. Metodo basado en la FIM . . . . . . . . . . . . . . . . . . . . 34
4.3.2. Metodo basado en las regiones de confianza . . . . . . . . . . 36
5. Intervalos de confianza 37
5.1. Regiones de confianza exactas . . . . . . . . . . . . . . . . . . . . . . 37
5.2. Metodo basado en la FIM . . . . . . . . . . . . . . . . . . . . . . . . 38
5.3. Metodo basado en la matriz Hessiana . . . . . . . . . . . . . . . . . . 39
5.4. Metodos de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.4.1. Jackknife . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.4.2. Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6. Diseno optimo de experimentos 43
6.1. Criterios de diseno optimo . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2. Formulacion del OED como un problema de optimizacion dinamica . 47
6.3. Metodo de parametrizacion de control . . . . . . . . . . . . . . . . . . 48
7. Metodos de optimizacion 51
7.1. Metodos locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7.1.1. Metodos para problemas sin restricciones . . . . . . . . . . . . 53
7.1.2. Metodos para problemas con restricciones . . . . . . . . . . . 54
7.1.3. Metodos locales empleados . . . . . . . . . . . . . . . . . . . . 55
7.2. Metodos globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
7.2.1. Metodos deterministas . . . . . . . . . . . . . . . . . . . . . . 56
7.2.2. Metodos estocasticos . . . . . . . . . . . . . . . . . . . . . . . 57
7.2.3. Metodos hıbridos . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.3. Desarrollo de un metodo hıbrido secuencial . . . . . . . . . . . . . . . 62
7.3.1. Ajuste del metodo hıbrido secuencial . . . . . . . . . . . . . . 63
7.4. Metodo hıbrido paralelo sincronico . . . . . . . . . . . . . . . . . . . 64
8. GOSBio: entorno para modelado e identificacion 69
8.1. Descripcion de la metodologıa . . . . . . . . . . . . . . . . . . . . . . 70
8.2. Fichero de entrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
8.2.1. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . 72
8.2.2. Datos de entrada . . . . . . . . . . . . . . . . . . . . . . . . . 73
8.3. Ficheros de salida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
8.3.1. Datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
8.3.2. Figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Indice general xvii
III Aplicaciones 77
9. Secado de alimentos 79
9.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.2.1. Transferencia de masa . . . . . . . . . . . . . . . . . . . . . . 81
9.2.2. Transferencia de energıa . . . . . . . . . . . . . . . . . . . . . 82
9.3. Analisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 83
9.4. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 86
9.5. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 87
9.5.1. Caso 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
9.5.2. Caso 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
9.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 91
9.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 91
9.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
10.Procesamiento termico de alimentos 95
10.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
10.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
10.2.1. Esterilizacion industrial de alimentos enlatados . . . . . . . . 98
10.3. Analisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 99
10.4. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 99
10.5. Diseno optimo de experimentos . . . . . . . . . . . . . . . . . . . . . 100
10.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 104
10.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
11.Isomerizacion del α-pineno 109
11.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
11.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
11.3. Analisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 111
11.4. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 112
11.5. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 113
11.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 115
11.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 117
11.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
xviii Indice general
12.Inhibicion de la proteasa del HIV 119
12.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
12.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
12.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 121
12.4. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 122
12.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 124
12.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 126
12.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
13.Funcion de las caspasas en la apoptosis 129
13.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
13.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
13.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 132
13.4. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 134
13.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 137
13.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 139
13.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
14.Ruta bioquımica en tres pasos 141
14.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
14.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
14.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 143
14.4. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 145
14.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 153
14.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 154
14.7. Diseno optimo de experimentos . . . . . . . . . . . . . . . . . . . . . 156
14.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
15.Cinetica de la glucosa en pacientes diabeticos 161
15.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
15.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
15.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 165
15.4. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 166
15.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 170
15.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 171
15.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Indice general xix
IV Conclusiones 173
V Apendices 181
A. Ejemplo de fichero de entrada para el entorno GOSBio 183
VI Bibliografıa 189
VII Publicaciones 209
Indice de tablas
9.1. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 87
9.2. Valores nominales y lımites para los 8 parametros . . . . . . . . . . . . . 88
9.3. Soluciones para el caso 1 correspondientes a J=0.33 y J=0.31 . . . . . . . 89
9.4. Valores e intervalos de confianza de los parametros optimos . . . . . . . . 92
10.1. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 100
10.2. Valor del criterio D y E modificado para cinco, seis y ocho experimentos . 102
10.3. Valores e intervalos de confianza de los parametros optimos . . . . . . . . 105
11.1. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 113
11.2. Valores e intervalos de confianza de los parametros optimos . . . . . . . . 117
12.1. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 121
12.2. Valores nominales y lımites para los 20 parametros . . . . . . . . . . . . 122
12.3. Valor de los parametros para dos resultados obtenidos con SSm . . . . . . 125
12.4. Valores e intervalos de confianza de los parametros optimos . . . . . . . . 127
13.1. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 133
13.2. Valores nominales y lımites para los 18 parametros . . . . . . . . . . . . 134
13.3. Valores e intervalos de confianza de los parametros optimos . . . . . . . . 139
14.1. Valores iniciales para los 8 estados . . . . . . . . . . . . . . . . . . . . . 143
14.2. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 144
14.3. Valores nominales y lımites para los 36 parametros . . . . . . . . . . . . 146
14.4. Valores de S y P (10 experimentos) . . . . . . . . . . . . . . . . . . . . 147
14.5. Evolucion de SRES-n2fb para los conjunto de datos I y II . . . . . . . . . 150
14.6. Intervalos de confianza de los parametros optimos . . . . . . . . . . . . . 155
14.7. Diseno original y disenos optimos para 16 y 10 experimentos . . . . . . . 158
15.1. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 166
15.2. Valores nominales y lımites para los cuatro parametros . . . . . . . . . . 167
xxi
xxii Indice de tablas
15.3. Valores de los parametros optimos para cada paciente . . . . . . . . . . . 168
15.4. Valor medio de los errores de prediccion para los niveles de glucosa . . . . 169
15.5. Valores y desviacion estandar de los parametros optimos . . . . . . . . . 171
Indice de figuras
1.1. Esquema para la construccion de modelos matematicos . . . . . . . . . . 4
2.1. Esquema para la estimacion mediante un metodo de valor inicial . . . 18
2.2. Ejemplo de estimacion mediante el metodo multiple shooting . . . . . 20
6.1. Interpretacion geometrica de varios criterios de diseno optimo . . . . 45
7.1. Metodos locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.2. Metodos globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.3. Esquema de funcionamiento de Scatter Search . . . . . . . . . . . . . . . 66
8.1. Esquema de GOSBio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
9.1. Secado por aire de una lamina de celulosa . . . . . . . . . . . . . . . . . 81
9.2. Lıneas de contorno para los parametros b3 y b6 . . . . . . . . . . . . . . 85
9.3. Lıneas de contorno para los parametros p1 y b3 . . . . . . . . . . . . . . 85
9.4. Lıneas de contorno para los parametros p1 y p2 . . . . . . . . . . . . . . 86
9.5. Lıneas de contorno para los parametros b1 y b4 . . . . . . . . . . . . . . 86
9.6. Parametros ordenados por orden decreciente de δmsqr . . . . . . . . . . . 86
9.7. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . . 89
9.8. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . . 90
9.9. Valores predichos versus datos experimentales para Ts . . . . . . . . . . . 90
9.10. Valores predichos versus datos experimentales para mavg . . . . . . . . . 90
9.11. Matriz de correlacion a posteriori . . . . . . . . . . . . . . . . . . . . . 91
9.12. Region de confianza para los parametros p2 y b4 . . . . . . . . . . . . . 92
9.13. Region de confianza para los parametros b1 y b4 . . . . . . . . . . . . . 92
10.1. Parametros ordenados por orden decreciente de δmsqr . . . . . . . . . . . 100
10.2. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . . 101
10.3. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . . 102
10.4. Evolucion de los criterios D y E modificado con el numero de experimentos 103
xxiii
xxiv Indice de figuras
10.5. Perfiles optimos para los experimentos 1, 3 y 6 . . . . . . . . . . . . . . 103
10.6. Perfiles optimos para los experimentos 2, 4 y 5 . . . . . . . . . . . . . . 103
10.7. Dinamica de la T0 y la retN para los experimentos 1, 3 y 6 . . . . . . . . 104
10.8. Dinamica de la T0 y la retN para los experimentos 2, 4 y 5 . . . . . . . . 104
10.9. Matriz de correlacion a posteriori . . . . . . . . . . . . . . . . . . . . . 104
10.10.Region de confianza para el diseno optimo de seis experimentos . . . . . . 106
10.11.Funcion objetivo para el diseno optimo de seis experimentos . . . . . . . . 106
11.1. Esquema de la isomerizacion del α-pineno . . . . . . . . . . . . . . . . . 109
11.2. Parametros ordenados por orden decreciente de δmsqr . . . . . . . . . . . 113
11.3. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . . 114
11.4. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . . 115
11.5. Datos experimentales versus valores predichos por el modelo . . . . . . . 115
11.6. Valores de los residuos en funcion del tiempo . . . . . . . . . . . . . . . 115
11.7. Matriz de correlacion a posteriori . . . . . . . . . . . . . . . . . . . . . 116
11.8. Funcion objetivo en el plano (p1, p2) . . . . . . . . . . . . . . . . . . . . 116
11.9. Funcion objetivo en el plano (p4, p5) . . . . . . . . . . . . . . . . . . . . 116
11.10.Funcion objetivo en el plano (p1, p2) . . . . . . . . . . . . . . . . . . . . 117
11.11.Funcion objetivo en el plano (p4, p5) . . . . . . . . . . . . . . . . . . . . 117
12.1. Esquema de reaccion para la inhibicion irreversible de la proteasa del HIV 119
12.2. Parametros ordenados por orden decreciente de δmsqr . . . . . . . . . . . 121
12.3. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . . 123
12.4. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . . 124
12.5. Datos experimentales versus valores predichos por el modelo . . . . . . . 125
12.6. Valores de los residuos en funcion del tiempo . . . . . . . . . . . . . . . 125
12.7. Matriz de correlacion a posteriori . . . . . . . . . . . . . . . . . . . . . 126
13.1. Esquema apoptosis (Fussengger et al., 2000) . . . . . . . . . . . . . . . . 130
13.2. Parametros ordenados por orden decreciente de δmsqr . . . . . . . . . . . 132
13.3. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . . 135
13.4. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . . 136
13.5. Valores predichos versus datos pseudo-experimentales para las 11 veloci-
dades de reaccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
13.6. Valores predichos versus datos pseudo-experimentales para las 19 concen-
traciones de proteına . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
13.7. Matriz de correlacion a posteriori . . . . . . . . . . . . . . . . . . . . . 138
14.1. Esquema de reaccion para la ruta bioquımica en tres pasos . . . . . . . . 142
Indice de figuras xxv
14.2. Parametros ordenados por orden decreciente de δmsqr . . . . . . . . . . . 145
14.3. Frecuencia de las soluciones de n2fb en modo multi-start . . . . . . . . . 148
14.4. Efecto del punto de cambio en la convergencia del hıbrido . . . . . . . . . 149
14.5. Error relativo considerando el conjunto de datos II (3 % de error) . . . . . 151
14.6. Error relativo considerando el conjunto de datos III (5% de error) . . . . 151
14.7. Valores predichos versus datos pseudo-experimentales (conjunto III) . . . 152
14.8. Curvas de convergencia de SRES, hıbrido SRES-n2fb y SSm . . . . . . . . 153
14.9. Matriz de correlacion a posteriori . . . . . . . . . . . . . . . . . . . . . 154
14.10.Lıneas de contorno para los parametros p1 y p6 . . . . . . . . . . . . . . 154
14.11.Lıneas de contorno para los parametros p1 y p4 . . . . . . . . . . . . . . 154
14.12.Curvas de convergencia para el OED con 16 experimentos . . . . . . . . . 158
15.1. Bomba de infusion de insulina . . . . . . . . . . . . . . . . . . . . . . . 162
15.2. Estructura del modelo de Hovorka et al. (2004) . . . . . . . . . . . . . . 164
15.3. Estructura del modelo de infusion de insulina (Wilinska et al., 2005) . . . 165
15.4. Parametros ordenados por orden decreciente de δmsqr . . . . . . . . . . . 166
15.5. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . 167
15.6. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . 168
15.7. Porcentaje de error entre los datos experimentales y los predichos . . 169
15.8. Ajuste del modelo con los datos del experimento 1 . . . . . . . . . . . . . 170
15.9. Validacion del ajuste con los datos del experimento 2 . . . . . . . . . . . 170
15.10.Matriz de correlacion a posteriori . . . . . . . . . . . . . . . . . . . . . 170
Notacion
Tipografıa
Italica EscalarNegrita minuscula VectorNegrita mayuscula Matriz
Abreviaturas
ACO Metodo de la colonia de hormigasBLUE Mejor estimador lineal no sesgadoCP Parametrizacion totalCVP Parametrizacion de controlDAEs Ecuaciones diferenciales ordinarias y algebraicasGO Optimizacion globalDDM Metodo directo desacopladoEP Programacion EvolutivaES Estrategias EvolutivasFIM Matriz de informacion de FisherGA Algoritmo GeneticoGFM Metodo de la funcion de GreenGPS Metodo de busqueda por patrones generalizadosGRG Metodo del gradiente reducido generalizadoIDP Metodo de programacion dinamica iterativaIVP Problema de valor inicialKKT Condiciones de optimalidad de Karush-Kuhn-TuckerMINLP Problema de optimizacion no lineal entero mixtoNLO Problema de optimizacion no linealNMOL Metodo numerico de las lıneasODEs Ecuaciones diferenciales ordinariasOED Diseno optimo de experimentosPDAEs Ecuaciones diferenciales en derivadas parciales y algebraicasPDEs Ecuaciones en derivadas parciales
xxvii
xxviii Notacion
s.g.i. Estructuralmente globalmente identificables.l.i. Estructuralmente localmente identificables.u.i. Estructuralmente no identificableSC1 y SC2 Criterio de parada para los metodos estocastico y determinista
respectivamenteSA Metodo de templado simuladoSS Metodo de busqueda dispersaSQP Metodo de programacion cuadratica secuencialTDT Modelo basado en el tiempo de muerte termicaTPBVP Problema de condiciones frontera en dos puntosTS Metodo de busqueda tabu
Sımbolos
ε Errores de observacion (ruido)C Matrix de covarianzaF Jacobiano parametrico de un conjunto de ODEsF1, F2 y F3 Condiciones frontera de primer, segundo y tercer ordenJ Funcion objetivoJmp Funcion de maxima probabilidadJmc Funcion de mınimos cuadradosJ Jacobiano de un conjunto de ODEsM Estructura de un modeloN Numero total de datos experimentalesNp Numero de parametros a estimarNu Numero de variables de controlNx Numero de variables de estado distribuidasNy Numero de variables de estado concentradasNz Numero de variables medidasR Matriz de correlacionσ Desviacion estandar (ruido de las medidas)p Vector de los Np parametros del modelop∗ Vector de parametros verdaderos del procesop Estimador de p asociado a optimo localp Estimador de p asociado a optimo globalt Variable temporalu Vector de las Nu variables de controlx Vector de las Nx variables de estado distribuidasxξ y xξξ Vectores de la primera y segunda derivada espacial de xxt Derivada temporal de xy Vector de las Ny variables de estado concentradasy Derivada temporal de yz Vector de las Nz variables medidas en cada experimentoz Vector de las medidas experimentalesξ Vector de coordenadas espaciales
Parte I
Introduccion
Capıtulo 1
Modelos matematicos
La busqueda de pautas en el mundo fısico parte de la idea de que este es inteligible
y su funcionamiento puede conocerse mediante la observacion y la especulacion.
Esta forma de pensar se remonta a los filosofos naturalistas jonios del siglo VI
antes de Cristo (Tales, Anaximandro y sus discıpulos Leucipo y Democrito). La
idea subyacente en esta inteligibilidad es que toda la multiplicidad del mundo puede
reducirse a una serie de pautas o principios fundamentales llamadas leyes de la
naturaleza.
La Revolucion Cientıfica que culmino en 1687 con la publicacion de Philosophiae
Naturalis Principia Mathematica (Principios matematicos de la filosofıa natural) por
el matematico, fısico, alquimista e inventor Isaac Newton (1643-1727), considero que
el universo funciona como un engranaje de relojerıa. A partir de este momento, su
mensaje fundamental ha ido calando en la comunidad cientıfica y en nuestra sociedad
en general: “La naturaleza posee unas leyes y nosotros podemos encontrarlas”. Esta
afirmacion implica que todo sistema - mecanico, electrico, biologico, etc. - puede ser
descrito de manera adecuada mediante un modelo matematico. A pesar de que la
teorıa cuantica y la, recientemente desarrollada, teorıa del caos han probado que
esta afirmacion es falsa, la influencia en el modo de pensar de los cientıficos ha sido
enorme.
Hoy en dıa la idea de que un modelo es una simplificacion de la realidad y que
un modelo matematico es un modo particular de representacion es admitida por
toda la comunidad cientıfica. No se debe olvidar que el desarrollo de un modelo
esta siempre motivado por una aplicacion real y en este proceso se esta traduciendo
nuestro problema en el mundo real a un problema matematico equivalente que se
resuelve y despues se intenta interpretar. Esto se hace para llegar a comprender en
mayor profundidad la situacion original en el mundo real o para utilizar el modelo
para realizar tareas de analisis, diseno, optimizacion y/o control.
3
4 Capıtulo 1. Modelos matematicos
Cualquiera que sea el objetivo del modelo, este debe ser formulado explıcitamente
ya que influenciara en gran medida el proceso de modelado. Ademas, el modelo
obtenido debe ser juzgado en base a la satisfaccion de esos propositos.
1.1. Desarrollo de modelos matematicos
Como en otras tareas de la ingenierıa, la buena practica requiere una estrategia
general para la construccion de modelos definida en una secuencia de pasos que se
realizaran en parte de modo consecutivo y en parte de modo iterativo. Esta estrategia
puede esquematizarse en tres grandes bloques como se representa en la Figura 1.1
(Vansteenkiste y Spriet, 1982):
Definicióndel marco
Objetivos
Caracterizaciónde la estructura
Estimación deparámetros
Modelo
Validación
An
ális
is
Co
no
cim
ien
tos
a p
riori
Dis
eñ
o d
e e
xp
erim
en
tos
Da
tos
exp
erim
en
tale
s
SÍ
NO
Figura 1.1: Esquema para la construccion de modelos matematicos
I.– Establecimiento de las entradas
En una primera fase se establece la informacion disponible procedente de tres
fuentes principales:
Objetivos del modelo que, como se ha mencionado anteriormente, influiran
particularmente en la definicion del marco de trabajo.
Conocimiento previos tanto empıricos como teoricos (p.ej. leyes fısicas,
quımicas y, en el caso de bioprocesos, de naturaleza bioquımica o micro-
biologica).
1.2. Tipos de modelos matematicos 5
Datos experimentales. La adquisicion de datos puede realizarse duran-
te la operacion normal del sistema o durante un experimento disenado
especıficamente. En etapas posteriores se hara uso del diseno optimo de
experimentos para optimizar el contenido informativo de los datos resul-
tantes de cara a la identificacion del sistema.
II.– Identificacion del sistema
En teorıa de sistemas y de control, la identificacion de sistemas se define como
identificar un modelo a partir de datos experimentales e incluye los tres bloques
centrales del esquema de la Figura 1.1.
Definicion del marco en el que se establecen los lımites del sistema y las
variables de entrada y salida.
Caracterizacion de la estructura en donde se determina el tipo de modelo
a considerar (lineal-no lineal, continuo-discreto,...), su nivel de compleji-
dad y las relaciones funcionales entre las variables.
Estimacion de parametros que proporciona valores numericos para las
constantes de las relaciones funcionales.
La identificabilidad teorica de los parametros del modelo (tambien llamada
identificabilidad estructural) viene dada por la propia estructura del modelo
por lo que debe elegirse una estructura adecuada para poder estimar todos los
parametros.
III.– Validacion del modelo
Esta es la ultima etapa del ciclo de modelado en donde se comprueba si el
modelo alcanza los objetivos postulados. Cuando esta etapa no es satisfactoria,
los pasos anteriores deben ser reconsiderados.
Notese que un modelo nunca puede ser validado con completa certeza (Smith
et al., 1997) por lo que la fase de validacion consistira esencialmente en una
serie de intentos por “invalidar” el modelo.
1.2. Tipos de modelos matematicos
La eleccion de la estructura del modelo matematico es un punto crıtico en el
proceso de modelado. El tipo de modelo elegido va a depender de diversos factores
como la finalidad del modelo, las condiciones bajo las cuales este va a ser utilizado
(rangos de operacion, naturaleza de las entradas,...), el coste de construccion del
6 Capıtulo 1. Modelos matematicos
modelo y la informacion disponible (no tiene sentido concebir un modelo muy com-
plejo con muchos parametros si los datos experimentales disponibles son escasos e
imprecisos).
Entre las distintas clasificaciones que se pueden realizar de los modelos en funcion
de su estructura matematica cabe destacar (Jeppsson, 1996):
Lineales versus no lineales
En esta clasificacion se debe distinguir entre dos tipos de no linealidad: con
respecto a las entradas y con respecto a los parametros. Sea z(t,p,u) la salida a
tiempo t del modelo con parametros p cuando se le ha aplicado la entrada u(τ),
0 ≤ τ ≤ t desde una condicion inicial cero. Se dice que la estructura del modelo
es lineal en sus entradas si la salida satisface el principio de superposicion con
respecto a sus entradas, es decir, si:
∀ (λ, µ) ∈ R2, ∀t ∈ R+, z (t,p, λu1 + µu2) = λz (t,p,u1)+µz (t,p,u2) (1.1)
Por otra parte, se dice que la estructura de un modelo es lineal en sus parame-
tros si la salida satisface el principio de superposicion con respecto a sus
parametros, es decir, si:
∀ (λ, µ) ∈ R2, ∀t ∈ R+, z (t, λp1 + µp2,u) = λz (t,p1,u)+µz (t,p2,u) (1.2)
Siempre que sea posible se prefieren modelos lineales en sus entradas y en
sus parametros. Las estructuras lineales en sus entradas se benefician de la
existencia de resultados matematicos que facilitan su estudio teorico (p. ej.,
condiciones de estabilidad, control optimo, efecto de las perturbaciones). La
estimacion de parametros de estructuras lineales en sus parametros resulta
sencillo y a menudo es posible emplear formulas explıcitas.
Sin embargo, los modelos lineales en sus entradas tienen un reducido dominio
de validez y para la mayorıa de los procesos reales solo pueden aproximar el
comportamiento del sistema alrededor de un punto de operacion. Con respec-
to a los modelos lineales en sus parametros, estos a menudo carecen de un
significado concreto.
Tiempo continuo versus tiempo discreto
La mayorıa de los bioprocesos son dinamicos, es decir, varıan con el tiempo y
pueden clasificarse en funcion de la forma en la que consideran esta variable.
Los modelos en tiempo continuo estan basados en formulaciones de la velocidad
de cambio de las variables de estado. De este modo, los valores de las variables
1.2. Tipos de modelos matematicos 7
de estado como funciones del tiempo son obtenidas a partir de la solucion de un
sistema de ecuaciones diferenciales al que a menudo se le anaden restricciones
en forma de ecuaciones algebraicas.
En contraposicion, los modelos en tiempo discreto se basan en una division de
la escala de tiempo en intervalos discretos y las variables de estado se especifi-
can en un intervalo de tiempo determinado como funciones algebraicas de los
valores en el intervalo de tiempo inmediatamente anterior. Cuando un modelo
es simulado en un ordenador, este es discretizado ya que una computadora di-
gital es en si misma discreta, aunque se utilizan algoritmos especiales y pasos
de tiempo muy pequenos para imitar el comportamiento del sistema continuo
original casi a la perfeccion.
Deterministas versus estocasticos
Otra posible clasificacion surge entre los modelos que contemplan un cierto
grado de incertidumbre o aleatoriedad en su resultado final y los que no. En
estos ultimos, los modelos deterministas, todas las salidas vienen determinadas
con precision y de forma unica por el estado actual y los futuros valores de las
variables externas (entradas) del modelo.
En los modelos estocasticos, el resultado final no se conoce con certeza pero
puede expresarse como una distribucion de todos los posibles resultados. Es-
tos modelos tambien tienen en cuenta las propias influencias aleatorias de la
evolucion temporal del sistema. A pesar de que este tipo de descripcion puede
resultar mas realista para ciertos modelos biologicos ya que tiene en cuenta
explıcitamente las perturbaciones del sistema, la gran mayorıa de los formula-
dos hasta ahora son deterministas. Las principales razones para este hecho son
la falta de datos para caracterizar las variables aleatorias, los elevados requeri-
mientos computacionales para resolver ecuaciones diferenciales estocasticas y
el exito de los modelos deterministas para predecir el comportamiento futuro
en promedio.
Concentrados versus distribuidos
Como ya se ha mencionado, los modelos concentrados dinamicos en tiempo
continuo estan descritos por sistemas mixtos de ecuaciones diferenciales ordi-
narias y algebraicas (DAEs). Estos sistemas pueden clasificarse de acuerdo a
su ındice, definiendo este como el mınimo numero de veces que las ecuaciones
del sistema deben ser derivadas con respecto al tiempo para convertirse en
un sistema de ecuaciones diferenciales ordinarias (ODEs) (Pantelides et al.,
8 Capıtulo 1. Modelos matematicos
1988). De este modo, por definicion, cualquier sistema de ODEs tiene ındice
cero. Ası mismo, los sistemas de DAEs de ındice uno se comportan de modo
bastante parecido a los sistemas de ODEs pudiendo ser resueltos utilizando
metodos similares. Sin embargo, el comportamiento de los sistemas de ındi-
ce superior es cualitativamente diferente y deben ser tratados con metodos
especıficos.
Muchos procesos biologicos estan distribuidos no solo en el tiempo sino tam-
bien en el espacio. Matematicamente, las variables distribuidas en el espacio
pueden describirse mediante ecuaciones diferenciales parciales (PDEs) y los
modelos resultantes son los llamados modelos distribuidos. Muchas veces estas
ecuaciones estan combinadas con ecuaciones diferenciales ordinarias y ecua-
ciones algebraicas dando lugar a sistemas de PDAEs.
El presente estudio se centra en el estudio de bioprocesos (industria alimenta-
ria y biotecnologica) cuyos modelos suelen tener un caracter dinamico, no lineal y
normalmente estan descritos por sistemas de ecuaciones deterministas en tiempo
continuo. Se han considerado modelos tanto concentrados (descritos por sistemas
de DAEs) como distribuidos (sistemas de PDAEs) en funcion de los requerimientos
particulares de cada proceso. En ningun caso el ındice de los sistemas diferenciales-
algebraicos considerados es mayor que uno por lo que para todos ellos se ha podido
utilizar las tecnicas aplicables a sistemas de ODEs.
Parte II
Metodologıa
Capıtulo 2
Estimacion de parametros
2.1. Planteamiento del problema
Suponiendo como valida la estructura de un modelo, el problema de estimacion
de parametros (tambien conocido como identificacion o calibracion de modelos) trata
de encontrar los parametros que proporcionan el mejor ajuste de la prediccion del
modelo a un conjunto de datos experimentales dado. De este modo, el problema
de identificacion se establece como la minimizacion de una medida ponderada de la
distancia entre los valores experimentales correspondientes a las variables medidas
representados por z y los valores predichos para esas variables representados por z.
2.1.1. Caracterizacion del modelo
Muchos modelos dinamicos de bioprocesos, junto con los experimentos de entrada-
salida disenados para su identificacion, pueden ser descritos por un sistema de
PDAEs general de la forma:
F (x,xξ,xξξ,xt,y, y, z,u,p, t) = 0 (2.1)
donde los sımbolos de la ecuacion (2.1) tienen las siguientes definiciones:
x e y: vectores de las Nx variables de estado distribuidas y las Ny concen-tradas respectivamente
ξ: vector de coordenadas espacialesxξ y xξξ: derivadas espaciales de x tal que xξ = ∂x/∂ξ y xξξ = ∂2x/∂ξ2
xt e y: derivadas temporales de x e y tal que xt = ∂x/∂t e y = dy/dtz: vector de las Nz variables medidas para cada experimentou: vector de las Nu variables de control o entradas del sistema que de-
terminan la forma de cada experimentop: vector de los Np parametros del modelot: variable temporal
11
12 Capıtulo 2. Estimacion de parametros
Para garantizar la existencia de solucion del sistema 2.1 es necesario imponer
condiciones iniciales y frontera de la forma:
Condiciones iniciales:
F0 (x(t0),y(t0), z(t0),u(t0), t0) = 0 (2.2)
Condiciones frontera:
- de primer orden o tipo Dirichlet:
x(Ω, t) = F1(ξ, t) (2.3)
- de segundo orden o de Neumann:
xn(Ω, t) = F2(ξ, t) (2.4)
- mixtas o de Robin:
f1(ξ)x(Ω, t) + f2(ξ)xn(Ω, t) = F3(ξ, t) (2.5)
siendo n el vector normal a la superficie.
En caso de que se desconozcan las condiciones iniciales del problema, estas tam-
bien pueden ser estimadas considerandose, a efectos de la calibracion, como parame-
tros adicionales.
Para la resolucion de los sistemas distribuidos que aparecen en este trabajo, se
ha empleado el metodo numerico de las lıneas (Numerical Method of Lines, NMOL)
(Schiesser, 1991) que transforma el problema original de dimension infinita en uno
de dimension finita, es decir, en un conjunto de ODEs o de DAEs. Por este motivo,
de aquı en adelante se prescindira del vector de variables x y de sus derivadas.
2.1.2. Datos experimentales
El problema de estimacion hace uso de los datos obtenidos previamente a partir
de un conjunto de experimentos. Cada experimento se caracteriza por las condiciones
bajo las que es realizado, es decir, su duracion total, las condiciones iniciales y la
variacion de las variables de control a lo largo del tiempo.
A lo largo de cada experimento se recogen datos de las variables medidas (en
la mayorıa de los casos no es posible medir todas las variables de estado, sino un
subconjunto de las mismas o de variables relacionadas con ellas por medio de una
funcion de observacion). Estas medidas son de la forma (tijk ; zijk) donde zijk es el
2.1. Planteamiento del problema 13
valor k de la variable medida zj durante el experimento i y tijk es el tiempo en el
que se toma esta medida.
Para casi todas las tecnicas de medicion, la medida de la evolucion de los ob-
servables de un sistema dinamico con respecto al tiempo lleva asociada un error
de observacion o ruido. En este caso, la observacion es perturbada por un sistema
diferente influenciando el proceso de medida y no se pueden determinar los valo-
res verdaderos de los estados observados. De ahı que la observacion siga una cierta
distribucion de probabilidad dependiendo de la perturbacion.
Asumiendo que la estructura del modelo es correcta y teoricamente identificable,
las desviaciones entre las predicciones del modelo y las medidas experimentales seran
debidas unicamente al ruido en las medidas. Para incorporar el ruido de observa-
cion en el modelado matematico, estas perturbaciones se describen por una variable
aleatoria ε que se adiciona a la funcion de observacion. La variable medida es por lo
tanto:
zijk = zijk(p∗) + εijk (2.6)
siendo p∗ el vector de parametros verdaderos del proceso.
En general, ε puede tener estructuras de dependencia complejas pero en la ma-
yorıa de los casos puede ser descrita por una distribucion gaussiana (o normal).
Una justificacion para la importancia de esta familia de distribuciones estriba en el
teorema central del lımite que establece que εijk tiende a estar normalmente distri-
buida si resulta de la suma de un gran numero de errores independientes igualmente
distribuidos con varianza finita. De este modo:
εijk ∼ N (0, σijk) (2.7)
siendo
σijk = ω2ijk
(z2
ijk + ε)γ
(2.8)
donde ω y γ vienen dadas por el conocimiento a priori sobre el proceso de medida
y ε es un valor pequeno distinto de cero que asegura que la varianza este definida
para valores de las medidas iguales a cero o muy pequenos.
De esta manera, el ruido en las medidas se reduce a terminos de error absoluto
y relativo siendo sus formas mas relevantes:
- Error normal con varianza conocida o constante (homocedastico): cuando γ =
0 y ω es constante o tiene un valor conocido para cada medida.
- Error normal con varianza variable dependiente de las medidas (heterocedasti-
co): si γ 6= 0. En el caso en que γ = 1 y ω es constante, se dice que la varianza
es constante relativa.
14 Capıtulo 2. Estimacion de parametros
2.1.3. Funciones de coste
El valor optimo de p va a depender del modo en que se cuantifique la distancia en-
tre los valores experimentales y los valores predichos por el modelo para las variables
medidas. Entre las funciones de coste que han demostrado funcionar correctamente,
en orden decreciente de cantidad de informacion que debe ser proporcionada por
el usuario, o lo que es lo mismo, en orden creciente del numero de asunciones a
priori ya incluidas en el metodo, destacan: el estimador Bayesiano, el estimador de
maxima probabilidad y el estimador por mınimos cuadrados. Para el metodo mas
complejo, estimacion Bayesiana, la distribucion de probabilidad de los parametros
y la distribucion de la probabilidad condicional de las medidas para unos valores
dados de los parametros deben ser parametrizadas, mientras que el metodo mas
simple, estimacion por mınimos cuadrados, puede ser llevado a cabo sin ninguna
informacion extrınseca adicional. La estimacion por mınimos cuadrados es un caso
especial del metodo de maxima probabilidad en el que se asume que los errores de
las medidas no estan correlacionados y que tienen distribucion normal con media
cero y varianza constante (Bates y Watts, 1988; Seber y Wild, 1988).
Estimador Bayesiano
La estimacion Bayesiana considera las medidas y los parametros del modelo
como variables aleatorias. Si se conoce la densidad de probabilidad a priori
πp(p) para la ocurrencia del vector de parametros p y la densidad de probabi-
lidad condicional πz(z|p) del modelo para medir los valores z para unos valores
dados de los parametros p, la densidad de probabilidad de los parametros para
valores dados de las medidas se puede escribir como:
πp(p|z) =πz(z|p)πp(p)
πz(z)(2.9)
La ecuacion (2.9) no especifica directamente una estimacion de los parametros,
pero proporciona una descripcion completa de las distribuciones de los valores
de los parametros para unas medidas dadas. Para la eleccion de estimaciones
de los parametros se necesitan asunciones adicionales. La idea central de la
estimacion Bayesiana es proporcionar informacion previa de la distribucion de
los parametros a partir de los datos medidos.
Estimador de maxima probabilidad
A diferencia de la estimacion Bayesiana, la calibracion mediante el metodo
de maxima probabilidad no considera los parametros como variables aleato-
rias sino como parametros constantes aunque desconocidos. La estimacion de
2.1. Planteamiento del problema 15
maxima probabilidad consiste en maximizar la denominada funcion de proba-
bilidad, Jmp, buscando el valor pmp que proporciona la maxima probabilidad
de ocurrencia a los datos observados z:
Jmp(p) = πz(z|p) (2.10)
En la practica, es mas facil buscar pmp maximizando el logaritmo de la funcion
de probabilidad:
Jmp(p) = ln πz(z|p) (2.11)
que proporciona el mismo estimador ya que la funcion logarıtmica es monotoni-
camente creciente.
La funcion de probabilidad es una funcion compleja que depende de la distri-
bucion de probabilidad de las medidas. Si se asume que estas no estan corre-
lacionadas y que tienen una distribucion normal, la funcion de probabilidad
viene dada por:
Jmp(p) = −N
2ln (2π)− 1
2
NE∑i=1
NVi∑j=1
NMij∑
k=1
[ln
(σ2
ijk
)+
(zijk − zijk(p))2
σ2ijk
]
(2.12)
donde los sımbolos de la ecuacion (2.12) tienen las siguientes definiciones:
N : numero total de medidas en todos los experimentosp: conjunto de parametros a estimar. Los valores aceptables pueden
estar sujetos a lımites inferiores y superiores, pL ≤ p ≤ pU
NE: numero de experimentos realizadosNVi: numero de variables medidas en el experimento iNMij: numero de medidas de la variable j durante el experimento iσ2
ijk: varianza de la medida k de la variable j en el experimento izijk: medida k de la variable j en el experimento izijk: valor k de la variable j en el experimento i predicho por el modelo
Para unas medidas determinadas z los estimadores de maxima probabilidad
para los parametros son aquellos valores de p para los cuales el valor de la
funcion de probabilidad es maximo.
Estimador por mınimos cuadrados
Las funciones de coste cuadraticas son las mas utilizadas desde Gauss y Le-
gendre (Stigler, 1981) debido a su relativamente sencilla optimizacion. Para
modelos de programacion lineal, el mejor estimador correspondiente a una
funcion de coste cuadratica puede obtenerse analıticamente (Walter y Pron-
zato, 1997). Estas funciones de coste pueden escribirse como:
16 Capıtulo 2. Estimacion de parametros
Jmc(p) = εT (p)Qε(p) (2.13)
donde Q es una matriz definida no-negativa, y ε es un vector que caracteriza
el error entre el sistema y su modelo. El estimador de p correspondiente a Jmc
viene dado por:
pmc = arg min Jmc(p) (2.14)
Este estimador se llama estimador por mınimos cuadrados o estimador L2. Este
puede ser obtenido independientemente de cualquier consideracion estadıstica,
aunque su utilizacion puede estar motivada por informacion (hipotesis) sobre
la naturaleza del ruido que actua en el sistema. Como ya se ha mencionado:
ε(p) = z− z(p) (2.15)
y Q se elige diagonal, por lo que el coste se escribe como:
Jmc(p) =NE∑i=1
NVi∑j=1
NMij∑
k=1
wijk (zijk − zijk(p))2 (2.16)
donde wijk es el coeficiente de peso k para la variable j en el experimento i.
Los coeficientes de peso son positivos o cero y estan fijados a priori. Pueden ser
elegidos empıricamente. Cuanto mayor sea wijk, mas le va a costar al modelo
desviarse del resultado experimental zijk. La eleccion de los wijk expresara por
lo tanto la confianza relativa en los distintos datos experimentales y la con-
siguiente importancia que representa cada componente de z y su medida con
respecto al tiempo en el comportamiento del modelo.
La funcion objetivo de maxima probabilidad, ecuacion (2.12), permite flexi-
bilidad para distintos tipos de modelos de varianza. Cuando la varianza de
los errores de las medidas se considera constante (independiente de i, j y k)
o conocida para todas las medidas, la funcion de maxima probabilidad (que
resulta a minimizar tras un cambio de signo) puede escribirse como:
Jmp(p) = (termino ind. de p)+1
2
NE∑i=1
NVi∑j=1
NMij∑
k=1
[(zijk − zijk(p))2
σ2ijk
] (2.17)
Un estimador de maxima probabilidad de p es por lo tanto aquel que maximice:
J(p) =NE∑i=1
NVi∑j=1
NMij∑
k=1
(zijk − zijk(p))2
σ2ijk
(2.18)
es decir, un minimizador de la funcion cuadratica, ecuacion (2.16), con pesos:
wijk = 1/σ2ijk (2.19)
2.2. Metodos de estimacion 17
2.2. Metodos de estimacion
Una vez llevada a cabo la caracterizacion del modelo dinamico no lineal, el pro-
blema de identificacion consiste en buscar el vector de parametros que proporciona
el mejor ajuste del modelo con respecto a un conjunto de datos experimentales dado.
El problema se plantea como la minimizacion de una funcion de coste escalar, J(p),
que mide la bondad de ese ajuste, con respecto a los parametros del modelo, p. Esto
esta sujeto a la dinamica del sistema, que actua como un conjunto de restricciones di-
ferenciales de igualdad y, en algunos casos, a otras posibles restricciones algebraicas.
Matematicamente, esta formulacion es la de un problema de optimizacion no lineal
(Nonlinear Optimization Problem, NLO) con restricciones diferenciales-algebraicas
consistente en:
Encontrar el vector de parametros p que minimiza la funcion:
J(p) (2.20)
y que verifica:
F (y, y, z,u,p, t) = 0 (2.21)
F0 (y(t0), z(t0),u(t0), t0) = 0 (2.22)
h (y, z,u,p, t) = 0 (2.23)
g (y, z,u,p, t) ≤ 0 (2.24)
pL ≤ p ≤ pU (2.25)
donde J(p) es la funcion de coste a minimizar, p es el vector de variables de decision
del problema de optimizacion (el conjunto de parametros a estimar), y el vector de
las variables de estado del modelo, z el vector de las variables medidas, u el vector de
variables de control y h y g las posibles restricciones de igualdad y desigualdad, res-
pectivamente. Finalmente, p esta sujeto a lımites inferiores y superiores que actuan
como restricciones de desigualdad.
A la hora de resolver este problema, es frecuente encontrarse con muchas dificul-
tades entre las que destacan (Schittkowski, 2002):
- Convergencia a soluciones locales debido a la frecuente no convexidad de los
problemas, originada por la no linealidad de los modelos.
- Errores de redondeo debido a una resolucion iterativa inadecuada del sistema
dinamico.
- Funcion objetivo con forma de valle angosto donde es difıcil progresar hacia
la solucion.
18 Capıtulo 2. Estimacion de parametros
- Funcion objetivo muy plana en la vecindad de la solucion, por ejemplo, cuando
existen grandes perturbaciones en las medidas.
- Modelos sobredeterminados cuando hay demasiados parametros a estimar,
dando lugar a un numero infinito de vectores solucion.
- Malos valores iniciales para los parametros, lo que hace necesario un gran
numero de iteraciones en la optimizacion.
- Funciones del modelo mal escaladas, en particular, los valores de las medidas.
- Funciones del modelo no diferenciables.
Debido a estos escollos, se debe prestar especial atencion al metodo elegido para
llevar a cabo la identificacion que, a grandes rasgos, pueden clasificarse en dos grupos:
los metodos de valor inicial (o single shooting) y el metodo de disparo multiple (o
multiple shooting).
2.2.1. Metodos de valor inicial
Dado que el NLO formulado no puede resolverse analıticamente, los metodos
de valor inicial, o single shooting, proponen para su resolucion un procedimiento de
optimizacion iterativo como el representado en la Figura 2.1. Inicialmente se define
SÍ
NO
Integración de las ecuaciones del modelo
(IVP)
Cálculo función objetivo
¿Mínimode la función
objetivo?
Nuevos valorespara los parámetros
Valores iniciales para los parámetros
Definición estructuradel modelo
Datos experimentales
Mejor estimador
para los parámetros
Figura 2.1: Esquema para la estimacion de parametros mediante
un metodo de valor inicial
2.2. Metodos de estimacion 19
la estructura del modelo, los datos experimentales y los parametros a estimar. A
partir de unos valores iniciales para los parametros (p0), la rutina de optimizacion
consiste, basicamente, en calcular el valor de la funcion objetivo (previa integracion
de las ecuaciones del modelo mediante la resolucion de un problema de valor inicial
(Initial Value Problem, IVP) y generar nuevos valores para los parametros de modo
que disminuyan el valor de dicha funcion. Este proceso se repite iterativamente hasta
alcanzar una solucion dentro de la tolerancia preespecificada.
Habitualmente, estos NLOs se resuelven empleando metodos locales de tipo Le-
venberg - Marquardt (L - M) o Gauss - Newton (G - N). Estos metodos resultan muy
eficientes y convergen a la solucion correcta (optimo global) si los valores iniciales
para la estimacion de los parametros son de buena calidad (es decir, si estan en la
zona de atraccion de la solucion global) o si el problema es convexo. Frecuentemente,
estos NLOs son multimodales (presentan optimos locales) por lo que estos metodos
convergeran a soluciones locales. De este modo, en presencia de un mal ajuste, no
se puede saber si este se debe a una mala formulacion del modelo o si se esta ante
un caso de convergencia a un optimo local.
Con objeto de solventar esta limitacion, en este trabajo se hara uso de metodos
de optimizacion global que se explicaran con mas detalle en el capıtulo 7.
2.2.2. Metodo multiple shooting
En el metodo multiple shooting (Bock, 1983; Timmer, 1998; Holbert, 1998) la
dinamica de las variables de estado se discretiza, dando lugar a problemas NLOs
mas grandes (es decir, con mayor numero de grados de libertad) pero evitando la
necesidad de resolver iterativamente un IVP (vease un ejemplo de la evolucion del
metodo en la Figura 2.2). La idea fundamental es dividir el intervalo de tiempo en
muchos subintervalos de modo que el sistema de ODEs se resuelve separadamente
para cada uno de ellos, haciendo uso de las medidas experimentales para proporcio-
nar las primeras estimaciones para los valores iniciales de esos subintervalos. Durante
cada iteracion los valores iniciales de cada subintervalo estan sujetos a optimizacion
por lo que se convierten en nuevos parametros del modelo.
Esta aproximacion da lugar a una trayectoria inicial discontinua que, a pesar de
ello, esta proxima a las medidas. Por supuesto, la trayectoria final debe ser continua,
es decir, la solucion calculada para el final de un intervalo debe ser igual al valor
inicial al comienzo del intervalo siguiente. Con el fin de forzar esta condicion, se
imponen restricciones de continuidad a la solucion. En cada iteracion, el metodo tiene
que elegir una direccion de busqueda que lleve, no solo a un mınimo de la funcion
objetivo, sino que ademas satisfaga las restricciones de continuidad de una forma
20 Capıtulo 2. Estimacion de parametros
Valores iniciales
8ª iteración
34ª iteración: convergencia
z (t
)z
(t)
z (t
)
t
Figura 2.2: Ejemplo de estimacion de parametros mediante elmetodo multiple shooting (Timmer et al, 2000)
linealizada. De esta manera, los nuevos parametros introducidos correspondientes
a los valores iniciales de cada subintervalo de tiempo, son eliminados del problema
linealizado que debe ser resuelto con el fin de calcular la direccion de busqueda.
Como en el paso de actualizacion solo se imponen las restricciones de continui-
dad linealizadas, la iteracion podra avanzar hacia la solucion continua final a traves
de “terreno prohibido”: las iteraciones seran generalmente trayectorias discontinuas.
Esta libertad permite que el metodo este cerca de los datos observados, previene la
divergencia en la solucion numerica y no introduce tanta multimodalidad como los
metodos de valor inicial, reduciendo el numero de mınimos locales. Aun ası, dado
que los problemas NLOs resultantes de esta formulacion suelen resolverse por medio
de metodos Gauss-Newton, que son de naturaleza local, la convergencia a soluciones
locales puede seguir ocurriendo, especialmente cuando se dispone de un mal punto
inicial para la estimacion. Ademas, debido a su gran tamano y al necesario cumpli-
miento de las restricciones de continuidad, la aplicacion de metodos de optimizacion
global resultarıa inabordable para problemas reales.
Los detalles matematicos y de implementacion pueden encontrarse en Bock
(1987).
Capıtulo 3
Analisis de sensibilidad
El analisis de sensibilidad consiste en el estudio de como la variacion en la salida
de un modelo (numerica o de otro tipo) puede ser atribuida, cualitativa o cuantita-
tivamente, a diferentes fuentes de variacion y de como el modelo dado depende de
la informacion que se le proporciona.
Existen varios metodos de analisis de sensibilidad que pueden clasificarse en
metodos de monitorizacion, metodos locales y metodos globales (Saltelly et al, 2000).
Esta distincion es de algun modo arbitraria ya que los metodos de monitorizacion
tambien pueden ser vistos como locales o globales. Ademas, la primera clase se
caracteriza con respecto a su uso (monitorizacion), mientras que los otros dos se
caracterizan con respecto a como tratan los factores.
En el contexto de modelizacion numerica, los coeficientes de sensibilidad local,
que son las derivadas parciales de las variables de estado del modelo con respecto
a los parametros evaluadas en el punto normal de operacion, juegan un papel muy
importante en el analisis de probabilidades, estimacion de parametros, optimizacion
y discriminacion de modelos. Los resultados de un analisis de sensibilidad pueden
ser utilizados para (Karnavas et al., 1993) :
- Validar un modelo.
- Advertir de comportamientos del modelo extranos o no realistas.
- Sugerir nuevos experimentos o guiar futuros esfuerzos en recoleccion de datos.
- Indicar supuestos importantes del modelo.
- Sugerir la precision con la que los parametros deben ser calculados.
- Guiar la formulacion de la estructura del modelo.
- Ajustar valores numericos para los parametros.
21
22 Capıtulo 3. Analisis de sensibilidad
3.1. Metodos numericos para el calculo de sensi-
bilidades locales
Considerese un sistema dinamico definido por un conjunto de Ny ecuaciones
diferenciales ordinarias (ODEs) con Np parametros p independientes del tiempo.
y = f(y, t;p) ; y(0) = y0 (3.1)
Los coeficientes de sensibilidad que forman la matriz de sensibilidades seran entonces:
Sij =
(∂yi
∂pj
)
y=y(t,p),p=p
(3.2)
Hay varios metodos numericos para el calculo de sensibilidades locales pero los
valores calculados deben ser identicos dentro de la precision del metodo empleado.
3.1.1. Aproximacion por diferencias finitas
La manera mas sencilla de calcular sensibilidades locales se basa en perturbar
ligeramente un parametro de cada vez y volver a resolver el modelo. Utilizando la
aproximacion por diferencias finitas, los elementos de la matriz de sensibilidades
pueden aproximarse por:
∂yi(t)
∂pj
≈ yi(t, pj + ∆pj)− yi(t, pj)
∆pj
(3.3)
Este procedimiento se llama tambien metodo indirecto. La principal ventaja es
que no requiere ninguna modificacion del modelo original ni ningun codigo adicional.
Sin embargo, presenta dos inconvenientes: los valores numericos obtenidos varıan de
modo significativo con ∆pj y se requiere la resolucion repetida del modelo (al menos
una vez por cada parametro). En el caso de modelos no lineales, si las perturbaciones
de los parametros son demasiado grandes (∆pj > 5 %) estos se alejan de la suposicion
de linealidad local, mientras que si la variacion es muy pequena, la diferencia entre
el resultado original y el perturbado sera muy pequena y los errores de redondeo
demasiado elevados. En la mayorıa de los casos, una perturbacion del 1 % es una
buena eleccion, pero encontrar el mejor valor supone a menudo un proceso de ensayo
y error.
3.1.2. Metodos directos
Los coeficientes de sensibilidad, ecuacion (3.2), pueden encontrarse resolviendo
las siguientes ODEs que resultan de derivar la ecuacion (3.1) con respecto a p (Leis
3.1. Metodos numericos para el calculo de sensibilidades locales 23
y Kramer, 1985) :
S(t) =
(∂f(t)
∂y
)
p
S(t) +
(∂f(t)
∂p
)
y
; S(0) = S0 (3.4)
o, de forma matricial:
S = J(t)S(t) + F(t) (3.5)
donde J(t) es la Ny×Ny matriz Jacobiana (Jij = ∂fi/∂yi) y F(t) la Ny×Np matriz
de derivadas parciales con respecto a los parametros (Fij = ∂fi/∂pj) llamada a veces
Jacobiano parametrico.
Los metodos directos (DM) se basan en la resolucion de la ecuacion diferencial
ordinaria (3.4). La resolucion numerica de la ecuacion (3.4) requiere el conocimiento
del valor de las matrices J(t) y F(t) en cada una de las etapas del integrador de
ecuaciones diferenciales ordinarias. Para evaluar estas matrices, los valores actuales
de las variables del sistema deben ser conocidos y, por lo tanto, se necesita una reso-
lucion simultanea o sucesiva de la ecuacion (3.1). En las primeras implementaciones
del metodo directo, las ecuaciones (3.1) y (3.4) se resolvıan independientemente pero
simultaneamente y la solucion de la ecuacion (3.1) era utilizada en la ecuacion (3.4).
Todas las variantes de este algoritmo eran relativamente lentas.
Dunker (1984) fue el primero en demostrar que existe una relacion especial en-
tre la ecuacion (3.1) y la ecuacion (3.4) que permite un atajo numerico y llamo a
este algoritmo metodo directo desacoplado (Decoupled Direct Method, DDM). Las
ecuaciones (3.1) y (3.4) tienen el mismo Jacobiano y, por lo tanto, un integrador de
sistemas rıgidos de ecuaciones diferenciales ordinarias selecciona el mismo tamano
de paso y orden de aproximacion para la resolucion de ambas ecuaciones. En el
metodo de Dunker el integrador de ODEs descompone el Jacobiano una sola vez
y toma un intervalo de tiempo para resolver la ecuacion (3.1) y despues el mismo
para resolver la ecuacion (3.4) con todos los parametros, uno tras otro. Dado que la
triangularizacion del Jacobiano es la parte que mas tiempo consume de la resolucion
de un sistema de ODEs, utilizando el metodo directo desacoplado las sensibilidades
pueden calcularse con un coste extra relativamente pequeno.
Existen varias implementaciones del metodo DDM que ha demostrado ser el me-
jor metodo general para el calculo numerico de sensibilidades locales. Uno de los
codigos mas conocidos es ODESSA, un paquete de rutinas FORTRAN desarrollado
por Leis y Kramer (1988) basado en la rutina de resolucion de ecuaciones diferen-
ciales ordinarias LSODE, que sera el empleado en este trabajo.
24 Capıtulo 3. Analisis de sensibilidad
3.1.3. Metodo de la funcion de Green
Diferenciando la ecuacion (3.1) con respecto a los valores iniciales y0, se obtiene
las siguiente ecuacion (Saltelli et al., 2000) :
K(t, t1) = J(t)K(t, t1) (3.6)
donde t1 y t son el tiempo de perturbacion y de observacion, respectivamente, y K
es el valor inicial de la matriz de sensibilidades, es decir:
Kij(t, t1) =∂ci(t)
∂c0j(t1)
; K(t1, t1) = I ; t ≥ t1 (3.7)
La ecuacion (3.1) consiste en un sistema lineal no homogeneo de ecuaciones diferen-
ciales y, por lo tanto, puede ser resuelto determinando primero la parte homogenea,
ecuacion (3.6), y calculando despues la solucion particular:
S(t1, t2) =
∫ t2
t1
K(t2, s)F(s)ds (3.8)
En esta ecuacion, K se conoce como funcion de Green del nucleo y el metodo numeri-
co basado en la solucion de la ecuacion (3.8) se llama metodo de la funcion de Green
(Green Function Method, GFM).
El metodo Magnus analıticamente integrado (Analytically Integrated Magnus,
GFM/AIM) es una modificacion del metodo de la funcion de Green mas desarrolla-
do. En esta version, la matriz K es aproximada por una matriz exponencial dismi-
nuyendo significativamente el esfuerzo de calculo:
K(t + ∆t, t) = exp
[∫ t+∆t
t
J(s)ds
](3.9)
El metodo GFM/AIM es varias veces mas rapido que otras versiones del metodo de
la funcion de Green.
Aplicando el metodo directo, el esfuerzo numerico aumenta linealmente con el
numero de parametros. En el caso de los metodos de la funcion de Green, el esfuerzo
numerico es proporcional al numero de variables. Sin embargo, en la practica, el
metodo GFM solo es mas rapido que el DDM cuando la relacion entre el numero
de parametros y el de variables es muy elevada y el error numerico es mas difıcil de
controlar en este caso que utilizando el metodo DDM, que es mucho mas simple.
3.2. Tipos de funciones de sensibilidad
Existen distintos tipos de funciones de sensibilidad. El uso que se quiera hacer de
las mismas determinara cual es la mas adecuada en caso. A continuacion se presenta
3.2. Tipos de funciones de sensibilidad 25
una breve descripcion de cada una de ellas y sus aplicaciones principales destacando
sus ventajas e inconvenientes.
3.2.1. Funcion de sensibilidad absoluta
La sensibilidad absoluta de la variable yi con respecto a las variaciones en el
parametro pj viene dada por:
Sij =
(∂yi
∂pj
)
y=y(t,p),p=p
(3.10)
estando la derivada parcial evaluada en el punto normal de operacion, donde todos
los parametros tienen sus valores nominales p = p.
Las funciones de sensibilidad absolutas son utiles para calcular errores debidos
a variaciones en los parametros y para conocer los tiempos a los que un parametro
ejerce su mayor o menor efecto. Sin embargo, las funciones absolutas no estan nor-
malizadas y no son utiles para comparar los efectos de distintos parametros para lo
cual se debe utilizar funciones de sensibilidad relativas.
3.2.2. Funcion de sensibilidad relativa
La sensibilidad relativa de la variable yi con respecto a las variaciones del parame-
tro pj representa el porcentaje de cambio en yi con respecto al cambio en pj:
Sij =% cambio en yi
% cambio en pj
=pj
yi
(∂yi
∂pj
)
y=y(t,p),p=p
(3.11)
Las funciones de sensibilidad relativas se forman multiplicando la derivada parcial
(funcion de sensibilidad absoluta) por el valor nominal del parametro y dividiendo
por el valor de la variable. Son ideales para comparar parametros dado que son
adimensionales (funciones normalizadas).
La utilidad de la funcion de sensibilidad relativa esta limitada a estudios analıti-
cos dado que tiene diferentes significados en los dominios del tiempo y de la frecuen-
cia. Esto es el resultado de ser un producto de dos funciones (la derivada parcial
y la funcion original) y de que la transformada de Laplace de un producto no es
el producto de las transformadas de Laplace. Ademas, la funcion de sensibilidad
relativa presenta problemas de division por cero cuando yi es nula y proporciona
ponderaciones indebidas a la respuesta si el valor de y0 es pequeno. Por lo tanto, en
algunas ocasiones se recomienda el uso de la funcion de sensibilidad semirelativa.
26 Capıtulo 3. Analisis de sensibilidad
3.2.3. Funcion de sensibilidad semirelativa
Aquı se debe distinguir entre:
Sensibilidad de la variable yi con respecto a las variaciones del parametro pj
relativa a los valores de la variable:
Sij =1
yi
(∂yi
∂pj
)
y=y(t,p),p=p
(3.12)
Sensibilidad de la variable yi con respecto a las variaciones del parametro pj
relativa al valor del parametro:
Sij = pj
(∂yi
∂pj
)
y=y(t,p),p=p
(3.13)
Mientras que las funciones de sensibilidad semirelativas con respecto a las va-
riables de estado tienen la misma forma que las funciones de sensibilidad relativas
(y por lo tanto los mismos problemas de division por cero y sobrepesado), las fun-
ciones de sensibilidad semirelativas con respecto a los parametros tienen la misma
forma que las funciones de sensibilidad absolutas (estan unicamente multiplicadas
por los valores constantes de los parametros) pero este reescalado permite hacer
comparaciones de los efectos de los distintos parametros.
Cuando se utilizan funciones de sensibilidad, tanto relativas como semirelativas
con respecto a las variables, se puede definir un valor umbral ymin en el factor
premultiplicador de las ecuaciones (3.11) y (3.12) cuando este es menor que el valor
de ymin. De este modo, se evitan los errores de sobrepesado cuando la trayectoria de
salida tiende a cero (Versyck, 2000) .
3.3. Ranking de parametros
El analisis de sensibilidad indica que parametros son los mas importantes y los
que con mas probabilidad van a afectar las predicciones del modelo. De este modo,
los valores de los parametros crıticos pueden ser redefinidos mientras que parametros
que tienen poco efecto pueden ser simplificados o incluso ignorados (Karnavas et al.,
1993) .
Para casos muy simples, el analisis visual de las graficas de las sensibilidades
relativas es suficiente para determinar la importancia relativa de los parametros. Sin
embargo, esto resulta inmanejable cuando el tamano del problema aumenta y se
necesita una justificacion cuantitativa.
3.3. Ranking de parametros 27
Cuando se considera la sensibilidad de una variable del modelo con respecto a
pequenos cambios en los valores de los parametros en una localizacion especıfica, se
recomienda el calculo de los cinco sumatorios a partir de las sensibilidades relativas
que se presentan a continuacion (Brun et al., 2001) :
δmsqrj =
√√√√ 1
Ny
1
N
Ny∑i=1
N∑
k=1
S2
ij(tk) (3.14)
δmabsj =
1
Ny
1
N
Ny∑i=1
N∑
k=1
|Sij(tk)| (3.15)
δmeanj =
1
Ny
1
N
Ny∑i=1
N∑
k=1
Sij(tk) (3.16)
δmaxj = max
i,kSij(tk) (3.17)
δminj = min
i,kSij(tk) (3.18)
A partir de estos coeficientes se pueden extraer una serie de conclusiones. Por
ejemplo, grandes diferencias entre δmsqrj y δmabs
j indican una alta variabilidad o valo-
res extremos (outliers) en Sj. La revision de δmaxj y δmin
j puede ayudar a distinguir
entre estos dos casos. Los dos sumatorios δmaxj y δmin
j son generalmente utiles para
detectar outliers y para conocer ademas el rango de Sj. Una comparacion entre δmabsj
y δmeanj muestra si los elementos de Sj tienen todos el mismo signo y δmean
j propor-
ciona informacion sobre el signo del efecto medio que un cambio en un parametro
tiene sobre la salida del modelo.
La clasificacion de los parametros por medio de una de las medidas δ en orden
decreciente da lugar a un ranking de importancia de los parametros. En el contexto
de estimacion de parametros por mınimos cuadrados, δmsqrj es el mas adecuado como
criterio de clasificacion y se denomina tambien sensibilidad total. Las sensibilidades
totales proporcionan informacion sobre la importancia del ajuste de cada uno de los
parametros del modelo y reflejan el efecto de los cambios en los parametros alrededor
de sus valores nominales para la medida investigada que, para el caso de estimacion
por mınimos cuadrados, esta muy relacionada con la funcion de coste.
Con objeto de decidir que parametros pueden ser descartados en modelos con
parametros redundantes, se puede utilizar la importancia dada por un ranking ba-
sado en las sensibilidades totales. Degenring et al. (2004) describen otros metodos
basados en el analisis de los autovalores y autovectores de la matriz de sensibilidad
28 Capıtulo 3. Analisis de sensibilidad
relativa (analisis de las componentes principales) y los comparan con la aproxima-
cion de importancia del ajuste. Este analisis muestra que ambos procedimientos
llevan a descartar basicamente los mismos parametros. Sin embargo, el analisis de
componentes principales ofrece la oportunidad de ser utilizado como una rutina auto-
controlable mientras que, para el procedimiento de importancia del ajuste, el lımite
superior de los valores de sensibilidades totales para el cual todos los parametros
con un valor inferior pueden ser descartados dependera de cada modelo.
Capıtulo 4
Analisis de identificabilidad
El problema de estimacion de parametros tratado en el capıtulo 2 (determinar
los parametros de un sistema a partir de unos datos de entrada y salida) se denomina
a menudo problema de identificacion. Esto es solamente un aspecto de un problema
mayor, el problema inverso, que incluye el estudio a priori de la identificabilidad
estructural, la identificabilidad a posteriori o practica y la estimacion de parametros.
Una vez elegida una estructura para el modelo (o un conjunto de estructuras
entre las que se debe elegir), sus propiedades deben ser estudiadas lo mas inde-
pendientemente posible del valor que tomen sus parametros. Este estudio deberıa
realizarse antes de la estimacion para detectar problemas potenciales antes de re-
coger datos. En la practica, esto no siempre es posible ya que muchos metodos de
analisis de identificabilidad son locales y requieren conocer el valor de los parametros
procedente de una calibracion previa.
El analisis de identificabilidad estructural es un problema a priori y se formu-
la de la siguiente manera: dado un modelo para el sistema, que se considera sin
errores de caracterizacion, se pregunta si, bajo condiciones ideales de observacion
(medidas ilimitadas y sin ruido) e independientemente de los valores particulares de
los parametros y de las condiciones experimentales, los parametros desconocidos del
modelo postulado pueden ser estimados de forma unica.
Aunque necesaria, la identificabilidad estructural no es suficiente para garantizar
una estimacion satisfactoria de los parametros a partir de datos reales y es entonces
cuando el concepto de identificabilidad a posteriori o practica entra en juego. Se sigue
asumiendo que la estructura del modelo es exacta, sin embargo, ahora las condiciones
experimentales son conocidas y los datos son limitados y con ruido y la pregunta
es: ¿pueden los parametros desconocidos del modelo postulado ser determinados a
partir de los datos disponibles?
29
30 Capıtulo 4. Analisis de identificabilidad
4.1. Identificabilidad estructural
Considerese un proceso y una estructura para su modelado. Antes de comenzar
a recoger datos y de realizar la estimacion de parametros, es recomendable estudiar
si sus parametros pueden ser determinados de forma unica. Para definir el concepto
de identificabilidad estructural se debe considerar un marco idealizado donde:
- el proceso y el modelo tienen identica estructura, M ,
- los datos no contienen error,
- las entradas u y los tiempos de medida pueden ser escogidos libremente.
Bajo estas condiciones, siempre es posible (p.ej., eligiendo p = p∗) calibrar los
parametros del modelo de modo que su comportamiento sea identico al del proceso
para cualquier tiempo y entrada, lo que se denotara por M(p∗) = M(p). Lo que
interesa saber ahora es si este comportamiento identico implica que los parametros
del modelo, p, son iguales a los del proceso, p∗. Mas concretamente y adoptando las
definiciones de Walter y Pronzato (1997), se dira que el parametro individual pi es:
Estructuralmente globalmente (o unicamente) identificable (s.g.i.) si y solo
si, para casi cualquier p∗ ∈ P,
M(p) = M(p∗) ⇒ pi = p∗i (4.1)
La estructura M sera s.g.i. si todos sus parametros son s.g.i.
Estructuralmente localmente identificable (s.l.i) si y solo si, para casi cual-
quier p∗ ∈ P, existe una vecindad V(p∗) tal que
p ∈ V(p∗) y M(p) = M(p∗) ⇒ pi = p∗i (4.2)
La identificabilidad local es, por lo tanto, una condicion necesaria para la
identificabilidad global.
La estructura M sera s.l.i. si todos sus parametros son s.l.i.
Estructuralmente no identificable (s.u.i.) si y solo si, para casi cualquier
p∗ ∈ P no existe ninguna vecindad V(p∗) tal que
p ∈ V(p∗) y M(p) = M(p∗) ⇒ pi = p∗i (4.3)
La estructura M sera s.u.i. si al menos uno de sus parametros es s.u.i.
4.1. Identificabilidad estructural 31
Notese que la restriccion a casi cualquier p∗ se refiere a que la condicion debe
ser cierta para casi cualquier valor de los parametros y puede ser falsa en un
subespacio del espacio parametrico de medida cero. Es decir, una propiedad
que es cierta para cualquier valor de p excepto para alguna hipersuperficie
atıpica se considera estructural ya que, la probabilidad de elegir aleatoriamente
un valor atıpico de p es cero.
De un analisis de identificabilidad estructural, se puede concluir que solo algunas
combinaciones de los parametros son identificables. Si el numero de parametros
identificables es menor al numero total, se debera reducir el numero de parametros
a estimar o modificar la estructura del modelo.
Se han publicado distintas tecnicas para el analisis de identificabilidad estructu-
ral a priori de modelos lineales (ver p.ej. Walter y Pronzato (1997) y los trabajos
ahı citados). Sin embargo, este analisis es especialmente difıcil para modelos dinami-
cos no lineales y existen relativamente pocas tecnicas propuestas para ese caso, a
saber, el metodo de Taylor, la aproximacion de transformacion de similitud y tecni-
cas basadas en algebra diferencial.
Chappel et al. (1990) comparan los dos principales metodos disponibles en ese
momento para el analisis de identificabilidad estructural de parametros de un sistema
no lineal, la aproximacion por series de Taylor de Pohjanpalo (1978) y la aproxima-
cion de transformacion de similitud, basada en el teorema de isomorfismo de estado
local, introducido por Vajda et al. (1989). Ambos metodos han sido aplicados con
exito a algunas estructuras no lineales especıficas pero se ha probado que no son
aplicables para el caso general, principalmente cuando el sistema no lineal aumenta
de tamano.
Tambien se han aplicado tecnicas basadas en algebra diferencial al estudio de
este problema. Ollivier (1990) y Ljung y Glad (1994) propusieron por primera vez
metodos de este tipo. Mas recientemente, se ha desarrollado un nuevo algoritmo
basado en algebra diferencial (Audoly et al., 2001) que mejora la eficiencia de los
anteriores y aumenta su dominio de aplicacion. Sin embargo, a pesar de que estos
metodos han mejorado enormemente el analisis de identificabilidad para modelos
no lineales, la construccion de un algoritmo eficiente aplicable al caso general sigue
siendo una tarea difıcil debido a las limitaciones en su aplicabilidad (Dokos y Lovell,
2004; Baker et al., 2005).
Desafortunadamente, probar la identificabilidad estructural global para algunos
de los modelos considerados en este trabajo no parece posible con las tecnicas dispo-
nibles en la actualidad ya que la mayorıa no pueden ser aplicadas a no linealidades
exponenciales. La aproximacion de Taylor es aplicable a algunos de los modelos a
32 Capıtulo 4. Analisis de identificabilidad
estudio aunque con algunas restricciones en el tamano del conjunto de parametros.
A pesar de las limitaciones, esta tecnica permitira realizar el analisis de la iden-
tificabilidad estructural local (s.l.i.) de subconjuntos particulares de parametros,
proporcionando informacion util para llevar a cabo una identificacion iterativa del
modelo, como se mostrara mas adelante.
Metodo de series de Taylor
La aproximacion por series de Taylor, propuesta originalmente por Pohjanpalo
(1978), se basa en analizar la expansion en series de potencias de las trayectorias de
las medidas z(t), evaluadas a tiempo cero, en funcion del conjunto desconocido de
parametros p:
zi(p, O+) = a0i(p) + a1i(p)t +1
2a2i(p)t2 + ... +
1
n!ani(p)tn (4.4)
siendo:
aji(p) =djzi
dtj∀i = 1, ..., Nz; j = 0, ...n (4.5)
Ya que el vector de medidas es unico, todas sus derivadas son tambien unicas.
Por lo tanto una condicion suficiente para que el modelo sea s.g.i. sera:
aji(p) = aji(p) ⇒ p = p (4.6)
Cuando no se verifica la condicion suficiente, el problema de demostrar la iden-
tificabilidad teorica de los parametros del modelo es equivalente a determinar el
numero de soluciones de p para el conjunto de ecuaciones algebraicas (4.5), que
normalmente son no lineales en los parametros. Si este es mayor que uno pero un
numero finito, se podra decir que el modelo es s.l.i. y no unicamente identificable y,
si el numero de soluciones es infinito, se dira que es s.u.i.
4.2. Identificabilidad local a priori
La limitada aplicabilidad de las tecnicas existentes para la determinacion de la
identificabilidad global estructural, junto con la necesidad de metodos practicos,
suponen un argumento clave para enfatizar el uso de metodos locales a priori a
pesar de las limitaciones derivadas de su naturaleza local. Estos metodos dependen,
no solo del valor de los parametros, sino tambien de las condiciones experimentales
pero, a diferencia con la identificabilidad a posteriori o practica, suponen que los
datos experimentales son ilimitados y sin ruido.
4.2. Identificabilidad local a priori 33
Las funciones de sensibilidad de la salida son fundamentales para el estudio
de la identificabilidad local a priori. Si las funciones de sensibilidad son linealmente
dependientes, el modelo no es identificable mientras que funciones de sensibilidad que
son casi linealmente dependientes son un indicador de la existencia de parametros
muy correlacionados.
Una manera sencilla de estudiar la identificabilidad local de un modelo es re-
presentar graficamente las funciones de sensibilidad calculadas para ese conjunto de
parametros pero esto se vuelve complicado cuando el numero de estados medidos y
de parametros aumenta.
Zak et al. (2003) presentan el siguiente metodo numerico para comprobar la
identificabilidad local a priori de los parametros en un punto determinado p haciendo
uso de las funciones de sensibilidad, basado en el propuesto por Jacquez y Greif
(1985).
Considerese un sistema de modelo-experimento descrito por:
F (y, y, z,u,p, t) = 0 (4.7)
F0 (y(t0), z(t0),u(t0), t0) = 0 (4.8)
Considerando los valores de los parametros del conjunto p como “valores ver-
daderos”, las matrices de sensibilidad de los estados medidos, Sz, de dimension Nz
por Np, se calculan para un numero suficientemente grande de puntos de tiempo N
donde:
Szij=
(∂zi
∂pj
)
z=z(t,p),p=p
(4.9)
La matriz G se construye entonces almacenando las matrices de sensibilidades
para estos puntos:
G =
Sz(t1)Sz(t2)
...Sz(tN)
(4.10)
Finalmente la matriz de correlacion de los parametros (Mc), de dimension Np
por Np, se calcula como:
Mc = correlacion(G) (4.11)
Los parametros que son localmente identificables tienen correlaciones entre −1
y +1 con todos los demas parametros. Los parametros que no son localmente iden-
tificables tienen correlaciones de exactamente −1 o +1 con al menos uno de los
otros parametros. Esto significa que estos parametros influyen en las variables me-
didas de la misma manera o de manera exactamente opuesta. El conjunto original
34 Capıtulo 4. Analisis de identificabilidad
de parametros, p, puede reducirse al conjunto de parametros identificables, pI, de
longitud NI , calculando Mc, eliminando uno de los parametros no identificables, re-
calculando Mc, eliminando otro parametro no identificable, etc., hasta que no quede
ningun parametro no identificable.
4.3. Identificabilidad practica o a posteriori
A diferencia de la identificabilidad estructural o teorica que solo depende de la
estructura del modelo, la identificabilidad practica esta tambien relacionada con la
calidad de los datos y su contenido informativo. Mientras que la identificabilidad es-
tructural se estudia bajo los supuestos de datos perfectos, el problema de parametros
muy correlacionados se acentua cuando se usa un conjunto limitado de datos expe-
rimentales y con ruido para la estimacion. Bajo estas condiciones, la unicidad de los
parametros estimados predicha por un analisis teorico ya no puede ser garantizada
ya que un cambio en un parametro puede ser compensado casi por completo por un
cambio proporcional en otro y estos seguir produciendo un ajuste satisfactorio de
los datos experimentales.
La cuestion a tratar en esta seccion es la siguiente: con los datos experimen-
tales disponibles, ¿se les puede dar a los parametros valores unicos para el mejor
ajuste? O, en otras palabras, si se produce una pequena desviacion en el conjunto
de parametros, ¿tendra esto como consecuencia una disminucion considerable de la
bondad del ajuste?
Existen varias tecnicas para analizar la identificabilidad practica siendo las mas
empleadas el metodo basado en la matriz de informacion de Fisher y el analisis
basado en las regiones de confianza.
4.3.1. Metodo basado en la FIM
Matematicamente este metodo puede formalizarse del modo que se detalla a
continuacion (Munack, 1991). En primer lugar recuerdese que la estimacion de
parametros puede formularse como la minimizacion de la siguiente funcion obje-
tivo cuadratica mediante la eleccion optima de los parametros p:
J(p) =N∑
i=1
(zi(p)− zi)T Qi (zi(p)− zi) (4.12)
donde zi y zi(p) son vectores de N valores medidos y predicciones del modelo a los
tiempos ti (i = 1 a N), respectivamente, y Qi es una matriz cuadrada proporcionada
por el usuario de coeficientes de peso.
4.3. Identificabilidad practica o a posteriori 35
El valor esperado de la funcion objetivo para un conjunto de parametros ligera-
mente diferente del optimo viene dado por:
E[J(p + δp)] ∼= δpT
[N∑
i=1
(∂z
∂p(ti)
)T
Qi
(∂z
∂p(ti)
)]δp +
N∑i=1
tr (ViQi) (4.13)
donde Vi representa la matriz de covarianza del error de las medidas (Qi se elige
tıpicamente como Vi−1).
Una consecuencia importante de la ecuacion (4.13) es que para optimizar la
identificabilidad practica (maximizar la diferencia entre J(p + δp) y J(p)) se tiene
que maximizar el termino entre corchetes [·]. Este termino se conoce como matriz
de informacion de Fisher (FIM) y expresa la cantidad de informacion de los datos
experimentales (Ljung, 1999):
FIM =N∑
i=1
(∂z
∂p(ti)
)T
Qi
(∂z
∂p(ti)
)(4.14)
Los terminos ∂z/∂p son las funciones de sensibilidad que son de gran importancia
para la evaluacion de la identificabilidad practica ya que son el componente principal
de la matriz de informacion de Fisher.
Como se explicara en detalle en el capıtulo 5, la matriz de informacion de Fisher
es tambien una aproximacion de la inversa de la matriz de covarianza del error del
mejor estimador lineal no sesgado (Best Linear Unbiased Estimator, BLUE):
C = FIM−1 =
[N∑
i=1
(∂z
∂p(ti)
)T
Qi
(∂z
∂p(ti)
)]−1
(4.15)
Ademas, de la matriz de covarianza tambien se puede obtener informacion util
sobre la correlacion de los parametros estimados. La matriz de correlacion, cuyos
elementos son los coeficientes de correlacion aproximados entre el parametro i y el
j, se define como:
Rij =Cij√CiiCjj
, i 6= j, (4.16)
Rij = 1, i = j, (4.17)
La matriz de correlacion, R, mide la relacion entre los parametros y da una idea
de los efectos de compensacion de los cambios en los valores de los parametros sobre
la salida del modelo. Si dos parametros, pi y pj, estan altamente correlacionados,
un cambio en la salida del modelo ocasionado por un cambio en pi puede estar
(casi) compensado por un cambio apropiado en el valor de pj. Esto evita que los
36 Capıtulo 4. Analisis de identificabilidad
parametros sean identificables de forma unica incluso si la salida del modelo es muy
sensible a los cambios en los parametros individuales.
El problema de analizar la identificabilidad practica es similar al analisis de la
identificabilidad a priori local pero ahora los puntos de evaluacion de las funciones
estan limitados a los datos experimentales y estos tienen error. Si las funciones de
sensibilidad presentan dependencia lineal en los puntos de los datos experimentales,
la matriz de covarianza se vuelve singular y el modelo no es identificable. Una FIM
singular indica la presencia de parametros no identificables y correlaciones entre
parametros superiores de 0.99 pueden dar lugar a una FIM singular.
En el presente estudio, se ha utilizado el estimador del numero de condicion de
una matriz de Matlab, rcond, para determinar si la FIM es singular:
rcond(FIM) =1
norm(FIM, 1)norm(FIM−1, 1)(4.18)
Si rcond(FIM) < 10ε, donde ε es la maxima precision de Matlab en punto
flotante (2.2 10−16), la FIM se considera singular.
A pesar de que el analisis de sensibilidad basado en la FIM es una tecnica muy
extendida, esta implica una linealizacion de primer orden del modelo con respecto a
los parametros lo que en algunos casos dara lugar a conclusiones erroneas (Petersen,
2000). En el caso de problemas muy no lineales, en esta aproximacion se pierde
mucha informacion lo que podrıa dar lugar a que los parametros sean identificables
en la practica aun cuando la FIM sea singular.
Por este motivo, el analisis basado en las regiones de confianza se presenta en este
trabajo como una una alternativa mas robusta aunque mucho mas costosa desde el
punto de vista computacional.
4.3.2. Metodo basado en las regiones de confianza
Existen distintas posibilidades para la determinacion de las regiones de confian-
za para los parametros estimados (ver capıtulo 5). Las tecnicas basadas en la FIM
presentan las limitaciones inherentes a esta matriz derivadas de su caracter lineal.
Sin embargo, la forma y dimensiones de las regiones de confianza obtenidas me-
diante metodos de Monte Carlo permitiran obtener conclusiones objetivas sobre la
identificabilidad practica de los parametros del modelo.
Capıtulo 5
Intervalos de confianza
Despues de ajustar los parametros p a los datos experimentales, es deseable
obtener alguna medida de la calidad de los estimadores. En principio, el objetivo
es obtener la distribucion de probabilidad de los parametros estimados o una ca-
racterizacion adecuada de la misma, por ejemplo, mediante el calculo de diferentes
percentiles de la distribucion. Sin embargo, en la mayorıa de los casos, esta distri-
bucion no se conoce y por lo tanto es necesario obtener una aproximacion de la
misma.
En este capıtulo, se introducira, en primer lugar, la definicion basica de las re-
giones de confianza exactas. A continuacion, se consideran dos metodos de aproxi-
macion: una linealizacion local de las salidas dando lugar a la matriz de informacion
de Fisher (FIM) y una expansion cuadratica del funcional del error de estimacion
implicando a la matriz Hessiana. Por ultimo se consideran alternativas mas robustas
basadas en metodos de Monte Carlo.
5.1. Regiones de confianza exactas
Las regiones de confianza son de gran importancia ya que proporcionan una eva-
luacion objetiva de la precision de los parametros estimados y de su identificabilidad.
Dado que la funcion objetivo J representa la cercanıa de los datos experimentales al
modelo ajustado, es justificable basar la region de confianza de p en los contornos
de J(p). En el espacio parametrico, esta region tiene la forma general:
p : J(p) ≤ cJ(p) (5.1)
para todo c > 1. Esta region puede ser considerada como “exacta” ya que no esta ba-
sada en ninguna aproximacion, aunque es difıcil seleccionar un valor de c con sig-
nificado estadıstico. De todos modos, para un numero de puntos experimentales N
37
38 Capıtulo 5. Intervalos de confianza
grande, la region de confianza basada en estadısticos F (Seber y Wild, 1989)
p : J(p) ≤
(1 +
Np
N −Np
F 1−αNp,N−Np
)J(p)
(5.2)
tiene el nivel de confianza asintotico de 100(1 − α) % donde F 1−αNp,N−Np
es el nivel
crıtico superior α de la distribucion FNp,N−Np .
La dificultad practica de estimar esta region ha sido examinada por Vanrolleghem
y Keesman (1996) que sugirieron utilizar simulaciones extensivas de Monte Carlo
que se explicaran mas adelante. Mas recientemente, Dochain y Vanrolleghem (2001)
propusieron un metodo de contraccion sucesiva para encontrar el valor de J(p)
correspondiente al valor prescrito de la distribucion F .
5.2. Metodo basado en la FIM
La region de confianza puede definirse como una funcion de la matriz de cova-
rianza de los parametros C y puede expresarse como (Seber y Wild, 1989; Ljung,
1999): p : (p− p)TC−1(p− p) ≤ NpF
1−αNp,N−Np
(5.3)
Para un modelo lineal z = py + ε, con ruido residual ε ∼ N(0, σ2Iq), C puede
obtenerse de forma compacta como:
C = σ2[YTV−1Y
]−1(5.4)
donde Y = [y1, y2, ..., yN ]T .
Para modelos no lineales no hay un modo exacto de obtener C y la aproximacion
lineal puede dar lugar a estimaciones pobres de la region de confianza real (Donald-
son y Schnabel, 1987; Rooney y Biegler, 1999). La matriz de covarianza anterior
C obtenida para el caso lineal puede ser ampliada para dar lugar a una matriz de
covarianza aproximada como:
CJ(p) =J(p)
N −Np
[J(p)TV−1J(p)
]−1(5.5)
donde el termino J(p)/N −Np es una aproximacion objetiva de la varianza residual
σ2 y J es la matrix Jacobiana del modelo que puede escribirse en columna, tal que:
J =[J1|J2|...|Jj|...|JNp
](5.6)
siendo
Jj(p) =∂z
∂pj
∣∣∣∣p
= Sj, j = 1, ..., Np (5.7)
5.3. Metodo basado en la matriz Hessiana 39
Las columnas de la matrix Jacobiana J son las salidas de las funciones de sensibilidad
Sj = (∂z/∂pj) con respecto a los parametros.
Asumiendo que el ruido de las medidas no esta correlacionado y que este pre-
senta una distribucion normal con media cero y varianza constante, CJ, dada por
la ecuacion (5.5), es tambien la inversa de la FIM, definida como:
FIM =N∑
i=1
(∂z(ti)
∂p
)T
V −2i
(∂z(ti)
∂p
)(5.8)
es decir,
CJ(p) = FIM−1 (5.9)
En este caso, la inversa de la FIM representa la matriz de covarianza del error del
estimador objetivo de varianza mınima de acuerdo con el teorema de Cramer-Rao
(Ljung, 1999). Sustituyendo C de la ecuacion (5.5) en la ecuacion (5.3), se obtienen
los elipsoides de confianza aproximados:
p : (p− p)TCJ
−1(p− p) ≤ NpF1−αNp,N−Np
(5.10)
5.3. Metodo basado en la matriz Hessiana
Para modelos no lineales la funcion objetivo J(p) dada por la ecuacion (4.12) no
es una forma cuadratica exacta pero, para desviaciones de los parametros suficiente-
mente pequenas (p− p), puede ser aproximada por una expansion de segundo orden
alrededor de los parametros estimados p. Dado que en la vecindad del mınimo el
termino de primer orden se pierde ((∂J/∂p)p ≈ 0) la expansion de segundo orden
da lugar a:
J(p) ≈ J(p) +1
2(p− p)T
(∂2J
∂p∂pT(p)
)(p− p) (5.11)
Sustituyendo la ecuacion (5.11) en la ecuacion (5.2), se obtiene un resultado formal-
mente similar al caso lineal:
CH(p) =2
N −Np
J(p)H(p)−1 (5.12)
donde:
H(p) =∂2J(p)
∂p∂pT(5.13)
con los elipsoides de confianza dadas por:
p : (p− p)TCH
−1(p− p)T ≤ NpF1−αNp,N−Np
(5.14)
40 Capıtulo 5. Intervalos de confianza
En cualquiera de los dos casos, el intervalo de confianza individual de cada
parametro σi puede obtenerse como:
σi = ±t1−(α/2)N−Np
√Cii (5.15)
donde C puede ser aproximada o bien por CJ de la ecuacion (5.5) o por CH de la
ecuacion (5.12) y t1−(α/2)N−Np
es la distribucion t de Student de dos colas para un nivel
de confianza dado α y N −Np grados de libertad. En el lımite de un numero largo
de medidas (N −Np > 100), el intervalo de confianza del 95% para los parametros
es [pi − 1.96σi, pi + 1.96σi].
Los elipsoides de confianza obtenidos a partir del Hessiano o con el metodo de
Fisher coinciden solo cuando la estimacion converge a los parametros verdaderos.
De otro modo, estos dan resultados claramente distintos, pudiendo ası detectar si
los resultados de la estimacion son inadecuados (Marsili-Libelli et al., 2003).
De todos modos, estos intervalos de confianza son estadısticamente optimistas
debido al uso de una aproximacion del modelo no lineal en la vecindad de la mejor
estimacion de los parametros (Vanrolleghem y Dochain, 1998). Otras tecnicas alter-
nativas mas robustas como los metodos jackknife y bootstrap producen varianzas de
los parametros mas realistas aunque estos metodos son bastante intensivos desde un
punto de vista computacional.
5.4. Metodos de Monte Carlo
La estimacion de parametros utiliza los datos obtenidos de un sistema en un ex-
perimento dado. En general, debido a las perturbaciones que actuan sobre el sistema
y el ruido en las medidas, la repeticion de experimentos identicos no conducira a
los mismos resultados. Por lo tanto, antes de la recogida de datos, el vector z es
un vector aleatorio cuyo estimador asociado sera p(z) y una vez llevados a cabo los
experimentos, lo que se tendra es una realizacion particular de ese vector aleatorio.
Los metodos de Monte Carlo tratan de determinar las caracterısticas estadısticas
de la poblacion de estimadores proporcionada por un conjunto de todas las posibles
realizaciones de z, es decir, de todos los resultados experimentales posibles. Con este
fin, se generan vectores de datos ficticios zf mediante simulaciones del modelo para
el valor estimado de los parametros, incorporando errores aleatorios para representar
la presencia de perturbaciones y de ruido. Cada vector de datos ficticios dara lugar
a un estimador ficticio pf = p(zf ), calculado como para los datos reales. De este
modo se obtendra un conjunto de estimadores ficticios cuyas propiedades estadısticas
pueden ser estudiadas. Normalmente, pf se considera un vector aleatorio normal
5.4. Metodos de Monte Carlo 41
y su distribucion se caracteriza por la media y la matriz de covarianza empırica
de los estimadores ficticios. Este metodo requiere, por lo tanto, un gran numero
de estimaciones y de simulaciones del modelo. Con objeto de reducir el esfuerzo
computacional se han sugerido varias tecnicas (ver, p. ej., Grant y Solberg, 1983).
Una de las dificultades de los metodos de Monte Carlo esta en la eleccion de la
distribucion empleada para generar los datos ficticios zf . Las tecnicas jackknife (Que-
nouille, 1949) y bootstrap (Efron, 1982) hacen posible evitar estimar la distribucion
del error a partir de los residuos.
5.4.1. Jackknife
La mayor ventaja de la tecnica jackknife estriba en su simplicidad. Sea N = Gh,
el vector de datos experimentales z = (z1, z2, ..., zN) se divide de la forma z =
(z′1, z′2, ..., z
′G), siendo cada z′g(g = 1, 2, ..., G) un vector h × 1. Sea p el vector de
parametros estimados a partir de todos los datos z y p(g) el mejor estimador de
parametros para el modelo omitiendo el grupo z′g calculado iterativamente emplean-
do p como punto inicial. Se definen entonces G pseudo-estimadores de la forma:
pg = Gp− (G− 1)p(g) (g = 1, 2, ..., G) (5.16)
con media:
pJk =1
G
G∑g=1
pg (5.17)
y matriz de varianza-covarianza:
CJk =[(CJkij
)]
=1
G− 1
G∑g=1
(pg − pJk) (pg − pJk)T (5.18)
De este modo, pJk es el estimador jackknife de p∗ y CJk/G es un estimador de
D[pJk]. Considerando pg (g = 1, 2, ..., G) independientes e igualmente distribuidos,
se puede construir una region con un nivel de confianza de 100(1 − α) % para p
empleando la distribucion T 2 de Hotelling (p. ej. Seber, 1984) de modo que:
p : (p− pJk)
TCJk−1(p− pJk) ≤ Np
G−Np
G− 1
GF 1−α
Np,G−Np
(5.19)
Ademas, para un pi dado, el intervalo de confianza 100(1 − α) % puede obtenerse
como:
pJki± t
1−(α/2)N−Np
√CJkii
G(5.20)
donde pJkies el elemento i de pJk.
42 Capıtulo 5. Intervalos de confianza
Las propiedades de (5.19) y (5.20) fueron estudiadas por Dunkan (1978) para
N = 24 y distintos valores de h. Aunque tener un h lo mas grande posible es
conveniente desde el punto de vista computacional, su estudio concluye claramente
que las omisiones de uno en uno (h = 1) son mas recomendables, especialmente para
muestras pequenas. A pesar de su facil implementacion, este metodo resulta menos
flexible y fiable que el metodo bootstrap (Walter y Pronzato, 1997).
5.4.2. Bootstrap
El metodo bootstrap (ver, por ejemplo, DiCiccio y Romano, 1988; Hinkley, 1988)
utiliza solamente los valores de los datos experimentales z y el modelo M(p) asu-
miendo que los errores son variables aleatorias con identica distribucion pero sin
especificar. Se asume por ejemplo que
z(ti) = z(ti,p∗) + bi, i = 1, ..., N (5.21)
donde los bi corresponden a variables independientes e igualmente distribuidas. Un
estimador de bi viene dado por el residuo i:
bi = z(ti)− z(ti, p), i = 1, ..., N (5.22)
donde p es un estimador de p∗. Un vector zf de datos ficticios zf se obtiene entonces
como:
zf (ti) = z(ti, p) + b, i = 1, ..., N (5.23)
donde, para cada ti, b se elige aleatoriamente entre los residuos bk (k = 1, ..., N)
considerados como equiprobables. Esto equivale a sustituir la distribucion empırica
de los residuos por la distribucion verdadera de los bi que sera mas aceptable cuanto
mas cerca este p de p∗. Repitiendo esta operacion, se obtiene la poblacion de vectores
de datos ficticios, a partir de la cual puede derivarse la poblacion de los parametros.
Las caracterısticas de esta poblacion (media pB, matriz de covarianza CB) podran
entonces ser estudiadas de manera analoga al metodo jackknife obteniendo, para un
pi dado, el intervalo de confianza 100(1− α) %:
pBi± t
1−(α/2)N−Np
√CBii
(5.24)
donde pBies el elemento i de pB.
Capıtulo 6
Diseno optimo de experimentos
Para llevar a cabo la estimacion de parametros de modo satisfactorio, es impres-
cindible que los datos experimentales sean de suficiente calidad. La realizacion de
experimentos en bioprocesos, especialmente a nivel industrial, es una actividad muy
costosa en tiempo y dinero. Por estos motivos, se hace necesario el diseno optimo
de experimentos (OED) cuyo objetivo es encontrar los experimentos dinamicos ne-
cesarios para que los parametros estimados a partir de los datos proporcionados por
los mismos sean de la mejor calidad estadıstica posible.
Ademas, todos los algoritmos numericos empleados para la estimacion de parame-
tros en modelos no lineales presentan dificultades cuando se encuentran con proble-
mas mal condicionados. Asumiendo que la estructura del modelo es correcta y que
este es estructuralmente identificable, el diseno de experimentos va a influir en gran
medida para la identificabilidad practica del mismo. El OED ayudara a mejorar la
identificabilidad practica mejorando a su vez el condicionamiento del problema de
estimacion y facilitando ası la tarea de los metodos de optimizacion.
Cuando uno se enfrenta a un problema de diseno optimo de experimentos las
preguntas que se debe plantear son:
- ¿Que medir? Esta pregunta afronta la eleccion de las variables medidas.
- ¿Donde medir? Aquı se trata el problema de la localizacion de los sensores.
- ¿Cuando medir? Consiste en establecer la estrategia de muestreo.
- ¿Como manipular? Se trata de definir cuales son las posibles variables ma-
nipuladas o controles y el tipo de manipulaciones, es decir, la variacion de
los controles a lo largo del experimento. En algunos casos tambien se podran
modificar las condiciones iniciales de ciertas variables.
43
44 Capıtulo 6. Diseno optimo de experimentos
Para el diseno de experimentos informativos, se han desarrollado diferentes es-
trategias basadas en la definicion del contenido de informacion de un experimento
dado. Por sus caracterısticas, la matriz de informacion de Fisher (FIM) es la clave
de muchos de estos procedimientos. Para sistemas lineales y bajo ciertas suposicio-
nes sobre el ruido de las medidas, la inversa de la FIM evaluada en los verdaderos
parametros del proceso p∗ es la matriz de covarianza del mejor estimador lineal no
sesgado (Best Linear Unbiased Estimator, BLUE) (Goodwin y Payne, 1977; Godfrey
y DiStefano III, 1985). Cuando los parametros estimados a partir de un experimento
estan cerca de los parametros verdaderos del proceso p∗, la matriz de informacion
de Fisher evaluada en esos estimadores puede verse como una aproximacion de la
FIM evaluada en los parametros verdaderos del proceso p∗. De este modo, su in-
versa proporciona una aproximacion de la mejor covarianza del error que se puede
conseguir.
Para modelos no lineales en los parametros, la aplicacion de esta metodologıa
implica la suposicion de que las salidas pueden ser aproximadas por una expansion
en series de Taylor de primer orden en la vecindad de los parametros verdaderos
de proceso p∗. En la practica, los parametros verdaderos se desconocen por lo que,
durante el diseno de experimentos, debe utilizarse un conjunto de parametros, lla-
mado conjunto de parametros nominales p0 que generalmente no coincide con los
parametros verdaderos del proceso p∗. Normalmente, estos parametros nominales
p0 se obtienen a partir de experimentos preliminares o de datos bibliograficos. De
este modo, el problema de OED se establece como la optimizacion de una funcion
escalar de la FIM evaluada en los parametros nominales p0. Dado que estos nor-
malmente no coinciden con los parametros verdaderos, se debe realizar un esquema
iterativo de diseno para obtener los verdaderos experimentos optimos con respecto al
vector de parametros verdadero p∗. En cada ciclo iterativo, los valores de los parame-
tros estimados a partir del experimento precedente son utilizados como conjunto de
parametros nominales para el diseno optimo de experimentos.
6.1. Criterios de diseno optimo
Con objeto de comparar la eficacia de un experimento con respecto a la identi-
ficabilidad de los parametros y a la precision esperada de la estimacion a partir de
los datos recogidos, se han sugerido como medida varias funciones escalares de la
matriz de informacion de Fisher. Estos funcionales tambien se utilizan como ındices
de eficacia para el diseno optimo de experimentos. En la bibliografıa se pueden en-
contrar varios de estos criterios de diseno optimo (Vanrolleghem y Dochain, 1998)
6.1. Criterios de diseno optimo 45
cuya interpretacion geometrica se ilustra en la Figura 6.1:
p1
p2
Criterio ECriterio A
Criterio D
Figura 6.1: Interpretacion geometrica de varios criterios de
diseno optimo (Asprey y Macchietto, 2002)
Criterio A: min traza(FIM−1
)
Este criterio se centra en la minimizacion de la traza y por lo tanto de la
suma de los autovalores de la matriz de covarianza, es decir, el cuadrado de
la longitud de los ejes de los elipsoides de confianza. Esto es equivalente a
minimizar la media aritmetica de los errores de los parametros. Notese que
este criterio se basa en la inversion de la FIM por lo que producira errores
numericos en el caso de que la FIM sea singular o este mal condicionada.
Criterio A modificado: max traza (FIM)
Este criterio es similar al criterio A solo que, en este caso, se maximiza la
traza de la FIM de modo que se evitan los errores numericos en caso de
que la FIM sea singular. Sin embargo, el problema de este criterio es que
en el maximo puede darse el caso de que la matriz sea singular porque uno
de los autovalores sea cero, si alguno de los otros autovalores se ha vuelto
lo suficientemente grande (Goodwin y Payne, 1977). Esto significarıa que la
region de confianza se va a infinito en cierta direccion y que los parametros no
son identificables.
46 Capıtulo 6. Diseno optimo de experimentos
Criterio D: max det (FIM)
Aquı se trata de maximizar el determinante de la FIM. El determinante es
proporcional al volumen de la region de confianza. Maximizando el criterio D
se minimiza el volumen de los elipsoides de confianza asintoticos y, por lo tan-
to, la media geometrica del error de los parametros. Ademas, este criterio es
invariable a cualquier reescalado de los parametros (Walter y Pronzato, 1997).
Por otra parte, un diseno D-optimo consiste normalmente en la repeticion de
un numero pequeno de condiciones experimentales diferentes, es decir, algu-
nos experimentos apareceran repetidos (Atkinson y Hunter, 1968; Box, 1968,
1970). Como se explica en detalle en Walter y Pronzato (1997), esto puede
ayudar a eliminar optimos locales a la hora de estimar los parametros.
Criterio E: min λmax (FIM−1)
La longitud de los ejes de los elipsoides de confianza es proporcional a la
inversa de la raız cuadrada de los autovalores correspondientes. El criterio E
maximiza el mınimo autovalor de la FIM y, por lo tanto, minimiza la longitud
del mayor de los ejes de los elipsoides de confianza. De este modo, este criterio
trata de minimizar el mayor de los errores de los parametros y ası maximizar
la distancia del caso singular (no identificable).
Criterio E modificado: min abs(λmax(FIM)λmin(FIM)
)
Este criterio tambien esta relacionado con la forma de la region de confianza.
Aquı el objetivo es la minimizacion del numero de condicion (relacion entre el
mayor y el menor autovalor) o lo que es lo mismo, trata de igualar el mayor
y el menor de los ejes de los elipsoides. Una de las ventajas de este criterio
es que su valor optimo es conocido y corresponde a la unidad indicando el
caso donde la forma de los elipsoides de confianza es una (hiper)esfera (en una
representacion tridimensional corresponderıa a una forma conica) y los errores
de los parametros estan igualmente distribuidos.
En este punto, se debe mencionar que el reescalado de los parametros afecta a
las propiedades de la matriz de informacion de Fisher y por lo tanto de su inversa,
la matriz de covarianza. El reescalado de los parametros puede utilizarse de modo
ventajoso ya que mediante un reescalado adecuado se puede minimizar los problemas
relacionados con la inversion de la FIM. Sin embargo, este efecto tambien afecta al
diseno optimo de experimentos basado en funciones escalares de la FIM. Como se
muestra en Petersen (2000), todos los criterios antes explicados con excepcion del
criterio D son sensibles al reescalado de los parametros. Esto significa que los disenos
6.2. Formulacion del OED como un problema de optimizacion dinamica 47
experimentales obtenidos mediante estos criterios seran diferentes si el modelo se
expresa, por ejemplo, en distintas unidades de tiempo. Por este motivo, con objeto
de obtener unos elipsoides de confianza lo mas esfericos posible, se recomienda escalar
todos los parametros al mismo valor, p. ej. la unidad. Por otra parte, si se desea
que unos parametros tengan mejor calidad estadıstica que los otros, se recomienda
escalar estos parametros a un valor mayor que el resto.
6.2. Formulacion del OED como un problema de
optimizacion dinamica
El problema de diseno optimo de experimentos puede ser formulado como un
problema de optimizacion dinamica, tambien llamado de control optimo en lazo
abierto, como sigue:
Encontrar los factores externos variables con el tiempo o variables de control
(temperatura, pH, concentraciones, etc.), u(t), ası como los tiempos de muestreo, la
duracion del experimento y las condiciones iniciales, v, que minimizan (o maximizan)
una funcion escalar φ de la matriz de informacion de Fisher:
JOED = φ(FIM) (6.1)
sujeto a:
la dinamica del sistema:
F (y, y, z,u,v,p, t) = 0 (6.2)
F0 (y(t0), z(t0),u(t0),v,p, t0) = 0 (6.3)
donde y es el vector de las variables de estado del modelo, z es el vector de las
variables medidas en puntos discretos de tiempo, u es el vector de variables de
control o factores externos, v incluye los tiempos de medida, la duracion de
los experimentos y las condiciones iniciales y p es el vector de los parametros
del modelo.
posibles restricciones de igualdad y desigualdad respectivamente:
h (y, z,u,v,p, t) = 0 (6.4)
g (y, z,u,v,p, t) ≤ 0 (6.5)
48 Capıtulo 6. Diseno optimo de experimentos
otras restricciones algebraicas relacionadas con limitaciones experimentales:
uL(t) ≤ u(t) ≤ uU(t) (6.6)
vL ≤ v ≤ vU (6.7)
Los metodos existentes en la actualidad para la resolucion de problemas de op-
timizacion dinamica pueden clasificarse en tres grandes grupos:
1. Metodos de programacion dinamica desarrollados inicialmente para pro-
blemas discretos y que estan basados en las condiciones de optimalidad de
Bellman (1957). Luus (1990) propone el metodo denominado programacion
dinamica iterativa (Iterative Dynamic Programming, IDP) que se basa en apli-
car el principio de Bellman de manera iterativa.
2. Metodos indirectos que emplean las condiciones del principio mınimo de
Pontryagin (1962) dando lugar a un problema de condiciones iniciales para
los estados y finales para las variables adjuntas (Two Point Boundary Value
Problem, TPBVP) (Bryson y Ho, 1975).
3. Metodos directos, donde el problema original se transforma en un proble-
ma de optimizacion no lineal (NLO) utilizando o bien la parametrizacion de
control (Control Vector Parametrization, CVP) (Vassiliadis, 1993) o bien la
parametrizacion total (Complete Parametrization, CP), donde se parametri-
zan tanto las variables de control como las variables de estado (Polak, 1971;
Biegler, 1984).
Las tecnicas mas utilizadas en la actualidad para la resolucion de problemas de
optimizacion dinamica estan basadas en metodos directos (ver revisiones por Balsa-
Canto, 2001 y Banga et al., 2005). De las distintas alternativas, en este trabajo se
ha elegido la parametrizacion de control (CVP) ya que permite el diseno de varios
experimentos simultaneos con varias entradas para el caso general de modelos de
dimension elevada sin resolver NLO excesivamente grandes (Banga et al, 2002).
6.3. Metodo de parametrizacion de control
El metodo de parametrizacion de control (CVP) consiste en la discretizacion de
las variables de control u utilizando un conjunto finito de parametros w de modo
que los controles pueden expresarse como:
6.3. Metodo de parametrizacion de control 49
u(t) = θ(t, w) (6.8)
De este modo el problema original de dimension infinita se transforma en un
problema de optimizacion no lineal (NLO) de dimension finita con restricciones
diferenciales-algebraicas.
En Vassiliadis (1993), la duracion de los experimentos se divide en un numero
de ρ elementos y se aproximan las variables de control empleando polinomios de
orden bajo. Las aproximaciones lineales (rampas) o constantes (escalones) son las
mas convenientes ya que permiten la incorporacion simple de la mayorıa de las
actuaciones sobre los sistemas que se observan en la practica real.
Finalmente se debe resolver un problema de optimizacion no lineal (NLO) siendo
las variables de decision:
los coeficientes de los polinomios
la duracion de los experimentos
los tiempos de muestreo
las condiciones iniciales
La funcion objetivo sera una funcion escalar de la matriz de informacion de Fis-
her para cuya evaluacion se requiere la simulacion de la dinamica del sistema y el
calculo de sensibilidades parametricas. Por los motivos expuestos en el capıtulo 3,
se utilizara el codigo ODESSA (Leis y Kramer, 1985) para la resolucion del siste-
ma de ecuaciones diferenciales que describe la dinamica del sistema y la obtencion
simultanea de las sensibilidades parametricas.
El problema ası formulado puede resolverse, de forma analoga al problema de
estimacion de parametros formulado en la seccion 2.2, mediante metodos de valor
inicial o metodos multiple shooting. Los metodos mas populares para la resolucion de
este NLO son metodos de valor inicial consistentes en la resolucion del problema de
valor inicial (IVP) para cada evaluacion de la funcion. La mayorıa de estos metodos
son tecnicas de optimizacion local basadas en el gradiente, habitualmente variantes
del metodo de programacion cuadratica secuencial (Sequential Quadratic Problem,
SQP). Sin embargo, debido al caracter no lineal de la mayorıa de los bioprocesos,
el uso del metodo CVP da lugar con frecuencia a NLOs no convexos por lo que los
metodos de optimizacion local no convergeran o lo haran a optimos locales. Con
el fin de solventar estas dificultades, en el presente trabajo se propone el uso de
metodos de optimizacion global que se explican con detalle en el capıtulo 7.
Capıtulo 7
Metodos de optimizacion
Optimizar es encontrar, de forma eficiente, la mejor solucion del conjunto de
todas las posibles. Tanto en el caso de estimacion de parametros como en el de
diseno optimo de experimentos, lo que se pretende es encontrar el valor de un vector
de variables de decision que proporciona el mınimo valor posible de una funcion
objetivo J . En el caso de la estimacion de parametros, las variables de decision
son los parametros del modelo que se debe calibrar. Para resolver ambos problemas
se empleara un esquema de un problema de optimizacion no lineal que requiere
la resolucion de un problema de valor inicial para cada evaluacion de la funcion
objetivo. Como se explica en la seccion 2.2.1, los metodos de optimizacion numerica
generan nuevos valores para las variables de decision en cada iteracion de modo que
estos disminuyan el valor de la funcion objetivo. La generacion de nuevos valores se
realiza habitualmente de acuerdo con:
pi+1 = pi + αdi (7.1)
donde di es una direccion de busqueda basada en informacion acerca de la funcion
objetivo J(p) adquirida en iteraciones previas y α es una constante positiva deter-
minada de modo que se obtenga una disminucion apropiada del valor de J(p). El
modo en que se calcula di va a determinar el tipo de metodo de optimizacion. En
una primera clasificacion, los metodos de optimizacion pueden dividirse en metodos
deterministas, estocasticos e hıbridos.
Los metodos deterministas calculan las direcciones de busqueda de manera sis-
tematica mediante la toma de decisiones deterministas. En muchos casos requieren
el calculo del gradiente y del Hessiano de la funcion objetivo y suelen buscar la ve-
rificacion de las condiciones de optimalidad. Dentro de este tipo se puede distinguir
entre metodos locales y metodos globales. Los metodos locales buscan un vector p
tal que J(p) < J(p) para todos los valores de p cercanos a p. En el caso de los meto-
51
52 Capıtulo 7. Metodos de optimizacion
dos globales lo que se pretende es encontrar el valor de p tal que J(p) < J(p) para
todos los posibles valores de p. Notese que, en el caso de los problemas convexos, el
optimo local coincide con el global.
Por otra parte, los metodos estocasticos calculan las direcciones de busqueda
empleando secuencias pseudo-aleatorias con un importante componente heurıstico y
valores previos de la funcion objetivo, sin hacer uso de informacion sobre la estruc-
tura del problema. En general, son de caracter global aunque debido a su naturaleza
aleatoria no se puede garantizar la convergencia al optimo global con total certe-
za. Sin embargo, muchos de estos metodos disponen de pruebas de convergencia
asintoticas y a menudo son estrategias muy eficientes localizando las proximidades
del optimo global.
A su vez, la mayor parte de los metodos hıbridos combinan estrategias estocasti-
cas y deterministas para superar las limitaciones inherentes a cada una de ellas
mientras que potencian sus puntos fuertes. No obstante, un metodo hıbrido es todo
aquel que resulta de la combinacion de dos o mas algoritmos por lo que tambien
se pueden encontrar estrategias que combinan varios metodos estocasticos o varios
metodos deterministas. La clave para la obtencion de metodos hıbridos robustos y
eficaces radica en la eleccion de los metodos a combinar y en el modo de estructurar
dicha combinacion.
Figura 7.1: Metodos locales Figura 7.2: Metodos globales
Este trabajo se centra en la estimacion de parametros y el diseno optimo de
experimentos (OED) de modelos dinamicos no lineales que, como se ha explicado
anteriormente, pueden formularse como problemas de optimizacion no lineal (NLOs).
Debido a la acusada no linealidad de los modelos considerados, los problemas de ca-
libracion y de OED resultantes seran multimodales por lo que los metodos locales
quedaran atrapados en soluciones locales. Para solventar esta limitacion se requiere
7.1. Metodos locales 53
el uso de estrategias de optimizacion que proporcionen mas garantıas de convergen-
cia a la solucion global. Las Figuras 7.1 y 7.2 representan el comportamiento de
los metodos de optimizacion local y global respectivamente para la resolucion de
problemas no convexos.
En las siguientes secciones se hara una revision de los metodos de optimiza-
cion mas utilizados en la actualidad, tanto locales como globales y se justificara la
eleccion de algoritmos estocasticos e hıbridos para la resolucion de los problemas
considerados.
7.1. Metodos locales
Como ya se ha mencionado, la mayorıa de los metodos locales son deterministas
y por lo tanto calculan la direccion de busqueda de manera sistematica. La diferencia
entre unos metodos y otros estriba, fundamentalmente, en el tipo de problemas que
pueden resolver y en el modo de generar las direcciones de busqueda. A continuacion
se presenta una breve revision de los principales metodos para tratar problemas de
optimizacion multidimensionales (Edgar y Himmelblau, 1988; Reklaitis et al., 1983).
7.1.1. Metodos para problemas sin restricciones
En funcion de la informacion que necesiten, estas estrategias pueden clasificarse
en dos grandes grupos:
Metodos de busqueda directa: solamente requieren valores de la funcion
objetivo, y no de las derivadas parciales de la misma, para encontrar el optimo.
Tambien se conocen como metodos de orden cero ya que utilizan las derivadas
de orden cero de la funcion. De entre estos metodos se debe destacar los meto-
dos de busqueda por patrones como el metodo de Hooke y Jeeves (1961), el
metodo de Powell (1964), el metodo de Rosenbrock (1960), el metodo simplex
(Dantzig, 1963) y el metodo de Nelder y Mead (1965), que es una modificacion
del simplex. Estos metodos son los mas adecuados para problemas simples con
un numero de variables relativamente pequeno pero generalmente son menos
eficientes y requieren mayor numero de evaluaciones de la funcion objetivo que
los metodos de busqueda indirecta.
Metodos de busqueda indirecta: requieren conocer, ademas de los valores
de la funcion objetivo, el gradiente y en algunos casos tambien el Hessiano de
la misma. De entre los metodos basados en gradiente, aquellos que requieren
solamente las primeras derivadas de la funcion objetivo se llaman metodos de
54 Capıtulo 7. Metodos de optimizacion
primer orden y aquellos que requieren las derivadas de primer y segundo orden
se llaman metodos de segundo orden. El primer metodo de este grupo, propues-
to por Cauchy en el siglo XIX, es el metodo del gradiente clasico que utiliza
el negativo del gradiente como direccion de busqueda para la minimizacion.
En este metodo la direccion de busqueda puede interpretarse como ortogo-
nal a una aproximacion lineal tangente a la funcion objetivo en ese punto. Los
metodos de segundo orden tienen tambien en cuenta la curvatura de la funcion
para lo que debera considerarse la matriz Hessiana de la misma. Entre estos
metodos destacan el metodo de Newton y los populares metodos quasi-Newton
que tratan de aproximar la direccion de Newton asintoticamente.
Estas tecnicas han sido originalmente desarrolladas para resolver problemas sin
restricciones pero se adaptan facilmente a la resolucion de problemas con restriccio-
nes mediante el uso de funciones de penalizacion (Balsa-Canto, 2001).
7.1.2. Metodos para problemas con restricciones
Ademas de las tecnicas de resolucion de problemas de optimizacion no lineales
con restricciones (NLOs) mediante su transformacion en problemas sin restricciones
por medio de funciones de penalizacion, existen metodos especialmente disenados
para este tipo de problemas que hacen uso de las condiciones de optimalidad de
Karush-Kuhn-Tucker, KKT (ver, por ejemplo, Bazaara et al., 1993). Entre estos
metodos destacan el metodo clasico basado en multiplicadores de Lagrange, los
metodos de linealizacion iterativa y los metodos de programacion cuadratica secuen-
cial que hacen uso de los valores de la funcion objetivo y de su gradiente. Ademas,
el metodo complex, que es una modificacion del metodo simplex, permite resolver
problemas con restricciones sin hacer uso de las derivadas de la funcion.
De entre los metodos de linealizacion iterativa, que consisten en linealizar el pro-
blema y aplicar tecnicas de optimizacion lineal de un modo secuencial, destaca el
metodo del gradiente reducido generalizado (Generalized Reduced Gradient, GRG)
(Abadie y Carpentier, 1969). Este metodo utiliza el llamado gradiente reducido gene-
ralizado para el calculo de la direccion de busqueda que consiste en una combinacion
del gradiente de la funcion objetivo y el jacobiano de las restricciones.
El metodo GRG requiere un tiempo de computacion muy elevado, lo que hace
que los metodos de programacion cuadratica sucesiva (Sequential Quadratic Pro-
gramming, SQP) (Fletcher, 1982; Gill et al., 1981) sean los mas utilizados, junto con
los metodos de penalizacion, para resolver problemas de optimizacion no lineal con
restricciones (NLOs). Los metodos SQP aproximan localmente la funcion objetivo
por una funcion cuadratica y las restricciones por funciones lineales de modo que
7.1. Metodos locales 55
el problema original se convierte en una sucesion de problemas cuadraticos con res-
tricciones lineales. Estos metodos se basan en la aplicacion del metodo de Newton
a las condiciones necesarias de optimalidad Karush-Kunh-Tucker y resuelven una
secuencia de problemas cuadraticos, en los que en cada iteracion se requiere la reso-
lucion de un sistema de ecuaciones generalmente grande. Aunque estos metodos han
demostrado una gran eficiencia para la resolucion de problemas con funcion objetivo
y restricciones suaves, esto puede resultar muy costoso por lo que se han dedicado
muchos esfuerzos al desarrollo de estrategias eficientes.
7.1.3. Metodos locales empleados
Con objeto de ilustrar las ventajas de los metodos de optimizacion global y co-
mo segunda etapa de los metodos hıbridos, en este trabajo tambien se han utilizado
metodos locales estandar. En ocasiones se han empleado en un esquema multiarran-
que (multi-start), generando soluciones aleatorias entre los lımites de los parametros
y comenzando el algoritmo local en esos puntos. Los metodos considerados son los
siguientes:
clsSolve: este algoritmo forma parte del entorno de optimizacion Tomlab (Holms-
trom, 2004) y resuelve problemas de estimacion de parametros no lineales,
dispersos o densos, manejando explıcitamente igualdades y desigualdades li-
neales y lımites simples en las variables.
fmincon: metodo local basado en gradiente implementado como parte de la librerıa
de optimizacion de Matlab (Maltab Optimization Toolbox R©, The MathWorks
Inc.). Este metodo encuentra el mınimo local de una funcion multivariable con
restricciones por medio de un algoritmo de programacion cuadratica secuencial,
SQP. El metodo utiliza gradientes numericos o analıticos si estan disponibles.
n2fb/dn2fb: este algoritmo fue especialmente disenado para problemas de estima-
cion de parametros por Denis et al., (1981). Esta basado en la combinacion
de un algoritmo Gauss-Newton y uno quasi-Newton y soporta lımites supe-
riores e inferiores para las variables de manera independiente. Una parte del
Hessiano se calcula directamente y otra se aproxima mediante un metodo de
actualizacion quasi-Newton. En ciertas situaciones el algoritmo se reduce a un
algoritmo Gauss-Newton o Levenberg-Marquardt. El metodo es estabilizado
mediante una tecnica de regiones de confianza junto con una eleccion adaptati-
va del modelo del Hessiano para alcanzar la convergencia. El algoritmo dn2fb
es la version en doble precision de n2fb.
56 Capıtulo 7. Metodos de optimizacion
NOMADm: metodo directo de proposito general implementado en Matlab y disenado
por Abramson (2002) para la optimizacion de problemas no lineales con va-
riables continuas, discretas y/o categoricas (Nonlinear Optimization for Mixed
variables And Derivatives-Matlab, NOMADm). Emplea varios algoritmos de
busqueda por patrones generalizados (Generalized Pattern Search, GPS), y no
requiere informacion sobre las derivadas. Resulta especialmente adecuado para
problemas de calibracion con datos con mucho ruido para los que los metodos
basados en gradiente no dan buenos resultados.
npsol: desarrollado por Stanford Systems Optimization Laboratory (ver Gill et al.,
1998), se considera como el estado actual para la resolucion de problemas de
optimizacion no lineal densos.
snopt: desarrollado por Stanford Systems Optimization Laboratory (ver Gill et al.,
2002), se considera el metodo mas puntero para la resolucion de problemas
grandes y dispersos de optimizacion no lineal.
solnp: metodo SQP implementado por Ye (1987) para problemas de optimizacion
no lineal densos con restricciones.
7.2. Metodos globales
La optimizacion global (GO) de sistemas dinamicos no lineales ha recibido una
atencion creciente en los ultimos anos por parte de ingenieros, matematicos e in-
formaticos. Favorecido por el aumento de las capacidades computacionales a lo largo
de las ultimas decadas, este campo ha crecido a un ritmo muy rapido y con el el
numero de algoritmos propuestos para resolver problemas que antes resultaban in-
tratables. En Horst y Pardalos (1995), Pinter (1996) y mas recientemente en Moles
(2003) puede encontrarse una revision de los metodos deterministas y estocasticos
disponibles en la actualidad.
7.2.1. Metodos deterministas
Los metodos de optimizacion global deterministas pueden garantizar la opti-
malidad global bajo unas condiciones determinadas y para ciertos problemas. Sin
embargo, ninguno de estos algoritmos puede garantizar la resolucion de problemas
generales NLOs con certeza en un tiempo finito (Guus et al., 1995). De hecho, el
esfuerzo computacional asociado crece muy rapido (a menudo exponencialmente)
con el tamano del problema.
7.2. Metodos globales 57
Recientemente han aparecido varias tecnicas avanzadas de ramificacion y poda
(branch and bound) para la resolucion de problemas de optimizacion dinamica y la
estimacion de parametros de sistemas dinamicos no lineales (Esposito y Floudas,
2000; Papamichail y Adjiman, 2002). Esta parece una lınea de investigacion pro-
metedora pero la funcion objetivo y la dinamica del sistema deben ser doblemente
diferenciables y continuas y las restricciones de camino que pueden manejar son
limitadas. Ademas, estos metodos no escalan bien con el tamano del problema y
no resultan aplicables para problemas de estimacion con un numero relativamente
grande de parametros como los considerados en este trabajo. Por otra parte, los
problemas de diseno optimo no garantizan el cumplimiento de las condiciones ne-
cesarias para la aplicacion de estos metodos ya que la funcion objetivo depende no
solo de los estados sino tambien de las sensibilidades parametricas.
Una revision extensa de estos metodos esta fuera de los objetivos de este trabajo
y puede encontrarse en Pinter (1996) y Floudas (2000).
7.2.2. Metodos estocasticos
Con respecto a los metodos estocasticos, muchos investigadores han demostrado
que estos pueden localizar la vecindad de la solucion global para problemas NLOs
con bastante eficicencia (Banga et al., 1991; Luus, 1993; Banga et al., 1997; Ali
et al., 1997; Wang y Chiou, 1997; Moles et al., 2003b; Banga et al., 2003). No
obstante, los metodos estocasticos son metodos basados en algoritmos probabilısticos
y, por lo tanto, se debe sacrificar la posibilidad de una garantıa absoluta de exito.
En su lugar, algunos metodos disponen de pruebas de convergencia asintoticas que
garantizan que, a medida que aumenta el esfuerzo computacional, la probabilidad de
encontrar el optimo global se acerca a la unidad (Guus et al., 1995). Sin embargo, en
muchas situaciones practicas estos metodos resultan satisfactorios y proporcionan
una solucion “suficientemente buena” que a menudo es la mejor disponible, en un
tiempo computacional reducido. Ademas, los metodos estocasticos resultan faciles
de implementar y de usar, y no requieren la transformacion del problema original
que puede ser tratado como una caja negra.
Debido al gran interes por el estudio de tecnicas que permitan resolver proble-
mas de gran complejidad que no pueden ser resueltos por los metodos tradicionales,
el numero de algoritmos estocasticos ha experimentado un crecimiento muy rapido
(ver revision por Osman y Laporte (1996) con mas de 1300 referencias). Resulta
difıcil hacer una clasificacion exhaustiva de todos los metodos existentes por lo que
a continuacion se presentara una clasificacion de los tipos de metodos mas significa-
tivos:
58 Capıtulo 7. Metodos de optimizacion
Metodos de busqueda aleatoria y metodos estocasticos adaptativos:
tienen sus orıgenes en investigaciones realizadas a lo largo de los anos cin-
cuenta y sesenta (Brooks, 1958; Matyas, 1965; Rastrigin y Rubinstein, 1969).
Basandose en estas investigaciones, en la ultima decada se han desarrollado
metodos mas refinados y eficientes (p. ej. Zabinsky y Smith, 1992; Banga y
Seider, 1996; Torn et al., 1999).
Metodos de agrupamiento: (clustering) derivan de los conceptos basicos de
los metodos multi-start, es decir, metodos locales que comienzan en distintos
puntos iniciales. Los metodos de agrupamiento son mas eficientes y robustos
que los multi-start ya que tratan de identificar la vecindad de los optimo locales,
e incrementan su eficiencia evitando la determinacion repetida de las mismas
soluciones locales (Torn, 1973; Rinnooy-Kan y Timmer, 1987).
Computacion evolutiva: la mayorıa de estos algoritmos fueron creados si-
guiendo ideas de la evolucion biologica pero en la practica pueden ser con-
siderados como metodos adaptativos estocasticos basados en poblaciones. Al
menos tres clases fueron desarrolladas independientemente a finales de los anos
sesenta y principios de los setenta: algoritmos geneticos (Genetic Algorithms,
GAs) (Holland, 1975; Goldberg, 1989), programacion evolutiva (Evolutionary
Programming, EP) (Fogel et al., 1966) y estrategias evolutivas (Evolution Stra-
tegies, ES) (Schwefel, 1995; Beyer, 1996; Beyer y Schwefel, 2002).
Templado simulado: (Simulated Annealing, SA) este metodo y sus variantes
fueron desarrollados originariamente para problemas combinatorios. Su base
esta en la simulacion de un cierto fenomeno natural que tiene lugar a nivel
atomico, relativo al enfriamiento de metales (Kirkpatrick et al., 1983; Laarho-
ven y Aarts, 1987).
Otros metodos inspirados en la biologıa y metaheurısticas: en los ulti-
mos anos se han presentado un gran numero de las denominadas metaheurısti-
cas, la mayor parte de ellas basadas en fenomenos biologicos o fısicos, desarro-
lladas en primera instancia para problemas combinatorios. Algunos ejemplos
son el metodo de la colonia de hormigas (Ant Colony Optimization, ACO) (Do-
rigo et al., 1996; Bonabeau et al., 2000), el metodo del enjambre de partıculas
(Particle Swarm Method) (Bonabeau et al., 1999) y el metodo de busqueda
tabu (Tabu Search, TS) desarrollado por Glover y Laguna (1997) basandose
en conceptos del campo de la Inteligencia Artificial. En este grupo se debe
tambien destacar el metodo de busqueda dispersa (Scatter Search, SS) intro-
ducido por Glover (1977) como una heurıstica para programacion entera. A
7.2. Metodos globales 59
partir de la publicacion de Glover (1998), SS ha empezado a ser utilizado por
numerosos investigadores para la resolucion de NLOs complejos obteniendo
resultados de gran calidad. Una revision de estas y otras tecnicas recientes
puede encontrarse en Corne et al. (1999) y Michalewicz y Fogel (2000) entre
otros.
En la actualidad, los tipos de metodos estocasticos mas populares son los algorit-
mos geneticos (GAs) y los de templado simulado (SA). Sin embargo, segun nuestra
propia experiencia y como muchos autores han senalado en los ultimos anos (Banga
et al., 2003; Moles et al., 2003b), los GAs y SA, disenados en primera instancia
para problemas combinatorios (con variables enteras), no son normalmente los al-
goritmos mas eficientes y robustos para la optimizacion global en variables reales.
La eleccion de un metodo para un cierto tipo de problemas de GO es complicada
y la bibliografıa al respecto esta muy fragmentada, por lo que en muchos casos la
eleccion esta basada mas en la predileccion del autor por un tipo de tecnicas que en
criterios racionales (Preux y Talbi, 1999). Aunque este continua siendo un tema de
gran debate, sin embargo, Wolpert y MacReady (1997) han demostrado a traves del
teorema “no hay comida gratis” (No Free Lunch, NFL) que no existe ningun meto-
do que pueda ser considerado mejor que los demas para la resolucion de problemas
generales de optimizacion global de estructura desconocida.
No obstante, para el caso de optimizacion global de NLOs y para el caso par-
ticular de estimacion de parametros, diferentes trabajos recientes (Balsa-Canto et
al., 1998; Moles et al., 2003a; Moles et al., 2003b) indican que ciertos metodos
estocasticos simples, en concreto el metodo Evolucion Diferencial (Differential Evo-
lution, DE) (Storn y Price, 1997) y ciertas estrategias evolutivas como la Estrategia
Evolutiva con Ranking Estocastico (Stochastic Ranking Evolution Strategy, SRES)
desarrollada por Runarsson y Yao (2000, 2005) presentan un comportamiento mejor
en terminos de eficiencia y robustez. Ademas estas estrategias escalan bien con el
tamano del problema y permiten ser paralelizados muy facilmente, lo que signifi-
ca que los problemas de mediana o gran escala podran ser resueltos en un tiempo
computacional razonable.
Por estos motivos, estos dos seran los metodos estocasticos considerados en el
presente estudio y serviran tambien de base para la creacion de metodos hıbridos
que mejoren su eficiencia manteniendo su robustez:
DE: (Differential Evolution) es un algoritmo heurıstico robusto para la optimiza-
cion global de funciones no lineales continuas y posiblemente no diferenciables
desarrollado por Storn y Price (1997). Esta basado en poblaciones y mane-
ja variables estocasticas por medio de un metodo de busqueda directa. Este
60 Capıtulo 7. Metodos de optimizacion
metodo es muy utilizado por la comunidad de computacion evolutiva y se ha
demostrado que supera a otros algoritmos populares de optimizacion global
como los de templado simulado (SA) o algoritmos geneticos (GAs).
SRES: (Stochastic Ranking Evolution Strategy) desarrollado por Runarsson y Yao
(2000, 2005), consiste en una estrategia evolutiva combinada con una aproxi-
macion denominada clasificacion estocastica (Stochastic Ranking) para equili-
brar de modo estocastico la funcion objetivo y las funciones de penalizacion.
En este algoritmo tipo (µ, λ)-ES, la funcion objetivo y las funciones de pena-
lizacion para cada individuo se emplean para clasificar los individuos de una
poblacion, y los individuos mejor clasificados (µ de λ) son seleccionados pa-
ra la siguiente generacion. Este hecho lo hace especialmente atractivo para la
resolucion de problemas con restricciones.
7.2.3. Metodos hıbridos
La idea clave de los metodos hıbridos esta en el concepto de sinergia, esto es,
union de varios elementos cuyo resultado aprovecha y maximiza las cualidades de
cada uno de ellos. Las metodologıas hıbridas han recibido un interes creciente en
los ultimos anos y se han propuesto una gran variedad de aproximaciones (ver Talbi
(2002) con referencias a casi 100 algoritmos hıbridos diferentes). Las combinaciones
de algoritmos como templado simulado (SA), algoritmos evolutivos y otras me-
taheurısticas han proporcionado metodos de busqueda eficientes y robustos dando
lugar a que los mejores resultados para muchas aplicaciones practicas fueran ob-
tenidos mediante hıbridos. Sin embargo, la hibridacion de algoritmos es una tarea
delicada en donde la eleccion de los metodos a combinar y el modo de estructurar
dicha combinacion juegan un papel clave.
Una primera clasificacion de los metodos hıbridos puede hacerse segun el tipo de
hibridacion, secuencial o paralela (Preux y Talbi, 1999):
Hibridacion secuencial
La hibridacion secuencial es aquella en la que dos o mas algoritmos son aplicados
uno despues de otro, utilizando cada uno de ellos el resultado del anterior como
punto inicial. Numerosos autores han utilizado la idea de hibridacion secuencial
dando lugar a muchos esquemas diferentes: varios metodos estocasticos combinados
entre si, un algoritmo voraz para generar una buena poblacion para un algoritmo
evolutivo, un metodo estocastico con uno determinista local, etc.
7.2. Metodos globales 61
Una caracterıstica comun de la mayorıa de los metodos estocasticos de optimi-
zacion es que presentan una velocidad de convergencia relativamente lenta, especial-
mente en la ultima etapa de la busqueda. Esto puede ocasionar tiempos de calculo
excesivos, especialmente si se requiere una gran precision en la solucion. Por el con-
trario, los metodos locales deterministas (como aquellos basados en el gradiente)
convergen muy rapido si se inicializan adecuadamente, es decir, dentro del radio de
atraccion de la solucion global. Por este motivo, los metodos que combinan de forma
secuencial un algoritmo estocastico en la primera fase y un algoritmo local basado en
gradiente en la segunda son bastante frecuentes y han demostrado ser muy eficientes
(Banga y Seider, 1996; Banga et al., 2005; Rodriguez-Fernandez et al., 2006).
El problema fundamental de la hibridacion secuencial radica en decidir cuando
parar un algoritmo e iniciar el siguiente. Una posibilidad consiste en esperar a que
la busqueda se estabilice, pero podrıa existir un punto anterior a la estabilizacion
desde el cual el siguiente algoritmo ya se encontrarıa en la zona de atraccion de la
solucion global, por lo que comenzar en ese punto serıa mas eficiente. Por otra parte,
una inicializacion demasiado temprana puede hacer que, si el segundo algoritmo es
de naturaleza local, este quede atrapado en la zona de convergencia de una solu-
cion local. Por lo tanto, una estrategia adecuada para elegir este punto de cambio
sera imprescindible para el buen funcionamiento del metodo hıbrido secuencial.
Hibridacion paralela
Dependiendo del tamano del problema a tratar, sera conveniente considerar im-
plementaciones paralelas de los metodos a utilizar. Sin embargo, se debe distinguir
entre la mera paralelizacion de un algoritmo secuencial y una implementacion de
un algoritmo paralelo. Una implementacion en paralelo de un algoritmo trata de
mantener la esencia de la busqueda secuencial mientras que los algoritmos hıbridos
paralelos son una sub-clase de algoritmos estocasticos que se comportan de modo
diferente a los secuenciales. Dentro de estos metodos se debe distinguir entre la
hibridacion paralela sincronica y asincronica.
La idea fundamental de la hibridacion paralela sincronica es la utilizacion de un
algoritmo como un operador de otro. Un ejemplo de este tipo de hibridacion serıa
emplear un algoritmo evolutivo como estrategia de busqueda principal en donde, los
tradicionales operadores matematicos utilizados en las etapas de recombinacion y/o
mutacion, son sustituidos por otro algoritmo que puede ser desde un metodo local
tradicional hasta un metodo tabu o incluso un algoritmo de templado simulado SA.
Este tipo de hibridacion se denomina hibridacion paralela sincronica porque en ella
los diferentes algoritmos estan sincronizados con precision.
62 Capıtulo 7. Metodos de optimizacion
Basicamente, el esquema de la hibridacion paralela asincronica implica varios
algoritmos realizando una busqueda en un determinado espacio o sub-espacio, y
cooperando para encontrar el optimo intercambiando informacion. Los algoritmos
que cooperan pueden ser todos identicos dando lugar a metodos homogeneos, o
diferentes, en cuyo caso el metodo resultante se denominara heterogeneo.
7.3. Desarrollo de un metodo hıbrido secuencial
En una contribucion reciente (Moles et al., 2003b), se consideraron varios meto-
dos de optimizacion global, tanto deterministas como estocasticos, para resolver un
problema de estimacion de parametros relativamente complejo, asociado a una ruta
bioquımica. Solo un cierto tipo de algoritmos estocasticos, las estrategias evolutivas
(ES), fue capaz de resolverlo satisfactoriamente. El mejor resultado fue obtenido con
el metodo SRES, aunque con un elevado tiempo de calculo.
Los algoritmos evolutivos simulan mas o menos un proceso natural. Una propie-
dad basica de estos procesos evolutivos es que la poblacion que actua en ellos se
vuelve cada vez mas uniforme, por lo que, empezando con una poblacion aleatoria,
todos sus individuos se vuelven muy parecidos despues de un cierto periodo de tiem-
po. La uniformizacion de los genotipos esta relacionada con la estabilizacion de la
aptitud media de la poblacion. Si se observa la evolucion a lo largo del tiempo de
la aptitud media de la poblacion de los algoritmos evolutivos, se ve claramente que
esta tiende a converger y que la estabilizacion es bastante rapida. De este modo, es-
tos metodos seran relativamente rapidos en encontrar la vecindad del optimo global
pero se haran especialmente lentos en la ultima fase de la busqueda si se requiere
una solucion refinada.
Por otra parte, se ha demostrado que ciertos metodos locales deterministas, como
los presentados en la seccion 7.1.3, convergen muy rapido si son inicializados desde
un punto que se encuentre dentro de la zona de atraccion de la solucion global.
En el presente estudio se ha utilizado el metodo hıbrido secuencial en dos fases
presentado en Rodriguez-Fernandez et al. (2006) para problemas de estimacion de
parametros. En la primera fase de este metodo hıbrido se utiliza un metodo global
estocastico, SRES. El metodo estocastico se interrumpe cuando se satisface un cri-
terio de parada relativamente amplio. A pesar de que este criterio no asegura una
solucion final apropiada, se elige lo suficientemente ajustado para asegurar que se
ha encontrado un punto en la vecindad de la solucion global. La segunda fase se
inicializa desde este punto y se lleva a cabo por tecnicas rapidas de estimacion de
parametros basadas en el gradiente. En este trabajo, se ha utilizado el metodo n2fb
7.3. Desarrollo de un metodo hıbrido secuencial 63
(Denis et al., 1981) con muy buenos resultados.
7.3.1. Ajuste del metodo hıbrido secuencial
Una vez que el metodo global y el local han sido seleccionados, se debe tratar la
cuestion de como estructurar su combinacion. Aquı se ha elegido una aproximacion
hıbrida secuencial de dos fases por lo que el asunto clave sera decidir la cantidad
de busqueda a realizar por cada metodo, es decir, el ajuste del hıbrido. En nues-
tra propuesta, el usuario debe especificar previamente el criterio de parada para el
metodo estocastico y para el determinista local, SC1 y SC2. El valor asignado a SC1
establece el punto de cambio entre la busqueda global y la local, y en cierto modo
controla la robustez del hıbrido, es decir, la probabilidad de convergencia a la ve-
cindad de la solucion global. Por lo tanto, este debe elegirse de modo que se asegure
que el metodo estocastico va a llegar a un punto dentro del radio de convergencia
del metodo determinista al optimo global. Por otra parte, el valor elegido para SC2
sera crucial a la hora de minimizar el tiempo de computacion final asegurando a su
vez una solucion muy cercana a la verdaderamente global. De este modo, uno debe
encontrar el mejor ajuste, es decir, un compromiso entre robustez y eficiencia.
Debe destacarse, que la eleccion de unos criterios SC1 y SC2 adecuados es de-
pendiente del problema, por lo que, en general, el ajuste del metodo hıbrido debe
realizarse para cada clase especıfica de problemas. En otras palabras, y como ocurre
con todos los metodos estocasticos en general, no hay ningun procedimiento analıti-
co a priori para derivar, en base a las caracterısticas estructurales del problema,
rangos aconsejables para los criterios de parada. Esta dependencia es especialmente
relevante en problemas con restricciones dinamicas no lineales como los considerados
en el presente trabajo. Sin embargo, esta ampliamente aceptado que los metodos es-
tocasticos, o sus hıbridos, pueden ser ajustados en base a resultados empıricos para
clases especıficas. De hecho, esta aproximacion ha dado lugar a los mejores metodos
que se conocen para muchas clases de problemas (Michalewicz y Fogel, 2000).
Basandose en la experiencia, se ha ideado una heurıstica simple para ajustar el
punto de cambio (eleccion de SC1) del metodo hıbrido. Comenzando con las curvas
de convergencia (historiales de la funcion objetivo y de los vectores de decision fren-
te al tiempo de CPU) obtenidos con algunas optimizaciones del metodo estocastico
puro, se selecciona un numero de posibles puntos de cambio, en la mayorıa de los
casos igualmente distribuidos en la escala lineal de tiempos de CPU. El metodo de
optimizacion local se inicia desde estos puntos, y se registran las curvas de con-
vergencia. En general, se va a obtener un cierto numero de puntos de cambio que
convergen a soluciones locales (normalmente los que corresponden a tiempos mas
64 Capıtulo 7. Metodos de optimizacion
tempranos), y un conjunto de puntos que convergen a la mejor solucion conocida
(o su vecindad proxima, dependiendo del valor de SC2 elegido), que sera considera-
da como la global. En general, no se tendra ningun conocimiento a priori sobre la
solucion global, por lo que esta ultima suposicion es la tıpica de cualquier esquema
que incorpore metodos estocasticos. Por supuesto, en el caso de problemas sinteti-
cos (como algunos de los considerados aquı), se esta en mejor posicion de evaluar la
eficacia del hıbrido, por que la solucion global es conocida.
De estos datos se encontrara una region de valores admisibles para SC1 que re-
presentan un compromiso entre robustez y eficiencia, en otras palabras, estos valores
aseguran la convergencia final a la vecindad proxima de la mejor solucion (robustez)
manteniendo el tiempo computacional total (global mas local) en valores razonables
(eficiencia). Ademas, es importante destacar que este proceso de ajuste preliminar
no incrementa significativamente el esfuerzo computacional total comparado con el
uso del metodo estocastico puro, ya que: (i) el metodo estocastico se para prema-
turamente y (ii) las curvas de convergencia de un metodo estocastico pueden ser
reutilizadas.
En es este punto debe recordarse que los metodos estocasticos (ver revision en
Moles et al., 2003b) pueden normalmente proporcionar muy buenas soluciones (cer-
ca de las globales), pero no proporcionan garantıas totales (o solo de modo proba-
bilıstico debil). Por lo tanto, cualquier aproximacion hıbrida que este basada en
una primera fase de busqueda global estocastica sufrira la misma limitacion basica,
incluso si el metodo de cambio es muy sofisticado (lo que, en cualquier caso, solo
puede ser considerado como una heurıstica mas refinada).
7.4. Metodo hıbrido paralelo sincronico
Con objeto de incrementar aun mas la robustez y la eficiencia computacional,
en nuestro grupo se ha implementado una nueva metaheurıstica basada en Scatter
Search (SS), conocido en castellano como busqueda dispersa (Egea et. al, 2006).
Con esta metaheurıstica combinada con varios metodos locales, se consigue una
aceleracion de mas de un orden de magnitud con respecto a los resultados previos.
Ademas este metodo elimina la delicada tarea de decidir donde colocar el punto de
cambio entre el metodo global y el local.
En una reciente revision en la que se comparan un buen numero de metodos de
optimizacion global en un conjunto de 1000 problemas de optimizacion global con
restricciones (Neumaier et al, 2005), el metodo llamado OQNLP (basado en Scatter
Search) resulto ser el mejor de todos los estocasticos. Ademas, OQNLP resolvio el
7.4. Metodo hıbrido paralelo sincronico 65
mayor porcentaje de problemas con un alto numero de variables de decision. Esta
es la justificacion para elegir e implementar un algoritmo hıbrido basado en Scatter
Search para resolver nuestros problemas de optimizacion global.
Cuando la busqueda local esta activada, Scatter Search puede definirse como un
metodo hıbrido paralelo sincronico ya que combina una busqueda global con una
intensificacion (es decir, busqueda local). El algoritmo utiliza distintas heurısticas
para elegir eficientemente puntos iniciales para la busqueda local, basadas en filtros
de merito y de distancia ası como un termino de memoria, lo que ayuda a superar
el problema del cambio de la busqueda global a la local.
Scatter Search es un metodo de poblaciones basado en formulaciones original-
mente propuestas en los anos 60 para combinar reglas de decision y problemas con
restricciones, como el metodo de restricciones subrogadas. Este fue introducido por
primera vez por Glover (1977) como una heurıstica para programacion entera. Scat-
ter Search orienta sus exploraciones sistematicamente en relacion a un conjunto de
puntos de referencia que normalmente esta compuesto por buenas soluciones obte-
nidas en anteriores esfuerzos por resolver el problema.
Es interesante observar las similitudes y las diferencias entre Scatter Search y las
propuestas originales de los algoritmos geneticos. Ambos son metodos basados en
poblaciones, o estrategias evolutivas. Ambos incorporan la idea de que un aspecto
clave para producir nuevos elementos es la generacion de alguna forma de combina-
cion de los elementos existentes. Sin embargo, los GAs se basan en la idea de elegir a
los padres aleatoriamente para producir descendencia, y ademas en introducir alea-
toriedad para determinar que componentes de los padres deben ser combinados. A
diferencia de esto, Scatter Search no enfatiza la aleatoriedad, particularmente en el
sentido de ser indiferente a la eleccion entre alternativas. En lugar de esto, SS in-
corpora respuestas estrategicas tanto deterministas como probabilısticas, que tienen
en cuenta las evaluaciones y la historia. Debido al modo en que el proceso de gene-
racion esta implementado, esta propuesta se centra en generar resultados relevantes
sin perder la habilidad de producir soluciones diversas.
En Laguna y Marti (2003) se da un esquema en cinco pasos para describir las
etapas basicas del algoritmo (ver Figura 7.3):
I.– Metodo de generacion de soluciones diversas: el algoritmo comienza
generando un conjunto inicial de soluciones diversas (alrededor de 100), del
que se extrae un subconjunto pequeno (alrededor de b = 10) que se denomi-
nara conjunto de referencia RefSet.
II.– Metodo de mejora: tıpicamente se trata de un metodo de busqueda local
66 Capıtulo 7. Metodos de optimizacion
SÍ
NO
NO
NO
SÍ
NO
SÍ SÍ
Formación del RefSet
Combinación elementos RefSet
¿Llamadamétodolocal?
¿Pasa filtros?
¿Elementos no
combinados?
¿Satisfaccióncriterio deparada?
ActualizaciónRefSet
RegeneraciónRefSet
Resultados
Cálculoresultados
método local
Generación de Soluciones Diversas
Figura 7.3: Esquema de funcionamiento de Scatter Search
para mejorar las soluciones, tanto del conjunto de referencia como las combi-
nadas antes de estudiar su inclusion en el conjunto de referencia.
III.– Metodo de actualizacion del conjunto de referencia: las soluciones del
conjunto de referencia RefSet estan ordenadas de mejor a peor con respecto
a su calidad, de modo que el acceso de otras partes del metodo sea eficiente.
Las soluciones entran a formar parte de este conjunto en funcion de criterios
de calidad y diversidad.
IV.– Metodo de generacion de subconjuntos: metodo para generar subconjun-
tos del RefSet a los que se aplicara el metodo de combinacion. Scatter Search
se basa en examinar de forma bastante exhaustiva todas las combinaciones del
RefSet y este metodo especifica la forma en que se seleccionan los subconjuntos
para aplicarles el metodo de combinacion.
7.4. Metodo hıbrido paralelo sincronico 67
V.– Metodo de combinacion de soluciones: metodo de combinacion para
transformar un subconjunto dado de soluciones producidas por el Metodo de
generacion de subconjuntos en uno o mas vectores combinados.
Las diferencias entre las distintas implementaciones de Scatter Search se basan en
el nivel de sofisticacion con el que estan implementados los pasos, no en la presencia
o ausencia de otros pasos. En nuestra implementacion, llamada SSm (Scatter Search
para Matlab), se han anadido algunas caracterısticas avanzadas:
El usuario puede elegir una distribucion logarıtmica para la generacion de so-
luciones iniciales con objeto de favorecer su presencia cerca de los lımites en
terminos de distancia euclıdea, ya que en problemas de estimacion de parame-
tros es bastante usual que el optimo global se encuentre cerca de los lımites
inferiores.
Se han anadido mecanismos para evitar zonas planas (tambien frecuentes en
problemas de estimacion de parametros) ası como otros para no quedar atra-
pado en soluciones locales pequenas.
Un nuevo metodo de combinacion permite explorar con mayor profundidad el
espacio de busqueda.
Cuando ya se han hecho todas las combinaciones entre las soluciones del Ref-
Set, el algoritmo puede parar o continuar mediante la reconstruccion parcial
del conjunto de soluciones de elite. Se ha implementado una nueva estrategia
para reconstruir este conjunto, basada en direcciones de busqueda ortogonales.
El usuario puede elegir entre un amplio numero de metodos locales SQP como
fmincon (The MathWorks Inc.), solnp (Ye, 1987), npsol (Gill et al, 1998),
snopt (Gill et al, 2002), metodos directos como NOMADm (Abramson, 2002)
para casos con datos con mucho ruido, y otros especıficamente disenados para
problemas de estimacion de parametros como n2fb/dn2fb de Dennis et al.
(1981).
Capıtulo 8
GOSBio: entorno para modelado e
identificacion
El desarrollo de modelos matematicos puede ser considerado como un ciclo y
debe comprender una serie de pasos. La omision de alguna de estas etapas pue-
de dar lugar a modelos erroneos o de baja capacidad predictiva. Por este motivo,
en el presente estudio se ha acoplado el uso de metodos de optimizacion global
para la estimacion de parametros y el diseno optimo de experimentos con otros
procedimientos computacionales para analizar la identificabilidad y otras medidas
asociadas. Todas estas tareas fueron implementadas en Matlab (The Mathworks
Inc.) creando pasarelas adecuadas para llamar a codigos Fortran externos cuando
resulto necesario. Estos codigos Fortran fueron implementados como librerıas de en-
lace dinamicas (dynamic link libraries, .dll) dando lugar a un entorno integrado,
denominado GOSBio (Global Optimization for Systems Biology), capaz de llevar a
cabo la estimacion robusta de parametros, el analisis de identificabilidad y el di-
seno optimo de experimentos dinamicos (Rodriguez-Fernandez y Balsa-Canto, 2006;
Balsa-Canto y Rodriguez-Fernandez, 2006).
Para utilizar estas herramientas, el usuario tiene que especificar el modelo y
otros datos (por ejemplo, los valores iniciales de los estados, los tiempos a los que
se efectuan las medidas o las variables manipulables en el OED) en un fichero de
entrada.
GOSBio llevara a cabo entonces la estimacion de parametros y/o el diseno optimo
de experimentos evaluando a su vez la identificabilidad y otras medidas del modo
que se detalla a continuacion.
Los resultados, ademas de presentarse por pantalla en tiempo real, se guardan
en un fichero de datos de salida y en una serie de ficheros graficos.
69
70 Capıtulo 8. GOSBio: entorno para modelado e identificacion
8.1. Descripcion de la metodologıa
Las principales etapas del entorno GOSBio pueden esquematizarse del siguiente
modo (ver Figura 8.1):
Modelopropuesto
Modeloadecuado
Cálculosensibilidades
Estimaciónparámetros
Ránkingparámetros
Análisis identificabilidadteórica
Diseñoexperimentos
CómputoFIM
Análisis identificabilidadpráctica
Cálculo intervalosde confianza
Validación delmodelo
Modelo noadecuado
Obtención datosexperimentales
Modificar modelo
NOSÍ
NO
NO
SÍ
SÍ
Figura 8.1: Esquema de GOSBio
Paso 1: Calculo de las sensibilidades parametricas (derivadas parciales de los esta-
dos con respecto a los parametros) para un valor dado del conjunto de parame-
tros. En el caso de problemas sinteticos (aquellos en los que los datos son
pseudo-experimentales calculados mediante simulacion) las sensibilidades se
calcularan para los valores nominales. Sin embargo, en el caso de datos reales,
cuando este paso se realiza previo a cualquier estimacion de parametros, se
emplearan los valores de los parametros disponibles en la bibliografıa u otras
fuentes. De no disponer de ninguna informacion previa sobre el valor de los
parametros, se considerara el punto medio entre los lımites definidos para la
estimacion.
Paso 2: Computo de las sensibilidades relativas a partir de las sensibilidades abso-
lutas obtenidas en el paso anterior y del valor de los estados obtenido mediante
simulacion. Empleando las sensibilidades relativas se procede al calculo del va-
lor de los cinco criterios δmsqr, δmabs, δmean, δmax y δmin explicados en la seccion
3.3 y a la clasificacion de los parametros en orden decreciente de δmsqr dando
lugar a un ranking de importancia.
8.1. Descripcion de la metodologıa 71
Paso 3: Analisis de la identificabilidad a priori local mediante la construccion de la
matriz de correlacion a priori y eliminacion de los parametros no identificables
y/o redundantes a partir de la informacion proporcionada por este analisis y
el ranking de parametros.
Dado que esta eliminacion de parametros no identificables esta basada en un
analisis local (para un valor concreto de los parametros) este paso debe realizar-
se iterativamente. El analisis de identificabilidad local para distintos conjuntos
de parametros puede dar lugar a conclusiones diferentes sobre la identificabi-
lidad de los mismos. Por ello, una vez realizada la estimacion, debe volverse al
Paso 1 para calcular las sensibilidades para los nuevos valores incluyendo de
nuevo los parametros descartados en etapas anteriores.
Paso 4: Estimacion de los parametros mediante metodos de optimizacion global a
partir de los datos experimentales disponibles. Los metodos empleados permi-
ten manejar con robustez medidas con ruido y observaciones parciales.
Paso 5: Computo de las sensibilidades parametricas para los valores obtenidos de
la estimacion de modo analogo al paso 1 y construccion de la matriz de infor-
macion de Fisher (FIM), la matriz de covarianza y la de correlacion.
Paso 6: Calculo del numero de condicion (rcond) de la FIM para determinar si
esta es singular en cuyo caso el modelo se considera practicamente no identi-
ficable debido probablemente a experimentos no informativos (asumiendo que
el modelo es estructuralmente identificable e identificable a priori).
Paso 7: Analisis de las posibles correlaciones entre pares de parametros mediante
la matriz de correlacion.
Paso 8: Computo de los intervalos de confianza del 95 % a partir de la FIM y
mediante el metodo de Monte Carlo ofreciendo una medida objetiva sobre la
precision de los parametros estimados.
Paso 9: Validacion del modelo: a pesar de que no existe ningun metodo que pueda
garantizar la validez de un modelo con total certeza, es necesario investigar el
comportamiento del mismo de modo que, si supera todas las pruebas de invali-
dacion a las que es sometido, se pueda considerar satisfactorio. Este programa
permite realizar distintas pruebas de invalidacion:
observacion de las graficas correspondientes al ajuste de las predicciones
del modelo con respecto a los datos experimentales
72 Capıtulo 8. GOSBio: entorno para modelado e identificacion
metodos estadısticos basados en los errores de prediccion (los residuos
deben tener media cero, estar distribuidos de forma simetrica y ser inde-
pendientes del tiempo y de las entradas)
estudio del comportamiento del modelo con conjuntos de datos indepen-
dientes (datos no empleados para la calibracion)
analisis de la precision de los parametros estimados mediante los interva-
los de confianza
Paso 10: Diseno optimo de nuevos experimentos dinamicos mediante metodos de
optimizacion global con objeto de mejorar la identificabilidad y la precision
de los parametros estimados. El programa permite al usuario elegir la funcion
escalar de la matriz de informacion de Fisher que desea emplear como funcion
objetivo (criterio A, A-Modificado, D, E o E-modificado).
8.2. Fichero de entrada
El fichero de entrada contiene toda la informacion necesaria para llevar a cabo la
estimacion de parametros y/o el diseno optimo de experimentos. En el Apendice A
se da un ejemplo de un fichero de entrada que debe contener la siguiente informacion:
8.2.1. Modelo matematico
El sistema de ODEs o DAEs que describe el modelo debe proporcionarse en
alguna de estas formas:
1. Fichero Fortran de nombre fcn.f con la siguiente estructura:
SUBROUTINE FCN(N,X,Y,YDOT,PAR,IPAR,U)
IMPLICIT DOUBLE PRECISION (A-H,O-Z)
DIMENSION Y(N),YDOT(N),PAR(*),IPAR(*),U(*)
YDOT=F(...) OR M*YDOT=F(...)
RETURN
END
Los sistemas de ODEs se resolveran mediante los integradores rkf45 (Sham-
pine et al., 1976) o radau5 (Hairer y Wanner, 1996) y los de DAEs mediante
radau5.
2. Fichero Matlab, fcn.m, de estructura:
function yteor = fcn(t,y,par)
8.2. Fichero de entrada 73
El sistema se resolvera mediante el integrador de Matlab ode15s.m.
3. Vector problem input.ydot, tipo caracter, incluyendo las ecuaciones. A par-
tir de este vector el programa generara un fichero Fortran y el sistema se
resolvera mediante los integradores rkf45 o radau5.
8.2.2. Datos de entrada
problem input.n states: numero de variables de estado.
problem input.y0: vector de condiciones iniciales.
problem input.sens0: matriz de valores iniciales de las sensibilidades. Esta
matriz sera cero a menos que la condicion inicial para un estado en particular
dependa de un parametro.
problem input.n par: numero de parametros del modelo.
problem input.par: valores nominales de los parametros.
problem input.n theta par: numero de parametros a estimar.
problem input.index theta par: ındice de los parametros a estimar.
problem input.n exp: numero de experimentos.
problem input.n theta y0: numero de condiciones iniciales a estimar.
problem input.index theta y0: ındice de las condiciones iniciales a estimar.
problem input.n obs: numero de variables medidas.
problem input.ms: vector de estados medidos o funciones de observacion.
problem input.n m: numero de medidas por experimento.
problem input.t m: vector de tiempos de las medidas.
problem input.measurement type: tipo de medidas.
- real: el usuario debe proporcionar los datos experimentales
- sim: el codigo generara datos pseudo-experimentales
problem input.exp data: datos experimentales.
problem input.rel error: error relativo anadido a los datos simulados.
74 Capıtulo 8. GOSBio: entorno para modelado e identificacion
problem input.noise type: tipo de error de los datos pseudo-experimentales.
- 0: exp data = yteor*(1+rel error*rand)
- 1: exp data = yteor+rel error*rand
problem input.fobj type:
Para estimacion de parametros:
- 0: mınimos cuadrados sin normalizacion
- 1: normalizacion con max(exp data)
Para diseno optimo de experimentos:
- A optimality = trace(inv(FIM))
- A modified = -trace(FIM)
- D optimality = -det(FIM)
- E optimality = max(abs(eig(inv(FIM))))
- E modified = max(abs(eig(FIM)))/min(abs(eig(FIM)))
problem input.n u: numero de variables de control.
problem input.n con: numero de escalones de control.
problem input.u: valor de las variables de control.
problem input.t con: vector de tiempos para los cambios en el control.
ivp solver.name: nombre del integrador.
- ode15s: integrador de Matlab para ODEs y DAEs
- radau5: integrador Runge-Kutta en Fortran adecuado para DAEs
- rkf45: integrador Runge-Kutta-Fehlberg en Fortran para ODEs
ivp solver.sens: metodo de calculo de las sensibilidades parametricas.
- ODESSA: metodo BDF implementado en Fortran
- finite differences: metodo de diferencias finitas
opt solver.name:
- DE: Differential Evolution
- SRES: Stochastic Ranking Evolutionary Search
8.3. Ficheros de salida 75
- SSm: Scatter Search para Matlab 2.5
- only local: metodo local a elegir entre clssolve, fmincon, n2fb, dn2fb,
NOMADm, npsol, snopt y solnp
- multistart: multi-start de cualquiera de los metodos locales
- simulate: realiza solo la simulacion
opt solver.par guess/par min/par max: valores iniciales y lımites inferiores
y superiores para los parametros a estimar.
opt solver.y0 guess/y0 min/y0 max: valores iniciales y lımites inferiores y
superiores para las condiciones iniciales a estimar.
opt solver.u guess/u min/u max: valores iniciales y lımites inferiores y su-
periores para los controles en OED.
opt solver.t f/tf min/tf max: valor inicial y lımite inferior y superior para
el tiempo final en OED.
results.folder: nombre de la carpeta donde se guardaran los resultados.
results.report: nombre del fichero del informe de resultados.
8.3. Ficheros de salida
8.3.1. Datos
El programa GOSBio genera un fichero de texto con los datos mas relevantes y
una estructura de datos de Matlab (.mat) con todas las entradas proporcionadas
por el usuario y todos los resultados obtenidos. Estos dos archivos se guardan en la
carpeta results.folder.
8.3.2. Figuras
Ademas se generan una serie de figuras que se detallan a continuacion. Estas se
muestran en pantalla y son posteriormente almacenadas en la carpeta de resultados
como figuras de Matlab (.fig) y en formato PostScript encapsulado (.eps).
ranking parameters: representacion en el eje de ordenadas del valor de los
cinco criterios relativos al ranking de parametros. En el eje de abscisas se
representan los parametros ordenados por orden decreciente de δmsqr.
76 Capıtulo 8. GOSBio: entorno para modelado e identificacion
correlation a priori: representacion de la matriz de correlacion a priori.
Para facilitar su visualizacion, esta matriz se representa en una cuadrıcula
donde el color de cada celda viene dado por el valor de cada uno de los ele-
mentos de la matriz. El color rojo corresponde a 1, el azul a -1 y el verde a 0
mientras que los valores intermedios se representaran por distintas tonalidades
de estos colores. Una barra representando la escala de colores adjunta a cada
grafica facilita la identificacion del valor correspondiente a cada color.
fit plot: representacion de los valores predichos por el modelo para cada
uno de los estados medidos (linea continua) y de los datos experimentales
correspondientes (marcador) a lo largo del tiempo.
residuals plot: representacion de los residuos (diferencia entre los valores
predichos por el modelo y los datos experimentales) en funcion del tiempo.
convergence curve PE: curva de convergencia (valor de la funcion objetivo en
funcion del tiempo) para el metodo de optimizacion elegido para la estimacion
de parametros.
convergence curve OED: curva de convergencia (valor de la funcion objetivo
en funcion del tiempo) para el metodo de optimizacion elegido para el OED.
histogram: histograma de frecuencia de las soluciones para el modo multi-
start.
correlation a posteriori: representacion de la matriz de correlacion a pos-
teriori de forma analoga a la matriz de correlacion a priori.
experiment profile: representacion de los experimentos dinamicos disenados
mediante OED (tiempos de medida y variacion de los controles a lo largo del
tiempo).
confidence plots: representacion de los intervalos de confianza obtenidos
mediante el metodo de Monte Carlo.
least sq plots: representacion de las lıneas de contorno de la funcion objetivo
en el plano parametrico.
Este programa puede ser empleado para la identificacion de un amplio rango
de modelos no lineales. En el presente estudio, su potencial se ilustra mediante la
resolucion de una serie de problemas de la ingenierıa de bioprocesos. Los resultados
obtenidos se muestran en los siguientes capıtulos. Todos los calculos fueron realizados
en un PC/Pentium 4 (1.80 GHz) bajo Windows 2000 y Matlab 6.5.
Parte III
Aplicaciones
Capıtulo 9
Secado de alimentos
9.1. Introduccion
La creciente demanda de los consumidores con respecto a la calidad de los ali-
mentos y el endurecimiento de las normas de seguridad, han motivado el desarrollo
de metodos de computacion basados en modelos para la simulacion, la optimizacion
y el control de tecnicas para su procesamiento (Datta, 1998; Banga et al., 2003).
El modelado de secado por aire de alimentos ha recibido una gran atencion
durante las ultimas decadas ya que es uno de los metodos de preservacion mas
importantes. Los primeros modelos matematicos simples de este proceso aparecieron
a finales de los anos 70. El desarrollo de nuevas tecnicas numericas y el incremento
de las capacidades computacionales han permitido el aumento de la complejidad
de modelos posteriores. Muchos autores han revisado los distintos avances, ver p.ej.
Bruin y Luyben (1980), Jayaraman y Das Gupta (1992) o Waananen et al. (1993) o,
mas recientemente, Ruiz-Lopez et al. (2004) en el contexto de modelado de procesos
y Banga y Singh (1994) y los trabajos allı citados, en el contexto de optimizacion.
La combinacion de las leyes fısicas de transferencia de masa y de energıa con las
propiedades fısicas del producto alimentario, permiten la prediccion de la variacion
a lo largo del tiempo de las variables de estado relevantes (contenido de humedad y
temperatura), sujetas a diferentes condiciones de secado. Aunque los modelos mas
simples asumen que la contraccion del alimento durante el proceso es despreciable y
que las propiedades de transporte son constantes, se ha ilustrado experimentalmente
que estas suposiciones no son realistas (Balaban, 1989; Park, 1998; Simal et al., 1998)
y que, por lo tanto, cualquier modelo riguroso deberıa considerar estos efectos (ver
una revison mas extensa en Mayor y Sereno (2004)).
En la bibliografıa se han propuesto muchos modelos (la mayorıa empıricos) para
diferentes tipos de alimentos. La mayor parte de ellos son muy no lineales, frecuen-
79
80 Capıtulo 9. Secado de alimentos
temente exponencialmente no lineales, con respecto al contenido de humedad y a
la temperatura y dependen de varios parametros. Por otro lado, normalmente se
asume que las propiedades de transporte varıan linealmente con la temperatura y
que dependen tambien de uno o dos parametros. Notese que estos parametros no
son medibles directamente por lo que deben ser estimados mediante la resolucion de
un problema de estimacion (calibracion del modelo).
En este capıtulo se considero el analisis de identificabilidad y el problema de
estimacion de parametros en modelos de secado. Como se ha explicado en la parte
correspondiente a Metodologıa, dada la estructura de un modelo para un produc-
to alimentario en particular y un conjunto de datos experimentales, el objetivo de
la estimacion de parametros es calibrar el modelo de modo que reproduzca los re-
sultados experimentales de la mejor forma posible. Aunque aparentemente simple,
la calibracion de modelos no lineales es normalmente una tarea compleja debido a
numerosas razones, entre las que destacan la presencia de problemas de no identifi-
cabilidad (es decir, la imposibilidad de encontrar una solucion unica para todos los
parametros) y la existencia de soluciones sub-optimas y valles muy estrechos o muy
planos donde es muy difıcil progresar hacia la solucion (Rodriguez-Fernandez et al.,
2006; Schittkowski, 2002).
El caracter no lineal de los modelos considerados, tanto con respecto a los
parametros como a los estados, da lugar a menudo a este tipo de dificultades.
En Rodriguez-Fernandez et al. (2004), se considero el problema de estimacion de
parametros en modelos de transferencia de masa y energıa para el procesamiento de
alimentos, ilustrando la necesidad de metodos de optimizacion globales con objeto
de evitar las soluciones espureas encontradas a menudo por los metodos tradicionales
basados en gradiente. Ademas, este estudio revelo la presencia de problemas de iden-
tificabilidad en el modelo considerado que no habıan sido presentados anteriormente.
Por lo tanto, en este capıtulo se propone una aproximacion para la identificacion en
dos pasos que permitira evitar estas dificultades. El primer paso consiste en analizar
la identificabilidad estructural del modelo y el segundo en resolver el problema de
estimacion de parametros utilizando metodos de optimizacion global.
El analisis de identificabilidad estructural se realizo utilizando la llamada apro-
ximacion de Taylor (ver seccion 4.1). El analisis de la funcion de mınimos cuadrados
revelo tambien la presencia de soluciones locales proporcionando una clara motiva-
cion para el empleo de tecnicas de optimizacion global.
9.2. Modelo matematico 81
9.2. Modelo matematico
Como ejemplo de un modelo de secado de complejidad media, se considero el
secado por aire de una lamina compuesta por agua y celulosa en una bandeja de
secado (ver Figura 9.1). No obstante, los metodos empleados tambien pueden ser
aplicados a modelos de mayor complejidad. La formulacion matematica del modelo
dinamico, en la que estan implicados dos fenomenos acoplados de transferencia de
masa y energıa, fue tomada de Banga y Singh (1994) y se resume a continuacion.
corriente de aire
Tdb
Ts , m
L1 = 3.4 cm
L2 = 3.5 cm
L3 = 0.2 cm
Figura 9.1: Secado por aire de una lamina de celulosa
9.2.1. Transferencia de masa
Se asume que el transporte de agua dentro del solido es el mecanismo de control
y que la fuerza conductora es el gradiente del contenido de humedad. Por lo tanto,
la ecuacion de gobierno sera la ley de Fick para la difusion (segunda ley de Fick):
dm
dt= ∇ (D∇m) (9.1)
Debido al pequeno grosor de la lamina en comparacion con las otras dimensiones,
esta puede ser considerada como un sistema semi-infinito en donde el contenido de
humedad depende solo de la posicion con respecto a la dimension menor. Ademas,
con objeto de tener en cuenta el efecto de la contraccion, se asume que la difusividad
D es una funcion no lineal de ambos, el contenido de humedad y la temperatura,
por lo que la ecuacion (9.1) resulta:
dm
dt= D
(∂2m
∂x2
)+
∂D
∂m
(∂m
∂x
)2
(9.2)
82 Capıtulo 9. Secado de alimentos
con el valor de la difusividad calculado segun Luyben, Liou, y Bruin (1982):
D = Drefexp
[−ED
R
(1
Ts
− 1
Tref
)](9.3)
donde Dref y ED son funciones del contenido de humedad:
Dref = exp
(−b1 + b2m
1 + b3m
)(9.4)
ED =
(b4 + b5m
1 + b6m
)(9.5)
El contenido medio de humedad de la lamina se calcula utilizando:
mavg =1
L
∫ L
0
m(x)dx (9.6)
ms =ρ0L1L2L3
mavg,0 + 1(9.7)
9.2.2. Transferencia de energıa
Se asume que la temperatura de la lamina es uniforme. Por lo tanto, un balance
de energıa resulta (suposicion de lamina fina):
(msCps + msmavgCpw)dTs
dt= hA (Tdb − Ts) + msλw
(dmavg
dt
)(9.8)
donde el calor latente de vaporizacion λw depende de la temperatura:
λw = α1 − α2Ts (9.9)
El coeficiente de transferencia de calor y el area de la superficie son variables
durante el secado, por lo que hA se estima utilizando una funcion lineal empırica de
la humedad:
hA = A0 (p1mavg + p2) (9.10)
donde:
A0 = 2 (L1L2 + L1L3 + L2L3) (9.11)
El problema tıpico de calibracion consistirıa en calcular los parametros relaciona-
dos con la contraccion y la transferencia de energıa, en nuestro caso bi y pi, basandose
en medidas experimentales del contenido medio de humedad de la lamina mavg y
9.3. Analisis de identificabilidad estructural 83
de su temperatura Ts a lo largo del tiempo para un conjunto de condiciones experi-
mentales dadas. El resto de los parametros estan disponibles en manuales estandar
(p.ej. aquellos para la vaporizacion de agua).
En un estudio preliminar (Rodriguez-Fernandez et al., 2004), este problema fue
resuelto utilizando metodos de optimizacion global obteniendo varias soluciones (di-
ferentes valores para los parametros), todas ellas capaces de ajustar adecuadamente
los datos experimentales. El hecho de que estas soluciones sean equivalentes y ob-
tenidas utilizando tecnicas de optimizacion global permite concluir que no son el
resultado de la convergencia a soluciones locales sino un claro signo de la falta de
identificabilidad del modelo.
9.3. Analisis de identificabilidad estructural
Con objeto de estudiar la identificabilidad estructural del modelo considerado,
se aplico el metodo de series de Taylor detallado en la seccion 4.1. Para ello, la
ecuacion diferencial parcial (9.2) se transformo primero en un conjunto de ecuaciones
diferenciales ordinarias (ODEs) utilizando el metodo numerico de las lıneas (NMOL)
(Schiesser, 1991) que consiste en la discretizacion del dominio espacial. El secado
por aire de alimentos se describe entonces por:
m1 = 0 (9.12)
mi = Di
(mi−1 − 2mi + mi+1
2dx
)+
(Di+1 −Di−1
2dx
)(mi+1 −mi−1
2dx
)(9.13)
mnx = Dnx
(mnx−1 −mnx
dx
)(9.14)
mavg =1
L
nx∑i=1
mi (9.15)
Ts =
(1
msCps + msCpwmavg
)(A0 (p1mavg + p2) (Tdb − Ts) (9.16)
+ms (α1 − α2Ts) mavg)
donde mi representa el contenido local de humedad en el punto xi = (nx− i) dx, de
modo que x1 = L y Di = D (mi); nx es el nivel de discretizacion y dx = L/ (nx− 1).
A continuacion, la aproximacion de Taylor, implementada en un software de
manipulacion simbolica (MATHEMATICATM), fue aplicada a las trayectorias de
las medidas en las ecuaciones (9.15-9.16) y se obtuvieron los siguientes coeficientes:
84 Capıtulo 9. Secado de alimentos
a01 = mavg,0
a02 = Ts,0
a11 = −1
2dxDm,0m0 +
1
4dx2 (Dm,0 −Dm1,0) m0
a12 =λw,0a11
Cps + Cpwa01
+A0 (a01p1 + p2) (Tdb,0 − a02)
(Cps + Cpwa01) ms
a21 =dx2m0a12 (ED,0 − b4Dm1,0)
4Ra202
− Dm,0dx
2
(a11
(1− m0 (b2 + b3log (Dref,0))
1 + b3m0
+m0 (−b5 + b6ED,0) (log (Dref,0)− log (Dm,0))
ED,0 (1 + b6m0)
)+
m0ED,0a12
Ra202
)
a22 =A0 (a01p1 + p2)
(Tdb,0 − a12
)+ A0p1a11 (Tdb,0 − a02) + msa21λw,0
(Cps + Cpwa01) ms
+a11
(−a12 (α1 + Cpw)− 12dxDm,0λw,0
)
Cps + Cpwa01
donde el sub-ındice “,0” se refiere al valor de la magnitud en t = 0, tal que Dm,0 =
D (m0) y Dm1,0 = D (m1 (t = 0)).
La complejidad del sistema hace imposible el estudio de la identificabilidad es-
tructural global de todo el conjunto de parametros p = [b1 b2 b3 b4 b5 b6 p1 p2]T . Sin
embargo, el primer coeficiente de Taylor permite extraer algunas conclusiones sobre
la identificabilidad estructural local para algunos subconjuntos:
i. Fijando todos los bi y utilizando a12 y a21 se puede obtener una solucion
unica para los parametros relacionados con la transferencia de energıa, p1 y
p2, siempre que Tdb,0 sea diferente de Ts,0.
Por lo tanto pk = [p1 p2]T son s.l.i.
ii. Para algunas parejas pk = [bi bj]T y pk = [pi bj]
T tambien es posible conseguir
una solucion unica, siendo tambien s.l.i., pero no para todas ellas. A modo
ilustrativo, las Figuras 9.2 y 9.3 muestran las lıneas de contorno correspon-
dientes a la funcion de mınimos cuadrados empleando un unico experimento
“perfecto” con Tdb constante para la estimacion de b3b6 y p1b3. Las graficas
confirman lo que predice la aproximacion de Taylor: es posible estimar b3 con
gran precision pero es imposible estimar b6 o p1. Notese que utilizando un di-
seno de experimentos adecuado puede mejorarse la identificabilidad de estos
parametros.
9.3. Analisis de identificabilidad estructural 85
6.4 6.5 6.6 6.7 6.8 6.9 7 7.1
4
6
8
10
12
14
16
18
b3
b 6
Figura 9.2: Lıneas de contorno para
los parametros b3 y b6
8.71 8.715 8.72 8.725 8.73 8.735 8.74 8.745 8.75
x 10−4
6.725
6.73
6.735
6.74
6.745
6.75
6.755
p1
b 3
Figura 9.3: Lıneas de contorno para
los parametros p1 y b3
iii. Las condiciones suficientes (ecuacion 4.6) aplicadas a a22 revelan que algunos
conjuntos de cuatro parametros son s.l.i. A modo ilustrativo, aquı se consi-
dero el caso pk = [b1 b4 p1 p2]T .
De la ecuacion a22 ([b1b4p1p2]) = a22
([b1b4p1p2
])se concluye que:
p1 = p1 (9.17)
a01p1 + p2 = a01p1 + p2 (9.18)
−b1 + b4
(− 1
RTs,0
+1
RTref
)= −b1 + b4
(− 1
RTs,0
+1
RTref
)(9.19)
− b1
1 + b3m0
+b4
1 + b6m0
(1
RTs,0
+1
RTref
)= − b1
1 + b3m0
(9.20)
+b4
1 + b6m0
(− 1
RTs,0
+1
RTref
)
y estas ecuaciones son simultaneamente ciertas solo en el caso de que:
[b1b4p1p2] =[b1b4p1p2
]
Las Figuras 9.4 y 9.5 muestran las lıneas de contorno correspondientes a la
funcion de mınimos cuadrados utilizando un unico experimento “perfecto” con Tdb
constante para la estimacion de b1b4 y p1p2. Notese que aunque la identificabilidad
estructural esta garantizada, aparecen varias soluciones suboptimas, demostrando
la necesidad de emplear tecnicas de optimizacion global a la hora de afrontar la
resolucion del problema de estimacion de parametros.
86 Capıtulo 9. Secado de alimentos
8.71 8.715 8.72 8.725 8.73 8.735 8.74 8.745 8.75
x 10−4
0.01866
0.01867
0.01868
0.01869
0.01870
0.01871
0.01872
0.01873
0.01874
p1
p 2
Figura 9.4: Lıneas de contorno para
los parametros p1 y p2
34.12 34.14 34.16 34.18 34.2 34.22 34.24 34.26 34.2899.75
99.8
99.85
99.9
99.95
100
100.05
100.1
100.15
100.2
100.25
b1
b 4
Figura 9.5: Lıneas de contorno para
los parametros b1 y b4
9.4. Ranking de parametros
Mediante la evaluacion de la sensibilidad de los estados medidos con respecto
a los parametros para sus valores nominales tambien se pueden extraer algunas
conclusiones de como estos van a afectar a las predicciones del modelo y establecer
un ranking de los mismos. En la Tabla 9.1 se muestra el valor de los criterios descritos
en la seccion 3.3 para los ocho parametros del modelo. Los parametros aparecen en
orden decreciente con respecto al criterio δmsqr y se representan en la Figura 9.6.
b3 b2 b1 b6 p2 b4 b5 p1−4
−3
−2
−1
0
1
2
3
4
Parámetros
Val
or d
el c
riter
io
dmsqr
dmabs
dmean
dmax
dmin
Figura 9.6: Parametros ordenados por orden decreciente de δmsqr
9.5. Estimacion de parametros 87
Parametro Valor nominal δmsqr δmabs δmean δmax δmin
b3 6.74e+0 8.52e-1 1.42e+0 -1.37e+0 1.26e-1 -3.24e+0
b2 1.38e+2 7.30e-1 1.23e+0 1.17e+0 2.73e+0 -1.20e-1
b1 3.42e+1 4.31e-1 6.73e-1 6.70e-1 1.91e+0 -9.28e-3
b6 1.00e+2 4.34e-2 5.60e-2 5.42e-2 1.73e-1 -2.34e-2
p2 1.87e-2 3.97e-2 7.76e-2 5.92e-3 2.15e-1 -9.14e-2
b4 1.00e+2 3.49e-2 4.21e-2 -4.13e-2 1.14e-2 -1.48e-1
b5 2.00e+2 2.29e-2 3.05e-2 -2.91e-2 1.54e-2 -8.70e-2
p1 8.73e-4 1.29e-3 2.36e-3 1.62e-4 8.62e-3 -2.92e-3
Tabla 9.1: Valores para el ranking de parametros
Estos resultados reflejan grandes diferencias en los valores de δmsqr para los
distintos parametros lo que indica que la salida del modelo es considerablemente
sensible a algunos de ellos y muy poco sensible a otros. Ası se ve, por ejemplo, que
el parametro ante el cual el modelo presenta una mayor sensibilidad es b3 y el de
menor influencia es p1. Las lıneas de contorno representadas en la Figura 9.3 tambien
apuntan en esta direccion mostrando como un cambio en el valor de b3 produce una
gran variacion en el valor de la funcion objetivo mientras que un cambio en p1
produce un efecto mucho menor.
Las pequenas diferencias entre δmsqr y δmabs, indican que no existe una gran va-
riabilidad en las sensibilidades (Sj) ni valores alejados (outliers). Una comparacion
de δmax y δmin indica que todos los parametros presentan sensibilidades tanto posi-
tivas como negativas siendo el efecto global negativo para tres de los parametros y
positivo para los demas, como puede verse por el signo de δmean.
9.5. Estimacion de parametros
Para este problema se considero como funcion de coste la funcion de mınimos
cuadrados:
J(p) =5∑
i=1
2∑j=1
13∑
k=1
wij (zijk − zijk(p))2 (9.21)
donde wij corresponde a los diferentes pesos considerados con objeto de normalizar
la contribucion de cada termino:
wij = (1/max (zijk))2 (9.22)
88 Capıtulo 9. Secado de alimentos
Esta normalizacion se hace especialmente necesaria en problemas donde las va-
riables medidas tienen valores de diferente orden de magnitud como sucede en el
caso que nos ocupa.
Para poder evaluar los metodos considerados mediante una medida objetiva de
la calidad de la solucion, se emplearon datos pseudo-experimentales. Las medidas
correspondientes al contenido de humedad medio de la lamina mavg y a su tempe-
ratura Ts a lo largo del tiempo, fueron generadas mediante simulacion considerando
los parametros publicados por Luyben et al. (1982) como los valores verdaderos
(ver Tabla 9.2 para examinar el valor nominal y los lımites de cada parametro).
Se realizo un conjunto de cinco experimentos (simulaciones) con diferentes valores
constantes para la temperatura de bulbo seco, Tdb (55, 65, 75, 85 y 100 o¯C).
Parametro Valor nominal Lımite inferior Lımite superior
p1 8.73e-4 1.00e-4 1.00e+0
p2 1.87e-2 1.00e-4 1.00e+0
b1 3.42e+1 1.00e+0 1.00e+3
b2 1.38e+2 1.00e+0 1.00e+3
b3 6.74e+0 1.00e+0 1.00e+3
b4 1.00e+2 1.00e+0 1.00e+3
b5 2.00e+2 1.00e+0 1.00e+3
b6 1.00e+1 1.00e+0 1.00e+3
Tabla 9.2: Valores nominales y lımites para los 8 parametros
9.5.1. Caso 1
Con objeto de ilustrar los problemas revelados por el analisis de identificabilidad
estructural, se intento estimar todos los parametros relacionados con la contraccion
y la transferencia de energıa a la vez, p = [b1 b2 b3 b4 b5 b6 p1 p2]T , asumiendo ausen-
cia de error en los datos pseudo-experimentales. Para este caso, incluso utilizando
metodos de optimizacion global, se encontraron distintos conjuntos de parametros
con capacidades predictivas equivalentes (p.ej., soluciones I y II en la Tabla 9.3). Sin
embargo, solo una (o ninguna) de estas soluciones serıa capaz de predecir el com-
portamiento del proceso en condiciones experimentales diferentes lo cual confirma
la no identificabilidad estructural revelada por la aproximacion de Taylor.
9.5. Estimacion de parametros 89
Parametro Solucion I Solucion II
p1 4.89e-3 3.04e-2
p2 1.45e-2 4.92e-4
b1 5.49e+2 5.99e+1
b2 9.85e+2 5.79e+2
b3 7.13e+1 2.85e+1
b4 9.96e+2 6.47e+2
b5 9.93e+2 9.88e+2
b6 1.24e+1 8.51e+2
Tabla 9.3: Soluciones para el caso 1 correspondientes a J=0.33 y J=0.31
9.5.2. Caso 2
Aquı se considero el problema de estimacion del conjunto pk = [b1 b4 p1 p2]T
que, como se ha demostrado, es estructuralmente identificable y multimodal. Para
acercarse mas a las condiciones experimentales reales, se considero un error relativo
gaussiano de un 5% en las medidas pseudo-experimentales.
Con objeto de enfatizar la necesidad de metodos globales de optimizacion, en
primer lugar se intento resolver el problema utilizando un metodo de optimizacion
local de tipo SQP (solnp) en modo multi-start. El histograma de la Figura 9.7
representa la frecuencia de las soluciones mostrando que la mayorıa de ellas estan
lejos del optimo global (soluciones locales).
0 0.5 1 1.5 2 2.5 3
x 104
0
5
10
15
20
25
30
35
40
Función Objetivo
Fre
cuen
cia
Figura 9.7: Frecuencia de las soluciones de un SQP en modo multi-start
90 Capıtulo 9. Secado de alimentos
Por otra parte, el uso de metodos globales (SRES, DE y SSm) dio lugar solucio-
nes optimas globales siendo el valor del vector de parametros encontrado proximo
al vector nominal. El algoritmo SSm convergio casi dos ordenes de magnitud mas
rapido que los demas como se ilustra en la Figura 9.8 con las curvas de convergencia
(evolucion del valor de la funcion objetivo con respecto al tiempo de computacion).
0 500 1000 1500 2000 2500
102
103
104
Tiempo CPU (s)
Fun
ción
obj
etiv
o
DESRESSSm
Figura 9.8: Curvas de convergencia de SRES, DE y SSm
Las Figuras 9.9 y 9.10 muestran una comparacion entre los valores predichos a
partir del mejor vector de decision y los datos pseudo-experimentales correspondien-
tes a la temperatura de la lamina (Ts) y al contenido medio de humedad (mavg).
Los parametros estimados mediante los metodos de optimizacion global permiten
reproducir adecuadamente los datos pseudo-experimentales.
0 1000 2000 3000 4000 5000 6000 700030
40
50
60
70
80
90
100
Tiempo (s)
Ts
(ºC
)
Tdb
=100
Tdb
=85
Tdb
=75
Tdb
=65
Tdb
=55
Figura 9.9: Valores predichos versus
datos experimentales para Ts
0 1000 2000 3000 4000 5000 6000 70000.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Tiempo (s)
mav
g
Tdb
=55T
db=65
Tdb
=75T
db=85
Tdb
=100
Figura 9.10: Valores predichos versus
datos experimentales para mavg
9.6. Identificabilidad a posteriori 91
9.6. Identificabilidad a posteriori
La Figura 9.11 representa la matriz de correlacion a posteriori para el conjunto
de parametros pk = [b1 b4 p1 p2]T en el optimo. A pesar de que este conjunto de
parametros ha demostrado ser estructuralmente identificable, en la practica y debido
a las limitaciones experimentales, la matriz de Fisher esta bastante mal condicionada
(rcond(FIM)=1.1e-9). Como se puede ver en la Figura 9.11 donde se representa la
matriz de correlacion, los parametros del par p1 y p2 estan muy correlacionados con
un valor de R1,2 = −0.98 lo que explica las dificultades encontradas por algunos
metodos para alcanzar la solucion global.
p1 p2 b1 b4
p1
p2
b1
b4
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figura 9.11: Matriz de correlacion a posteriori
9.7. Intervalos de confianza
Los valores de los parametros correspondientes a la mejor solucion y sus inter-
valos de confianza del 95 % obtenidos mediante la aproximacion de Cramer-Rao y
el metodo de Monte Carlo se presentan en la Tabla 9.4. Los intervalos obtenidos
por ambos metodos son bastante cercanos excepto para el parametro p2 para el cual
difieren en casi un orden de magnitud. El metodo de Monte Carlo, siendo el mas
robusto de los dos, predice un error de casi el 25% para los parametros p1 y p2 lo
cual podrıa explicarse por la alta correlacion que existe entre ellos. Para los otros
dos parametros los intervalos son pequenos en terminos relativos indicando que estos
fueron estimados con precision.
La forma elıptica de la region de confianza para los parametros b1 y b4 confirma los
92 Capıtulo 9. Secado de alimentos
Parametro Valor optimo Int conf (95 %) Int conf (95 %)
Cramer-Rao Monte Carlo
p1 7.05e-3 1.51e-3 1.76e-3
p2 1.43e-2 6.24e-4 3.47e-3
b1 3.43e+1 3.45e-1 7.34e-1
b4 1.08e+2 3.90e+0 8.96+0
Tabla 9.4: Valores e intervalos de confianza de los parametros optimos
resultados del analisis de correlacion (R3,4 = 0.82). Sin embargo, la baja correlacion
entre los parametros p2 y b4 (R2,4 = 0.61) se traduce en una region de confianza mas
esferica.
0.0125 0.013 0.0135 0.014 0.0145 0.015 0.0155 0.016 0.016590
95
100
105
110
115
120
p2
b4
Figura 9.12: Region de confianza
para los parametros p2 y b4
33.8 34 34.2 34.4 34.6 34.890
95
100
105
110
115
120
b1
b4
Figura 9.13: Region de confianza
para los parametros b1 y b4
9.8. Conclusiones
En este capıtulo se presento un analisis detallado del problema de estimacion
de parametros relativo al secado por aire de alimentos que revela la necesidad de
llevar a cabo un procedimiento en dos pasos para garantizar que la solucion alcan-
zada sea capaz de reproducir el comportamiento del sistema en un amplio rango de
condiciones de operacion.
En una primera fase, se estudio la identificabilidad estructural del modelo por
medio de la aproximacion de Taylor lo cual permitio concluir que solo un subconjunto
de parametros relacionados con la contraccion y la transferencia de energıa pueden
9.8. Conclusiones 93
ser estimados al mismo tiempo. Ademas, se detecto la presencia de multiples optimos
locales motivando el uso de metodos de optimizacion global en el segundo paso de
la identificacion.
Varios metodos globales estocasticos fueron capaces de converger a la solucion
global mientras que, como era de esperar, las aproximaciones locales quedaron atra-
padas en soluciones locales la mayorıa de las veces. Notese que una solucion subopti-
ma puede dar lugar a conclusiones erroneas sobre la capacidad predictiva del modelo.
Ademas, con SSm la solucion global fue obtenida en un numero de evaluaciones
muy razonable lo que hace que este metodo sea especialmente atractivo para la
identificacion de modelos relacionados con el procesamiento de alimentos, que con-
sisten normalmente en un conjunto de ecuaciones diferenciales parciales no lineales
acopladas.
El analisis de identificabilidad a posteriori reflejo que, a pesar de que la iden-
tificabilidad estructural este garantizada, en la practica pueden presentarse ciertas
dificultades a la hora de realizar la estimacion debido a la correlacion entre ciertos
pares de parametros ocasionada por las limitaciones experimentales.
Capıtulo 10
Procesamiento termico de
alimentos
10.1. Introduccion
El procesamiento termico es una de las operaciones mas importantes para la
conservacion de alimentos. La idea subyacente es procesar el producto alimentario a
una temperatura elevada durante un cierto periodo de tiempo con objeto de reducir
los microorganismos daninos, garantizando la seguridad alimentaria y aumentando
su tiempo de conservacion. Sin embargo, los cambios que experimentan los alimentos
durante el procesamiento termico dan lugar, normalmente, a un empeoramiento de
su calidad. Resulta, por lo tanto, esencial procesar el alimento de manera que las
propiedades sensoriales y nutricionales se mantengan en los niveles mas altos posibles
garantizando siempre la seguridad.
A este respecto, en las ultimas decadas se han propuesto varias aproximaciones
para el diseno y/o optimizacion de este tipo de procesos (ver revision por Banga
et al., 2003). Las metodologıas mas satisfactorias son aquellas que utilizan tecnicas
computacionales basadas en modelos, especialmente aquellas que consisten en el
uso de modelos de principios fundamentales (Banga et al., 1991; Durance, 1997;
Ramaswamy et al., 1997; Balsa-Canto et al, 2002; Garcia et al. 2006).
Estos modelos matematicos combinan las leyes de conservacion con las propie-
dades fısicas de los productos, modelos de degradacion de la calidad y cineticas de
los microorganismos, permitiendo la prediccion de las propiedades organolepticas y
la seguridad del producto final, sujetas a diferentes condiciones de procesamiento.
La degradacion de la calidad se describe generalmente utilizando cineticas de
cero, primer y segundo orden, y normalmente se asume que la dependencia de la
velocidad de degradacion con la temperatura sigue la ecuacion de Arrhenius (Sa-
95
96 Capıtulo 10. Procesamiento termico de alimentos
guy y Karel, 1980) o el modelo basado en el concepto de tiempo de muerte termica
(Thermal Death Time, TDT) (Rasmaswamy et al., 1989). Por lo tanto, los modelos
resultantes consideran un numero de factores de calidad (lisina disponible, digesti-
bilidad de la proteına, contenido de tiamina o color de la superficie) que dependen
de una serie de parametros. En los modelos tipo Arrhenius estos parametros son,
entre otros, la energıa de activacion, Ea, y la constante pre-exponencial y en el mo-
delo TDT el tiempo de reduccion decimal, Dref , y el parametro que caracteriza la
sensibilidad a la temperatura, Zref . Dado que estos no pueden ser medidos directa-
mente, la calibracion del modelo sera un paso crucial para garantizar la capacidad
predictiva del modelo.
Lenz y Lund (1980), propusieron un diseno de experimentos factorial para la
determinacion de los parametros cineticos de la degradacion de alimentos durante
el procesamiento termico. En concreto, sugirieron dos tipos de aproximaciones ex-
perimentales, la estacionaria (isotermica) a realizar utilizando pequenos tubos para
garantizar una temperatura constante en la muestra y la no estacionaria a llevar a
cabo utilizando cualquier tipo de contenedor y en la cual debe considerarse la varia-
cion de la temperatura espacial y temporalmente dentro del producto alimentario.
En cualquiera de los dos casos proponen el uso de 10 a 18 experimentos (5-6 tem-
peraturas de calentamiento y 2-3 tiempos de calentamiento) dependiendo del grado
de precision deseado para los parametros.
La calibracion del modelo, una vez que se dispone de datos experimentales, es
mucho mas sencilla para el caso estacionario que para el no estacionario, ya que este
no requiere la resolucion de la ecuacion de Fourier. Ademas, el diseno es relativa-
mente simple dado que el numero de temperaturas a considerar dentro de los lımites
practicos es limitado. Esto ha hecho bastante popular la aproximacion estaciona-
ria. Por ejemplo, Banga et al. (1992) hicieron uso de 20 experimentos estacionarios
para calibrar la cinetica de degradacion de la digestibilidad de la proteına y de la
lisina disponible durante el procesamiento termico de atun. Van Loey et al. (1995),
emplearon 50 combinaciones de tiempo y temperatura para la calibracion de las
cineticas que describen el deterioro de la calidad de los guisantes verdes y las habas
blancas durante el procesamiento termico.
Sin embargo, notese que los parametros resultantes no son sensibles a las in-
fluencias practicas del proceso ya que el procesamiento isotermico se aleja bastante
de las condiciones de procesamiento practicas. Ademas, el uso de la aproximacion
estacionaria no proporciona mucha informacion sobre el comportamiento cinetico
ocasionando a menudo problemas de no identificabilidad y/o grandes errores en los
parametros estimados a no ser que se realice un gran numero de experimentos.
10.2. Modelo matematico 97
El uso de la aproximacion no estacionaria ha demostrado reducir estas dificul-
tades. Banga et al. (1993) emplearon 10 experimentos dinamicos para calibrar un
modelo TDT para la disminucion de tiamina en el procesamiento termico de atun
en lata obteniendo un error maximo para los parametros estimados de un 2.3 %.
Garote et al. (2001) utilizaron alrededor de 10 experimentos dinamicos para esti-
mar los parametros cineticos que describen la inactivacion de la lipogenasa durante
el calentamiento de judıas verdes, consiguiendo una buena concordancia entre la
prediccion del modelo y los datos experimentales.
Sin embargo, el uso de experimentos dinamicos no optimos puede dar lugar a
una carga experimental innecesariamente elevada, problemas de identificabilidad o
grandes intervalos de confianza para los parametros. Los trabajos de Versyck et
al. (1999) y Grijspeerdt y Vanrolleghem (1999) fueron los primeros en introducir el
diseno optimo de experimentos para modelos de biologıa predictiva y posteriormente,
Nahor et al. (2001, 2003) propusieron su utilizacion para la estimacion de parametros
termicos de alimentos.
En este capıtulo, se propone el uso de diseno optimo de experimentos (OED)
para superar las dificultades antes mencionadas en la estimacion de los parametros
cineticos de retencion de tiamina en la esterilizacion termica de alimentos enlatados.
10.2. Modelo matematico
La conduccion y la conveccion son las formas de trasferencia de energıa mas
comunes en el procesamiento termico de alimentos, siendo la primera el mecanismo
relevante en alimentos solidos y lıquidos muy viscosos y el segundo el caracterıstico
en alimentos lıquidos. Con objeto de proporcionar una explicacion detallada de es-
tos procesos y de su efecto en la seguridad microbiologica y la calidad del producto
alimentario, se requiere un modelo matematico general basado en principios funda-
mentales. Ademas de la distribucion de la temperatura, este modelo debe considerar
la concentracion de las posibles esporas de microorganismos presentes en el alimen-
to ya que estas determinan el grado de seguridad microbiologica. La concentracion
de sustancias responsables de la calidad del producto, como vitaminas o enzimas,
tambien debe ser incluida. Formalmente, la evolucion temporal y espacial de la tem-
peratura para productos solidos homogeneos e isotropos puede describirse por la
ecuacion de Fourier (10.1):
ρCpTt = k∆T + q(T,∇T, ξ, t) (10.1)
que esta definida en un dominio limitado con coordenadas generalizadas ξ y las
98 Capıtulo 10. Procesamiento termico de alimentos
adecuadas condiciones iniciales y de frontera. Los parametros ρ y Cp correspon-
den a la densidad del alimento y su capacidad calorıfica respectivamente y k es la
conductividad termica. Los procesos termicos inducidos mediante campos electro-
magneticos (microondas) o calentamiento ohmico tambien pueden ser introducidos
en esta formulacion mediante el termino de generacion q(T, ξ, t).
Para el caso de productos solidos las especies de interes no se distribuyen median-
te conveccion o difusion por lo que la ecuacion general que describe la disminucion
de la calidad como efecto de la temperatura es (Saguy y Karel, 1980):
−dC
dt= f(T ) (10.2)
donde C representa el factor de calidad considerado.
Con objeto de resolver las ecuaciones (10.1-10.2), deben imponerse condiciones
iniciales y frontera adecuadas en el dominio.
10.2.1. Esterilizacion industrial de alimentos enlatados
En este capıtulo se considero el caso de la esterilizacion termica de atun enlatado
como se formula en Banga et al. (1993). El sistema se modelo como un producto
calentado por conduccion en contenedores cilındricos de volumen VT (radio R y
altura 2L). Debido a la simetrıa, es suficiente modelizar la transferencia de energıa
y los fenomenos cineticos en el plano medio del cilindro. El objetivo consistio en
disenar experimentos optimos (un conjunto de esterilizaciones realizadas mediante
el procesamiento de latas en un autoclave) que proporcionen datos experimentales
(retencion de tiamina en cada experimento) que permitan la mejor estimacion posible
de los parametros cineticos TDT para la degradacion termica de tiamina.
La ecuacion de Fourier (10.1) en coordenadas cilındricas para un producto ali-
mentario homogeneo e isotropo resulta:
∂T
∂t= α
(∂2T
∂r2+
1
r
∂T
∂r+
∂2T
∂z2
)(10.3)
Se establecen los siguientes lımites y condiciones iniciales:
T (R, z, t) = Tautoclave(t) (10.4)
T (r, L, t) = Tautoclave(t) (10.5)
∂T
∂r(0, z, t) = 0 (10.6)
∂T
∂z(r, 0, t) = 0 (10.7)
10.3. Analisis de identificabilidad estructural 99
T (r, z, 0) = T0 (10.8)
Para este caso particular el estado medido corresponde a la retencion media de
nutrientes que se calcula asumiendo una cinetica de primer orden (10.2):
y =1
VT
∫ VT
0
exp
(− ln 10
DN,ref
∫ tf
0
exp
(T (r, z, t)− TN,ref
ZN,ref
ln 10
)dt
)dV (10.9)
Notese que este valor se mide a tiempo final por lo que solo se dispone de una
medida por cada experimento.
Para transformar la ecuacion diferencial parcial original (10.3) en un conjunto
de ecuaciones diferenciales ordinarias, se empleo el metodo numerico de las lıneas
(NMOL) (Schiesser, 1991). El sistema de ODEs resultante, combinado con las ecua-
ciones cineticas (una ecuacion por posicion espacial) se resolvio posteriormente con
ODESSA (Leis y Kramer, 1988) para permitir el calculo de las sensibilidades pa-
rametricas.
10.3. Analisis de identificabilidad estructural
Con objeto de analizar la identificabilidad estructural, se aplico el metodo de
Taylor para generar un sistema de ecuaciones no lineal en los parametros. Dado que
solo se van a estimar dos parametros, DN,ref y ZN,ref , se requieren solamente tres
coeficientes de Taylor. El primero es independiente de los parametros y el segundo
y el tercero dan lugar a combinaciones de terminos exponenciales dependientes de
ZN,ref y de la temperatura inicial del producto, la temperatura de la autoclave y
otros terminos relativos a la derivada temporal de la temperatura de la autoclave.
Desafortunadamente, debido a la complejidad de este sistema, no hay modo de
obtener soluciones analıticas por lo que no es posible extraer conclusiones generales
sobre la identificabilidad estructural.
10.4. Ranking de parametros
El ranking de parametros refleja que existe una diferencia de mas de un orden
de magnitud entre la importancia del ajuste para DN,ref y para ZN,ref (ver Tabla
10.1). Esto implica que un mal ajuste de DN,ref tendra mucha mas influencia en la
prediccion del modelo que un mal ajuste de ZN,ref .
Notese que para todos los calculos se emplearon los valores de los parame-
tros normalizados por lo que su valor sera igual a la unidad. Para ello se consi-
dero D∗N,ref = 5428 s y Z∗
N,ref = 31.4o¯C como se establece en Banga et al (1993).
100 Capıtulo 10. Procesamiento termico de alimentos
p1 p2−0.5
0
0.5
1
1.5
2
Parámetros
Val
or d
el c
riter
io
dmsqr
dmabs
dmean
dmax
dmin
Figura 10.1: Parametros ordenados por orden decreciente de δmsqr
Parametro Val nom δmsqr δmabs δmean δmax δmin
DN,ref/D∗N,ref 1 4.81e-1 1.03e+0 1.03e+0 1.51e+0 0.00e+0
ZN,ref/Z∗N,ref 1 4.66e-2 9.99e-2 7.28e-2 1.71e-1 -7.12e-2
Tabla 10.1: Valores para el ranking de parametros
10.5. Diseno optimo de experimentos
Para este caso, el objetivo del diseno optimo de experimentos puede ser formulado
de la siguiente manera:
Calcular las condiciones experimentales optimas, temperatura de procesamiento
Tautoclave(t) y duracion de un numero dado de experimentos, nexp, que permitan
estimar los parametros cineticos relacionados con la retencion de tiamina Dref y
Zref , con la maxima precision posible.
Este problema se resolvio considerando las siguientes condiciones:
El numero de experimentos se fijo a un valor mınimo de cinco, considerando
que, como indica Sontag (2002), el mınimo numero de medidas “perfectas”
para la calibracion de Np parametros es 2Np + 1. Para evaluar su efecto en los
intervalos de confianza de los parametros, tambien se considero el OED para
el caso de seis y ocho experimentos.
Se asumio que la temperatura de la autoclave sigue el perfil tıpico de proce-
samiento de calentamiento-enfriamiento. Por lo tanto, el vector de variables
de decision sera [Tc,iexp; Te,iexp; tc,iexp] donde Tc,iexp representa la temperatura
10.5. Diseno optimo de experimentos 101
de calentamiento, Te,iexp la temperatura de enfriamiento y tc,iexp el tiempo de
calentamiento del experimento iexp. Se considero que la duracion de la fase de
enfriamiento es el 60 % de la de calentamiento para garantizar que la degrada-
cion de nutrientes no continue despues del final del experimento, es decir, que
la temperatura del producto sea suficientemente baja.
Los lımites establecidos para las variables de decision son los siguientes:
110oC ≤ Tc,iexp ≤ 140oC (10.10)
20oC ≤ Te,iexp ≤ 25oC (10.11)
1800 s ≤ tc,iexp ≤ 9000 s (10.12)
Se considero una sola medida por experimento a tiempo final y que estas estan
sujetas a un ruido gaussiano del 3 %.
El objetivo de la optimizacion consistio en la maximizacion del criterio D.
En primer lugar y con objeto de analizar la posible naturaleza multimodal del
problema, se resolvio el problema de diseno de cinco experimentos empleando un
metodo local en modo multi-start. La Figura 10.2 representa el histograma de fre-
cuencia de las soluciones mostrando la presencia de varias soluciones suboptimas y
confirmando la necesidad de emplear metodos de optimizacion global.
0.8 1 1.2 1.4 1.6 1.8 2 2.2
x 105
0
1
2
3
4
Funcion Objetivo
Fre
cu
en
cia
Figura 10.2: Frecuencia de las soluciones de un SQP en
modo multi-start
102 Capıtulo 10. Procesamiento termico de alimentos
La solucion encontrada por los metodos globales SRES, DE y SSm es practicamente
la misma siendo este ultimo considerablemente mas rapido en terminos de conver-
gencia como puede apreciarse en la Figura 10.3 para el caso de seis experimentos.
0 5000 10000 15000−10
6
−105
−104
−103
−102
−101
Tiempo CPU (s)
Fun
ción
obj
etiv
oDESRESSSm
Figura 10.3: Curvas de convergencia de SRES, DE y SSm
La Tabla 10.2 presenta los valores optimos obtenidos por SSm mediante la ma-
ximizacion del criterio D considerando cinco, seis y ocho experimentos ası como los
valores del criterio E modificado para estos disenos.
nexp Criterio D Criterio E Mod
5 2.63e + 5 1.46e+0
6 3.95e + 5 1.88e+0
8 7.01e + 5 1.86e+0
Tabla 10.2: Valor del criterio D y E modificado para cinco,
seis y ocho experimentos
Como era de esperar, cuando se emplea el criterio D, cuanto mayor es el numero
de experimentos mayor es la cantidad de informacion y por lo tanto mayor sera el
valor optimo para este criterio y menor sera el tamano de los intervalos de confianza
como se vera a continuacion. Los valores de la tabla y la Figura 10.4 que muestra la
evolucion de los valores optimos obtenidos en funcion del numero de experimentos,
ilustran el hecho de que este tipo de experimentos fuerzan la decorrelacion entre los
parametros (el valor del criterio E modificado es cercano a la unidad en todos los
casos). Notese que empleando solo un experimento la FIM resulta singular por lo
que el valor del criterio D es cero y el criterio E modificado no esta definido.
10.5. Diseno optimo de experimentos 103
1 2 3 4 5 60
1
2
3
4 x 105
1
1.5
2
2.5
3
3.5
4
Crite
rio
D
E m
od
ific
ad
o
nexp
Figura 10.4: Evolucion de los criterios D y E modificado
con el numero de experimentos
Una propiedad del criterio D es su tendencia a repetir un numero pequeno de
condiciones experimentales diferentes (Walter y Pronzato, 1997). En este ejemplo,
el diseno optimo consiste en la realizacion repetida de dos tipos de experimentos:
uno a alta temperatura durante un tiempo corto y otro a baja temperatura durante
un tiempo largo. En el caso de seis experimentos (nexp = 6) las condiciones optimas
consisten en realizar tres experimentos de cada tipo, como muestran los perfiles
optimos de calentamiento-enfriamiento representados en las Figuras 10.5-10.6.
0 2000 4000 6000 800020
40
60
80
100
120
140
Experimentos: 1, 3, 6
Tiempo (s)
Te
mp
era
tura
(ºC
)
Figura 10.5: Perfiles optimos para los
experimentos 1, 3 y 6
0 2000 4000 6000 800020
40
60
80
100
120
140
Experimentos: 2, 4, 5
Tiempo (s)
Tem
pera
tura
(ºC
)
Figura 10.6: Perfiles optimos para los
experimentos 2, 4 y 5
104 Capıtulo 10. Procesamiento termico de alimentos
La evolucion de la temperatura en el punto crıtico y la retencion de nutrientes
correspondientes a cada experimento se presentan en las Figuras 10.7-10.8.
0.2
0.4
0.6
0.8
1
20
40
60
80
100
120
140
0 2000 4000 6000 8000
Tiempo (s)
Experimentos: 1, 3, 6
ret N
T(º
C)
0
T0
retN
Figura 10.7: Dinamica de la T0 y la
retN para los experimentos 1, 3 y 6
0.2
0.4
0.6
0.8
1
20
40
60
80
100
120
140
0 2000 4000 6000 8000
Tiempo (s)
Experimentos: 2, 4, 5
ret N
T(º
C)
0T0
ret N
Figura 10.8: Dinamica de la T0 y la
retN para los experimentos 2, 4 y 5
10.6. Identificabilidad a posteriori
Con objeto de comprobar las propiedades de los esquemas experimentales opti-
mos, se realizo el analisis de identificabilidad practica. Para ello se selecciono el caso
de seis experimentos ya que ofrece un buen compromiso entre la calidad de la solu-
cion y el esfuerzo experimental. La Figura 10.9 muestra la matriz de correlacion a
N,ref
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
D
N,refD
N,refZ
N,refZ
Figura 10.9: Matriz de correlacion a posteriori
10.7. Intervalos de confianza 105
posteriori para los parametros DN,ref y ZN,ref considerando el diseno experimental
optimo. Tal y como indicaba el valor del criterio E modificado, la correlacion entre
los mismos es muy baja con un valor de R1,2=0.265 lo que da lugar a una matriz de
informacion de Fisher bien condicionada (rcond(FIM)=5.8e-1). Esto significa que los
parametros considerados son identificables a posteriori a partir del diseno obtenido.
10.7. Intervalos de confianza
A partir de los disenos optimos correspondientes a cinco, seis y ocho experimentos
se generaron datos pseudo-experimentales considerando los parametros nominales y
anadiendoles un 3 % de error gaussiano. A partir de estos datos, se estimaron los
parametros obteniendose en todos los casos valores muy cercanos a los nominales y
se calculo el valor de los intervalos de confianza del 95% mediante la aproximacion
de Monte Carlo. Los resultados se muestran en la Tabla 10.3.
DN,ref/D∗N,ref ZN,ref/Z∗
N,ref
nexp Valor optimo Int conf (95 %) Valor optimo Int conf (95 %)
5 exp. 1.0 1.95e-2 1.0 2.02e-2
6 exp. 1.0 1.58e-2 1.0 1.58e-2
8 exp. 1.0 1.42e-2 1.0 1.44e-2
Tabla 10.3: Valores e intervalos de confianza de los parametros optimos
El mayor error, correspondiente al caso de cinco experimentos, es ligeramente
mejor al obtenido por Banga et al. (1993) empleando diez experimentos dinamicos
(2.3%). Como ya se ha senalado, cuanto mayor es el numero de experimentos mayor
es la cantidad de informacion y por lo tanto menor sera el volumen de la elipse de
confianza asintotica. De este modo, el uso de seis u ocho experimentos reduce el
tamano de los intervalos de confianza. Estos resultados confirman el hecho de que el
diseno optimo de experimentos puede ayudar a reducir sustancialmente el esfuerzo
experimental, hasta un 50% en este ejemplo.
La region de confianza para los parametros representada en la Figura 10.10,
confirma que los parametros son totalmente identificables y que ademas estan casi
completamente decorrelacionados ya que esta es practicamente redonda.
Ademas, el problema de calibracion resultante es convexo en la vecindad del
optimo global, como ilustra la representacion del valor de la funcion objetivo en las
proximidades de la solucion (ver Figura 10.11) por lo que, una vez alcanzada esa
106 Capıtulo 10. Procesamiento termico de alimentos
0.980 0.985 0.990 0.995 1.000 1.005 1.010 1.015 1.020
0.980
0.985
0.990
0.995
1.000
1.005
1.010
1.015
1.020
Dref/Dref*
Zref/Zref*
Figura 10.10: Region de confianza para el diseno optimo
de seis experimentos
zona mediante un metodo de optimizacion global, el problema podrıa ser resuelto
facilmente mediante un metodo local.
0.51
1.5
0.51
1.5
0
1
2
3
4
5
6
Dref/D *
refZref
/Z*ref
log(J
)
mc
Figura 10.11: Funcion objetivo para el diseno optimo
de seis experimentos
10.8. Conclusiones 107
10.8. Conclusiones
En este capıtulo se considero el diseno optimo de experimentos para la estimacion
de los parametros cineticos relativos al procesamiento termico de bioproductos. El
empleo de un metodo local en modo multi-start detecto la presencia de optimos loca-
les por lo que varios metodos estocasticos de optimizacion global fueron empleados
para la resolucion del problema, siendo el metodo SSm el mas rapido en converger.
Ademas, se ilustro el efecto del numero de experimentos en el valor de distintos
criterios escalares de la FIM. De este modo, se ve como el valor del criterio D aumen-
ta con la cantidad de informacion a la vez que disminuyen los intervalos de confianza
para los parametros. El empleo del criterio D dio lugar a disenos que consisten en
la repeticion de dos tipos de experimentos: uno caracterizado por un procesamien-
to de corta duracion a alta temperatura y otro por un procesamiento largo a baja
temperatura. Este resultado confirma la idea, ya apuntada por otros autores, de
que el criterio D tiende a repetir experimentos. Fisher (1935) ya senala las ventajas
de la repeticion de experimentos argumentando que, si todos los experimentos son
diferentes, un error en uno de ellos disminuira significativamente el rendimiento glo-
bal mientras que, si el experimento se repite varias veces, podra probarse su validez
mediante la predominancia de las realizaciones con exito.
Los resultados obtenidos demuestran que mediante un esquema experimental
optimo no solo se reducen los problemas de identificabilidad sino que ademas se
reducen los intervalos de confianza de los parametros a la vez que disminuye el
esfuerzo experimental requerido, hasta un 50% con respecto a las aproximaciones
tradicionales para el caso considerado.
Capıtulo 11
Isomerizacion del α-pineno
11.1. Introduccion
Este problema consiste en estimar cinco constantes de reaccion (p1, ..., p5) de
un sistema de reaccion complejo estudiado originalmente por Box et al. (1973), que
forma parte de COPS (Collection of large-scale Constrained Optimization ProblemS)
(Dolan et al., 2004). La Figura 11.1 representa el esquema de reaccion propuesto
para esta reaccion quımica homogenea que describe la isomerizacion termica del α-
pineno (y1) a dipenteno (y2) y allo-ocimeno (y3) que a su vez se convierte en α- y
β-pironeno (y4) y en un dımero (y5).
Figura 11.1: Esquema de la isomerizacion del α-pineno
Este proceso fue estudiado por Fuguitt y Hawkins (1947), que proporcionaron
las concentraciones del reactante y de los cuatro productos en ocho intervalos de
tiempo (zji). Si los ordenes de las reacciones quımicas son conocidos, se pueden
derivar modelos matematicos que den las concentraciones de las distintas especies
109
110 Capıtulo 11. Isomerizacion del α-pineno
en funcion del tiempo. Hunter y MacGregor (1967) asumieron cineticas de primer
orden y derivaron un conjunto de ecuaciones diferenciales lineales para las cinco
respuestas.
Asumiendo que el modelo es adecuado y que se conocen las condiciones iniciales
para las cinco especies, se pueden estimar los coeficientes desconocidos p1, ..., p5
minimizando una funcion de coste que corresponde a una medida de la distancia
entre los valores experimentales correspondientes a las variables medidas y los valores
predichos para estas variables.
Box et al. (1973) intentaron en un primer momento resolver este problema sin
analizar los datos de respuesta multiple y encontraron valores de los parametros que
proporcionaban un mal ajuste de los datos experimentales. Dado que ignorar las
posibles dependencias entre las respuestas puede provocar dificultades a la hora de
estimar los parametros (multiples mınimos locales, funcion objetivo muy plana,...),
Box et al. (1973) describieron un metodo para detectar y manejar estas relaciones
lineales. Con este estudio demostraron que existen dependencias entre los datos y
de las cinco respuestas utilizaron solamente tres combinaciones linealmente indepen-
dientes para la identificacion, mejorando significativamente el ajuste de los datos.
Este analisis de los datos de respuesta multiple, a pesar de su eficiencia, requiere
un esfuerzo considerable especialmente para detectar las causas de las dependencias
una vez que han sido localizadas, y se requiere un conocimiento en profundidad del
modelo (que ya no puede ser considerado como una caja negra). Ademas, esto deja
de ser asequible cuando se incrementa la complejidad del modelo.
Tjoa y Biegler (1991) tambien consideraron este problema y utilizaron un metodo
robusto de estimacion local para estimar los parametros desconocidos. Consideraron
todo el conjunto de datos experimentales con objeto de evaluar el comportamiento
del metodo con dependencias entre los datos. En el punto de convergencia, obtu-
vieron los mismos parametros optimos que los obtenidos por Box et al. (1973). No
obstante, el valor inicial considerado para los parametros estaba muy cerca de la
solucion optima, lo que explica que este metodo alcanzase el optimo global sin que-
dar atrapado en una solucion local. Como senala Averick et al. (1991), la solucion
de este problema no es difıcil de obtener desde valores iniciales de p cercanos a la
solucion global, pero la dificultad se incrementa cuando se intenta resolver desde
puntos iniciales remotos.
Con objeto de evitar la convergencia a soluciones locales sin requerir unos bue-
nos valores iniciales para los parametros y/o un analisis exhaustivo de los datos de
respuesta multiple, en este capıtulo se propone la utilizacion de metodos de optimi-
zacion global para la calibracion del modelo.
11.2. Modelo matematico 111
11.2. Modelo matematico
Para la resolucion de este problema, se consideran las ecuaciones lineales deriva-
das por Hunter y MacGregor (1967) asumiendo cineticas de primer orden:
dy1
dt= −(p1 + p2)y1 (11.1)
dy2
dt= p1y1 (11.2)
dy3
dt= p2y1 − (p3 + p4)y3 + p5y5 (11.3)
dy4
dt= p3y3 (11.4)
dy5
dt= −p4y3 + p5y5 (11.5)
11.3. Analisis de identificabilidad estructural
Con objeto de estudiar la identificabilidad estructural del modelo considerado, se
aplico el metodo de series de Taylor (ver seccion 4.1) a las ecuaciones de los estados
medidos (11.1-11.5). De este modo se obtuvieron los siguientes coeficientes de cero
y primer orden:
a01 = y1,0
a02 = y2,0
a03 = y3,0
a04 = y4,0
a05 = y5,0
a11 = −(p1 + p2)y1
a12 = p1y1
a13 = p2y1 − (p3 + p4)y3 + p5y5
a14 = p3y3
a15 = −p4y3 + p5y5
Del analisis de estos coeficientes pueden extraerse las siguientes conclusiones
sobre la identificabilidad estructural de los parametros del modelo:
i. De los coeficientes a11 y a12 se concluye que p1 y p2 son estructuralmente
112 Capıtulo 11. Isomerizacion del α-pineno
globalmente identificables (s.g.i.) ya que:
a11([p1, p2]) = a11([p1, p2]) =⇒ −(p1 + p2)y1 = −(p1 + p2)y1 (11.6)
a12([p1]) = a12([p1]) =⇒ p1y1 = p1y1 (11.7)
y estas ecuaciones son simultaneamente ciertas solo en el caso de que p1 = p1
y p2 = p2
ii. De modo analogo, del coeficiente a14 se concluye que p3 es estructuralmente
globalmente identificable (s.g.i.) ya que:
a14([p3]) = a14([p3]) =⇒ p3y3 = p3y3 (11.8)
y esto es cierto solo en el caso de que p3 = p3
iii. Del coeficiente a15 se deduce que p4 y p5 son s.g.i. ya que:
a15([p4, p5]) = a15([p4, p5]) =⇒ −p4y3 + p5y5 = −p4y3 + p5y5 (11.9)
y esto es cierto solo en el caso de que p4 = p4 y p5 = p5 siempre que la relacion
entre y3 e y5 no sea constante, lo cual viene dado por el modelo de ODEs.
En este caso los coeficientes de Taylor de primer orden son suficientes para de-
mostrar que todos los parametros del modelo son estructuralmente globalmente
identificables (s.g.i.).
11.4. Ranking de parametros
Los resultados del analisis de sensibilidad se resumen mediante el valor de los
criterios descritos en la seccion 3.3 para los cinco parametros del modelo que se mues-
tran en la Tabla 11.1. Los parametros aparecen en orden decreciente con respecto
al criterio δmsqr y se representan en la Figura 11.2.
Estos resultados no reflejan grandes diferencias en los valores de δmsqr para los
distintos parametros lo que indica que la salida del modelo es considerablemente
sensible a todos ellos. Las pequenas diferencias entre δmsqr y δmabs, indican que no
existe una gran variabilidad en las sensibilidades (Sj) ni valores extremos (outliers).
Una comparacion de δmax y δmin indica que todos los parametros presentan sensibi-
lidades tanto positivas como negativas aunque el efecto global es positivo para tres
de los parametros y negativo para los otros dos, como puede verse por el signo de
δmean.
11.5. Estimacion de parametros 113
Parametro Valor nominal δmsqr δmabs δmean δmax δmin
p1 5.93e-5 0.7144 0.5712 -0.3169 0.9946 -2.1582
p2 2.96e-5 0.6978 0.6313 0.3415 0.9982 -1.0793
p4 2.75e-4 0.4762 0.3403 -0.1869 0.9834 -0.8533
p3 2.05e-5 0.4242 0.2206 0.1552 0.9988 -0.1593
p5 4.00e-5 0.2256 0.1303 0.0864 0.7189 -0.1641
Tabla 11.1: Valores para el ranking de parametros
p1 p2 p4 p3 p5−2.5
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
2.5
Val
or d
el c
riter
io
Parámetros
dmsqr
dmabs
dmean
dmax
dmin
Figura 11.2: Parametros ordenados por orden decreciente de δmsqr
11.5. Estimacion de parametros
Para este problema la funcion de coste puede formularse como:
J(p) =5∑
j=1
8∑i=1
(zj(p, ti)− zji)2 (11.10)
Los metodos utilizados requieren un lımite superior e inferior ası como un punto
inicial para los parametros. El lımite inferior para los cinco parametros viene dado
por consideraciones fısicas, pi ≥ 0, y el lımite superior se considera pi ≤ 1, muy lejos
de la mejor solucion conocida p1 = 5.93e-5, p2 = 2.96e-5, p3 = 2.05e-5, p4 = 27.5e-5,
p5 = 4.00e-5). Como punto inicial se elige pi = 0.5.
114 Capıtulo 11. Isomerizacion del α-pineno
En primer lugar se intento resolver el problema utilizando un metodo SQP en mo-
do multi-start. El histograma de frecuencias representado en la Figura 11.3 muestra
que los metodos locales no son capaces de converger a la solucion global estando la
mayorıa de las soluciones muy alejadas de este punto. Por este motivo, el empleo de
herramientas de optimizacion global resulta imprescindible para resolver con exito
este problema.
3 3.2 3.4 3.6 3.8 4 4.2 4.4
x 104
0
10
20
30
40
50
60
70
80
90
Función objetivo
Fre
cuen
cia
Figura 11.3: Frecuencia de las soluciones de un SQP en
modo multi-start
La Figura 11.4 muestra claramente que SSm convergio siempre a la solucion global
en un tiempo de computacion corto mientras que otros metodos de optimizacion
global fallaron o convergieron en un tiempo computacional mucho mayor. Con objeto
de favorecer la visualizacion, la curva correspondiente a SSm se representa en ejes
diferentes, ya que SRES y DE quedaron atrapados en soluciones locales cerca del
punto inicial mientras que SSm convergio al optimo global lejos del primer valor.
Asimismo, la Figura 11.5 muestra una comparacion entre los valores predichos
a partir del mejor vector de parametros obtenido con SSm (linea continua) y los
datos experimentales para estas especies proporcionados por Fuguitt y Hawkins
(1947) (sımbolos), correspondientes a la concentracion del reactante y de los cuatro
productos. Los parametros estimados permiten reproducir los datos experimentales
y, como puede verse en la Figura 11.6, no existe correlacion entre los residuos y el
tiempo lo que indica que el error de los datos experimentales es homocedastico.
11.6. Identificabilidad a posteriori 115
100
101
102
103
30000
40000
50000
Tiempo CPU (s)
Fun
ción
obj
etiv
o
100
101
102
103
101
103
105
Tiempo CPU (s)
Fun
ción
obj
etiv
o
SRESDE
SSm
Figura 11.4: Curvas de convergencia de SRES, DE y SSm
0 0.5 1 1.5 2 2.5 3 3.5 4
x 104
0
10
20
30
40
50
60
70
80
90
100
Con
cent
raci
ón (
% p
eso)
Tiempo (min)
y1: alfa−pinenoy2: dipentenoy3: allo−ocimenoy4: pironenoy5: dimero
Figura 11.5: Datos experimentales
versus valores predichos por el modelo
0 0.5 1 1.5 2 2.5 3 3.5 4
x 104
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
Tiempo (min)
Res
iduo
s
y1: alfa−pinenoy2: dipentenoy3: allo−ocimenoy4: pironenoy5: dimero
Figura 11.6: Valores de los residuos en
funcion del tiempo
11.6. Identificabilidad a posteriori
La matriz de correlacion representada en la Figura 11.7 muestra una identifi-
cabilidad aceptable en el optimo, con un numero de condicion rcond(FIM)=2.2e-4.
Este hecho lleva a pensar que los problemas en la calibracion del modelo experimen-
tados por la mayorıa de los metodos se deben fundamentalmente a la existencia de
multiples mınimos locales.
116 Capıtulo 11. Isomerizacion del α-pineno
p1 p2 p3 p4 p5
p1
p2
p3
p4
p5
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figura 11.7: Matriz de correlacion a posteriori
Las Figuras 11.8 y 11.9 muestran las lıneas de contorno de la funcion objetivo
en el plano parametrico para el par (p1, p2) que presenta un valor del coeficiente de
correlacion R1,2 = 0.13 y para el par mas correlacionado (p4, p5) con R4,5 = 0.82.
3 4 5 6 7 8
x 10−5
1.5
2
2.5
3
3.5
4
x 10−5
p1
p 2
Figura 11.8: Funcion objetivo en el
plano (p1, p2)
1.5 2 2.5 3 3.5 4
x 10−4
2
2.5
3
3.5
4
4.5
5
5.5
x 10−5
p4
p 5
Figura 11.9: Funcion objetivo en el
plano (p4, p5)
11.7. Intervalos de confianza 117
11.7. Intervalos de confianza
Por otra parte, los intervalos de confianza del 95 % que se muestran en la Tabla
11.2 para los valores optimos de los parametros (J = 19.87) son pequenos lo que
indica que estos fueron estimados con precision. No obstante, el parametro que
presenta un mayor intervalo de confianza, en terminos relativos, es p5. Este hecho
puede explicarse por la menor sensibilidad del modelo con respecto a este parametros
que resulto el ultimo en el ranking y por la correlacion entre p4 y p5 detectada en el
analisis de identificabilidad a posteriori.
Parametro Valor optimo Int. conf. (95 %) Int. conf. (95 %)
Cramer Rao Monte Carlo
p1 5.926e-5 8.706e-7 3.732e-7
p2 2.963e-5 8.431e-7 3.563e-7
p3 2.047e-5 5.313e-6 1.725e-6
p4 2.745e-4 3.984e-5 1.003e-5
p5 3.998e-5 1.439e-5 4.579e-6
Tabla 11.2: Valores e intervalos de confianza de los parametros optimos
Las Figuras 11.10 y 11.11 muestran las regiones de confianza obtenidas por el
metodo de Monte Carlo. Como era de esperar, la correlacion existente entre el par
(p4, p5) dio lugar a una forma elıptica mientras que la correspondiente al par (p1, p2)
es practicamente circular.
5.86 5.88 5.9 5.92 5.94 5.96 5.98
x 105
2.9
2.92
2.94
2.96
2.98
3
3.02
x 10 5
p1
p2
Figura 11.10: Funcion objetivo en el
plano (p1, p2)
2.55 2.6 2.65 2.7 2.75 2.8 2.85 2.9
x 104
3.4
3.6
3.8
4
4.2
4.4
4.6
x 10 5
p4
p5
Figura 11.11: Funcion objetivo en el
plano (p4, p5)
118 Capıtulo 11. Isomerizacion del α-pineno
11.8. Conclusiones
En este capıtulo se considero la calibracion de un sistema de reaccion para la
isomerizacion termica del α-pineno. Mediante el metodo de series de Taylor se de-
mostro la identificabilidad estructural de los cinco parametros del modelo. A pesar de
que el modelo es aparentemente sencillo, el problema inverso asociado es multimodal
debido, entre otros factores, a dependencias entre los datos. Esto se debe a que las
concentraciones proporcionadas por Fuguitt y Hawkins (1947) para algunos de los
productos no fueron obtenidas experimentalmente sino calculadas matematicamente
a partir de las concentraciones de otros productos (Box et al., 1973).
Esta multimodalidad fue corroborada mediante un multi-start de un metodo
SQP motivando el uso de estrategias de optimizacion global para la estimacion de
los parametros del modelo. La consideracion de un rango muy amplio para los lımites
de los parametros y de un punto inicial muy alejado de la solucion global hace que,
incluso algunos metodos de optimizacion global de probada eficacia como SRES y DE,
presenten problemas de convergencia. Sin embargo, la metaheurıstica SSm probo ser
muy robusta y alcanzo la solucion global muy rapidamente lo que la convierte en
una estrategia muy recomendable para la resolucion de esta clase de problemas.
El analisis de identificabilidad a posteriori no revela grandes correlaciones en-
tre los parametros que pudieron ser estimados con precision como demuestran los
intervalos de confianza calculados.
Capıtulo 12
Inhibicion de la proteasa del HIV
12.1. Introduccion
Este problema consiste en la estimacion de un numero de parametros de un
modelo que describe el mecanismo de reaccion para la inhibicion irreversible de la
proteasa del HIV originalmente estudiado por Kuzmic (1996) (ver Figura 12.1).
Figura 12.1: Esquema de reaccion para la inhibicion
irreversible de la proteasa del HIV
La enzima (M) solo es activa en forma de dımero (E), el producto (P) es un
inhibidor competitivo con el sustrato (S) y el inhibidor (I) es irreversible (Kuzmic,
1996). La proteasa del HIV (concentracion de ensayo 0.004 µM) fue anadida a una
disolucion de un inhibidor irreversible y un sustrato fluorogenico (25 µM). Los cam-
bios de fluorescencia fueron monitorizados durante una hora en cada uno de los
119
120 Capıtulo 12. Inhibicion de la proteasa del HIV
cinco experimentos llevados a cabo a cuatro concentraciones diferentes de inhibidor
(0, 0.0015, 0.003 y 0.004 µM en duplicado).
Mendes y Kell (1998) trataron de calibrar el modelo utilizando una serie de meto-
dos de optimizacion y encontraron varios conjuntos de parametros que, a pesar de
presentar valores de la funcion objetivo cercanos, tenıan valores considerablemente
diferentes. Estos investigadores apuntaron la posibilidad de que este hecho fuese de-
bido a la convergencia a mınimos locales o a una funcion objetivo muy plana en la
region del espacio correspondiente al optimo global.
Con objeto de dilucidar las causas de estas dificultades, en este capıtulo se con-
sidero el mismo problema resuelto por Kuzmic (1996) y Mendes y Kell (1998) y
se analizo su identificabilidad a posteriori. Ademas se calibro el modelo utilizando
varios metodos de optimizacion global, confirmando la superioridad de SSm para la
resolucion de este tipo de problemas.
12.2. Modelo matematico
El modelo matematico consiste en un conjunto de nueve ecuaciones diferenciales
ordinarias no lineales con diez parametros. Este sistema de ODEs puede describirse
de la siguiente forma:
d[M ]
dt= −2k11[M ][M ] + 2k12[E] (12.1)
d[P ]
dt= k22[ES]− k21[P ][E] + k42[EP ] (12.2)
d[S]
dt= −k21[S][E] + k22[ES] (12.3)
d[I]
dt= −k21[I][E] + k52[EI] (12.4)
d[ES]
dt= k21[S][E]− k22[ES]− k3[ES] (12.5)
d[EP ]
dt= k41[P ][E]− k42[EP ] (12.6)
d[E]
dt= k11[M ][M ] + k12[E]− k21[S][E] + k22[ES] + k3[ES] (12.7)
−k41[P ][E] + k42[EP ]− k51[I][E] + k52[EI]
d[EI]
dt= k51[I][E]− k52[EI]− k6[EI] (12.8)
d[EJ ]
dt= k6[EI] (12.9)
12.3. Ranking de parametros 121
12.3. Ranking de parametros
El valor de los criterios descritos en la seccion 3.3 para los cinco parametros a
estimar se muestran en la Tabla 12.1. Los parametros aparecen en orden decreciente
de acuerdo con el criterio δmsqr y se representan en la Figura 12.2.
Parametro Valor nominal δmsqr δmabs δmean δmax δmin
k42 5.00e+2 8.10e+1 1.62e+2 1.62e+2 5.00e+2 1.26e+2
k22 3.00e+2 4.85e+1 9.67e+1 9.68e+1 3.00e+2 7.53e+1
k3 1.00e+1 1.80e+0 3.60e+0 3.60e+0 1.00e+1 2.81e+0
k52 1.00e-1 6.49e-2 1.10e-1 1.10e-1 1.63e-1 4.97e-2
k6 1.00e-1 4.17e-2 6.59e-2 -4.97e-2 1.00e-1 -7.29e-2
Tabla 12.1: Valores para el ranking de parametros
k42 k22 k3 k52 k6−100
0
100
200
300
400
500
Parámetros
Val
or d
el c
riter
io
dmsqr
dmabs
dmean
dmax
dmin
Figura 12.2: Parametros ordenados por orden decreciente de δmsqr
Estos resultados reflejan grandes diferencias en los valores de δmsqr para los dis-
tintos parametros lo que indica que la salida del modelo es muy sensible a unos y
poco sensible a otros. Las diferencias entre δmsqr y δmabs, indican que existe cierta
variabilidad en las sensibilidades de los distintos estados con respecto a un mismo
parametro (Sj). Una comparacion de δmax y δmin indica que solamente k6 presentan
sensibilidades tanto positivas como negativas mientras que para los demas parame-
tros estas son siempre positivas.
122 Capıtulo 12. Inhibicion de la proteasa del HIV
12.4. Estimacion de parametros
El problema de estimacion que se plantea consiste en la calibracion de cinco
constantes de reaccion. En este ajuste, se asumio tambien un cierto grado de in-
certidumbre en el valor de las concentraciones iniciales de sustrato y de enzima (±50%) (errores de valoracion). Ademas, la lınea base del fluorımetro (offset) se con-
sidero tambien como un grado de libertad. Dado que se dispone de cinco curvas de
datos experimentales, se tendra un total de veinte parametros ajustables: las cinco
constantes de reaccion, cinco concentraciones iniciales de la enzima, cinco concentra-
ciones iniciales del sustrato y cinco valores para el offset. La senal medida es funcion
de la concentracion de producto tal que:
senal = εp[P ] + offset (12.10)
Parametro Valor inicial Lımite inf. Lımite sup.
k3 1.00e+1 0.00e+0 1.00e+5
k42 5.00e+2 0.00e+0 1.00e+5
k22 3.00e+2 0.00e+0 1.00e+5
k52 1.00e-1 0.00e+0 1.00e+5
k6 1.00e-1 0.00e+0 1.00e+5
S0 (exp 1) 2.50e+1 1.25e+1 3.75e+1
S0 (exp 2) 2.50e+1 1.25e+1 3.75e+1
S0 (exp 3) 2.50e+1 1.25e+1 3.75e+1
S0 (exp 4) 2.50e+1 1.25e+1 3.75e+1
S0 (exp 5) 2.50e+1 1.25e+1 3.75e+1
E0 (exp 1) 4.00e-3 2.00e-3 6.00e-3
E0 (exp 2) 4.00e-3 2.00e-3 6.00e-3
E0 (exp 3) 4.00e-3 2.00e-3 6.00e-3
E0 (exp 4) 4.00e-3 2.00e-3 6.00e-3
E0 (exp 5) 4.00e-3 2.00e-3 6.00e-3
offset (exp 1) 1.00e-1 -2.00e-1 4.00e-1
offset (exp 2) 1.00e-1 -2.00e-1 4.00e-1
offset (exp 3) 1.00e-1 -2.00e-1 4.00e-1
offset (exp 4) 1.00e-1 -2.00e-1 4.00e-1
offset (exp 5) 1.00e-1 -2.00e-1 4.00e-1
Tabla 12.2: Valores nominales y lımites para los 20 parametros
12.4. Estimacion de parametros 123
Para poder comparar los resultados se tomaron los lımites y valores iniciales para
los parametros empleados por Mendes y Kell (1998) (ver Tabla 12.2). Una de las
dificultades anadidas de este problema son los amplios lımites considerados para las
constantes cineticas.
Mediante la minimizacion de la suma de los cuadrados de los residuos entre
los datos medidos y los simulados, la mejor solucion conocida hasta este trabajo
fue obtenida por Mendes y Kell (1998) utilizando el metodo Simulated Annealing,
con un coste computacional de tres millones de simulaciones. La siguiente mejor
solucion fue obtenida utilizando un metodo Levenberg-Marquardt con un esfuerzo
computacional considerablemente menor (4000 simulaciones) aunque la convergencia
al optimo global con este metodo solo esta garantizada si se inicializa en su vecindad.
En este trabajo se trato de resolver el problema mediante un metodo local tipo
SQP en modo multi-start. El histograma de frecuencias (Figura 12.3) muestra que
este metodo se quedo atrapado en soluciones locales la mayorıa de las veces lo que
demuestra que este problema es multimodal por lo que se necesitaran metodos de
optimizacion global para poder asegurar la convergencia al optimo global.
0 10 20 30 40 500
5
10
15
20
25
30
35
Función objetivo
Fre
cuen
cia
Figura 12.3: Frecuencia de las soluciones de un SQP en
modo multi-start
El metodo SSm convergio a mejores soluciones que las encontradas por Mendes y
Kell (1998) en menos de 1500 simulaciones lo que confirma el buen comportamien-
to de este metodo incluso en problemas complejos de estimacion de parametros.
Ademas, cuando se compara con otros metodos estocasticos de demostrada eficacia
124 Capıtulo 12. Inhibicion de la proteasa del HIV
como SRES o DE, SSm alcanzo mejores soluciones con una aceleracion en el tiempo
de calculo de casi tres ordenes de magnitud (ver Figura 12.4).
100
102
104
106
10−2
10−1
100
101
102
Tiempo CPU (s)
Fun
ción
obj
etiv
oSRESDESSm
Figura 12.4: Curvas de convergencia de SRES, DE y SSm
A pesar de que SSm convergio en todas las optimizaciones a valores muy buenos
de la funcion objetivo (siempre inferiores al mejor valor publicado hasta el momen-
to), los valores de los parametros no siempre fueron los mismos lo que indica una
funcion objetivo muy plana en la region del espacio de parametros cerca del optimo.
En la Tabla 12.3 se ilustra este hecho mostrando el valor de los parametros corres-
pondientes a dos soluciones cuyo valor de la funcion objetivo es muy proximo siendo
los valores de los parametros significativamente diferentes.
La Figura 12.5 muestra el buen ajuste de los datos experimentales a las predic-
ciones del modelo obtenidas con el mejor vector encontrado por SSm (Solucion I). La
Figura 12.6 representa los residuos y en ella se puede apreciar la falta de correlacion
de los mismos con respecto al tiempo.
12.5. Identificabilidad a posteriori
La matriz de correlacion (ver Figura 12.7) ayuda a explicar la existencia de
multiples soluciones ya que existen valores de coeficientes de correlacion de R2,3 =
0.9999 entre algunos pares de parametros como k42 and k22 dando lugar a una matriz
casi singular (rcond(FIM) =1.7e-21). Esto da lugar a una funcion objetivo muy plana
y por lo tanto a la falta de identificabilidad del modelo.
12.5. Identificabilidad a posteriori 125
Parametro Solucion I (J=1.99e-2) Solucion II (J=2.03e-2)
k3 6.23e+0 5.66e+0
k42 8.77e+4 6.88e+2
k22 4.73e+2 1.21e+2
k52 9.73e-2 4.61e+0
k6 1.42e-2 3.53e+0
S0 (exp 1) 2.46e+1 2.47e+1
S0 (exp 2) 2.33e+1 2.34e+1
S0 (exp 3) 2.69e+1 2.71e+1
S0 (exp 4) 1.33e+1 1.71e+1
S0 (exp 5) 1.25e+1 1.45e+1
E0 (exp 1) 5.52e-3 5.40e-3
E0 (exp 2) 5.32e-3 5.20e-3
E0 (exp 3) 6.00e-3 6.00e-3
E0 (exp 4) 4.39e-3 4.26e-3
E0 (exp 5) 3.98e-3 3.97e-3
offset (exp 1) -4.34e-3 -5.61e-3
offset (exp 2) -1.58e-3 -4.25e-3
offset (exp 3) -1.12e-2 -1.52e-2
offset (exp 4) -1.66e-3 -9.65e-3
offset (exp 5) 7.13e-3 1.33e-3
Tabla 12.3: Valor de los parametros para dos resultados obtenidos con SSm
0 500 1000 1500 2000 2500 3000 3500 4000−0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
Tiempo (s)
Señ
al
Experimento 1Experimento 2Experimento 3Experimento 4Experimento 5
Figura 12.5: Datos experimentales versus
valores predichos por el modelo
0 500 1000 1500 2000 2500 3000 3500 4000−0.03
−0.02
−0.01
0
0.01
0.02
0.03
Tiempo (s)
Res
iduo
s
Experimento 1Experimento 2Experimento 3Experimento 4Experimento 5
Figura 12.6: Valores de los residuos en
funcion del tiempo
126 Capıtulo 12. Inhibicion de la proteasa del HIV
k3
k42
k22
k52
k6
S0(1)
E0(1)
offset(1)
S0(2)
E0(2)
offset(2)
S0(3)
E0(3)
offset(3)
S0(4)
E0(4)
offset(4)
S0(5)
E0(5)
offset(5)
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figura 12.7: Matriz de correlacion a posteriori
12.6. Intervalos de confianza
Los valores de los parametros correspondientes a la mejor solucion y sus inter-
valos de confianza del 95% obtenidos mediante la aproximacion de Cramer-Rao se
presentan en la Tabla 12.4. Como era de esperar, los parametros que presentaron
altas correlaciones como k42, k22, k52 y k6 son los que tienen los mayores intervalos
de confianza. El elevado valor de estos intervalos, demuestra nuevamente la falta de
identificabilidad de estos parametros.
12.7. Conclusiones
En este capıtulo se considero el problema de estimacion de parametros y concen-
traciones iniciales para un modelo de la inhibicion irreversible de la proteasa del HIV.
El metodo SSm demostro ser una estrategia muy eficaz para su resolucion alcanzando
valores muy buenos de la funcion objetivo en un tiempo de calculo muy razonable y
superando en mas de dos ordenes de magnitud los requerimientos computacionales
de otros metodo de optimizacion global como SRES, DE o Simulated Annealing.
12.7. Conclusiones 127
Parametro Valor optimo Int conf (95%)
k3 6.23e+0 3.25e+0
k42 8.77e+3 4.61e+4
k22 4.73e+2 6.25e+2
k52 9.73e-2 1.29e-1
k6 1.42e-2 1.03e-2
S0 (exp 1) 2.46e+1 7.82e-2
S0 (exp 2) 2.33e+1 1.35e+0
S0 (exp 3) 2.69e+1 1.22e+0
S0 (exp 4) 1.33e+1 1.82e+0
S0 (exp 5) 1.25e+1 1.81e+0
E0 (exp 1) 5.52e-3 1.97e-3
E0 (exp 2) 5.32e-3 1.31e-3
E0 (exp 3) 6.00e-3 1.11e-3
E0 (exp 4) 4.39e-3 8.69e-5
E0 (exp 5) 3.98e-3 8.84e-5
offset (exp 1) -4.34e-3 1.79e-3
offset (exp 2) -1.58e-3 2.97e-3
offset (exp 3) -1.12e-2 2.73e-3
offset (exp 4) -1.66e-3 1.88e-3
offset (exp 5) 7.13e-3 1.76e-3
Tabla 12.4: Valores e intervalos de confianza de los parametros optimos
Sin embargo, el analisis de identificabilidad a posteriori revelo altas correlaciones
entre ciertos pares de parametros. Esta falta de identificabilidad es el origen de las
multiples soluciones con capacidades predictivas equivalentes encontradas por los
metodos de optimizacion empleados aun siendo de naturaleza global. De este modo,
a pesar de que las predicciones del modelo se ajusten a los datos experimentales
empleados para su calibracion, los parametros ası obtenidos carecen de robustez y
no seran validos para predecir el comportamiento del modelo en condiciones expe-
rimentales diferentes.
Por este motivo, resulta imprescindible la realizacion de nuevos experimentos
mas informativos para obtener un modelo capaz de reproducir resultados en un
amplio rango de condiciones experimentales.
Capıtulo 13
Funcion de las caspasas en la
apoptosis
13.1. Introduccion
La apoptosis consiste en una cascada de reacciones enzimaticas que conduce a la
muerte celular programada o suicidio celular, un proceso que juega un importante
papel desde el desarrollo temprano hasta el envejecimiento. Las caspasas son unas
proteınas pertenecientes al grupo de las cisteın-proteasas, caracterizadas por presen-
tar un residuo de cisteına que media en la ruptura de otras proteınas. En el caso de
las caspasas el corte se produce al nivel de un residuo de aspartato de donde deriva
su nombre (cisteinil-aspartato proteasas). Estas enzimas son mediadoras esenciales
de los procesos de muerte celular programada y, una vez activadas, desmantelan la
celula mediante la ruptura selectiva de proteınas clave despues de residuos de aspar-
tato. Los eventos que culminan en la activacion de las caspasas estan sujetos a un
intenso estudio debido a su papel en el cancer y en enfermedades neurodegenerativas
y autoinmunes.
Fussenegger et al. (2000) presentaron un modelo matematico mecanıstico, descri-
biendo los elementos clave de la activacion de las caspasas por medio de receptores
y mecanismos inducidos por estres (ver Figura 13.1). Este grupo utilizo principios
de conservacion de masa junto con leyes sobre las velocidades cineticas para for-
mular un sistema de ecuaciones diferenciales que describe la evolucion temporal de
la activacion de las caspasas. El modelo consiste en 19 estados (concentraciones de
proteınas) y 11 velocidades de reaccion. Se simularon varias estrategias cualitativas
para la prevencion de la activacion de las caspasas mostrando concordancia con la
informacion disponible.
Gadkar et al. (2005) consideraron la identificacion de este modelo y generaron
129
130 Capıtulo 13. Funcion de las caspasas en la apoptosis
Activación inducida por el receptor
Activación inducida por estrés
Procaspasa-8Procaspasa-8
Procaspasa-9Procaspasa-9
Caspasa-8Caspasa-8
Caspasa-9Caspasa-9
FADDFADD
FAS/FASL
Citocroma - c
Citocroma - c
Caspasa-8
Caspasa-9
Ejecutor procaspasa
Ejecutor procaspasa
FLIP
Mitocondria
Ejecutor caspasa
Ejecutor caspasa
ARC
IAPs
Bcl-2
Bcl-xL
p53
Bcl-xL
Bax, bik, bad
División proteolítica
División proteolítica
zVAD-fmk
Apaf-1
Ruptura de proteínas
Figura 13.1: Esquema apoptosis (Fussengger et al., 2000)
datos pseudo-experimentales a partir de simulaciones de este sistema corrompiendo-
los con un 10 % de error y suponiendo que solo un conjunto de siete proteınas y
ninguna velocidad de reaccion podıa ser medido directamente. Este grupo propuso
un algoritmo iterativo para la identificacion del modelo que incluye el estudio de la
identificabilidad, la eliminacion de los parametros no identificables y la estimacion
de los parametros identificables. En el trabajo citado, se emplea un algoritmo basado
en el problema del regulador de estado (State Regulator Problem, SRP) para estimar
todas las concentraciones no medidas y las velocidades de reaccion a partir de los
estados medidos. De este modo, la calibracion fue realizada mediante la division de
los parametros en varios grupos, correspondiendo cada uno de ellos a los parametros
relacionados con una de las velocidades de reaccion, y resolviendo ası el problema de
estimacion de modo desacoplado con respecto a cada reaccion mediante un metodo
local basado en gradiente.
En este capıtulo, se considero este mismo modelo y se resolvio el problema de
estimacion de parametros asociado mediante tecnicas de optimizacion global ilus-
trando su superioridad frente a las tecnicas locales. El analisis de identificabilidad
practica permitira extraer conclusiones interesantes sobre el modelo.
13.2. Modelo matematico 131
13.2. Modelo matematico
El modelo de la apoptosis activada por caspasas propuesto por Fussenegger et al.
(2000) consiste en 19 estados (concentraciones de proteına) y 11 velocidades de reac-
cion con 27 parametros (11 constantes de reaccion y 16 constantes de saturacion).
Las ecuaciones del modelo pueden representarse como:
x1 = Ω1 − µx1 (13.1)
x2 = r1 − µx2 (13.2)
x3 = Ω3 − 2r2 − µx3 (13.3)
x4 = r2 − µx4 (13.4)
x5 = r10 − r3 − µx5 (13.5)
x6 = Ω6 − µx6 (13.6)
x7 = r3 − µx7 (13.7)
x8 = Ω8 − 2r4 − 2r6 − µx8 (13.8)
x9 = Ω9 − 2r5 − 2r7 − µx9 (13.9)
x10 = Ω10 − r8 − r9 − µx10 (13.10)
x11 = 2r4 + 2r6 − µx11 (13.11)
x12 = 2r5 + 2r7 − µx12 (13.12)
x13 = r8 + r9 − r11 − µx13 (13.13)
xk = Ωk − µxk k = 14, 15, ..., 19 (13.14)
donde xi denota la concentracion de la proteına i, rj denota la velocidad de reaccion
j, Ωk denota la velocidad de sıntesis de la proteına k y µ denota la velocidad de
degradacion del complejo proteınico. Las velocidades de reaccion se expresan del
siguiente modo:
r1 =kl(x1 − x2)L
K−1S + L
(13.15)
r2 = ka
[x3x2
(1 + KAx3 + KAKBx23)− x4
KAKBx3
](13.16)
r3 = kh
[x5x6
1 + KHx5 + KIx19
1+KJx17
− x7
KH
](13.17)
r4 =k8za1x
28x4
K−1C K−1
D + K−1D x8 + x2
8 + KF K−1C K−1
D x15 + KGK−1D x8x15
(13.18)
132 Capıtulo 13. Funcion de las caspasas en la apoptosis
r5 =k9za1x
29x7
K−1K K−1
L + K−1L x9 + x2
9 + KNK−1K K−1
L x16 + KOK−1L x9x16
(13.19)
r6 = k8za2x28 (13.20)
r7 = k9za2x29 (13.21)
r8 =k83ax10x11
K−1P + KRK−1
P x14 + x10
(13.22)
r9 =k93ax10x12
K−1P + KRK−1
P x14 + x10
(13.23)
r10 = αCE [υ (x13, x18) + υ (X, x18)] (13.24)
r11 = kux13[IAPs]
1 + KU [IAPs](13.25)
donde
L = concentracion de ligando libre (receptor) (13.26)
υ (x13, x18) =
1 ∀ x13
x18> 0.25
0 ∀ x13
x18≤ 0.25
(13.27)
υ (X, x18) =
1 ∀ X
x18> 0.025
0 ∀ Xx18
≤ 0.025
(13.28)
X = factor quımico/nutricional (estres) (13.29)
[IAPs]
1 + KU [IAPs]= 0.1765 (13.30)
13.3. Ranking de parametros
10 3 16 4 5 19 21 23 25 8 26 27 17 14 13 11 9 7 2 1 15 12 18 20 22 24 6 −1.5
−1
−0.5
0
0.5
1
1.5
Parámetros
Val
or d
el c
riter
io
dmsqr
dmabs
dmean
dmax
dmin
Figura 13.2: Parametros ordenados por orden decreciente de δmsqr
13.3. Ranking de parametros 133
En la Figura 13.2 se representa el valor de los criterios de los criterios descritos en
la seccion 3.3 para los 27 parametros del modelo. Los parametros aparecen en orden
decreciente de acuerdo con el criterio δmsqr y sus valores numericos se muestran en
la Tabla 13.1
Param pn Val nom δmsqr δmabs δmean δmax δmin
αCE p10 1.00e-1 3.34e-1 1.40e-1 1.20e-1 1.04e+0 -1.56e-1
kh p3 3.00e-1 2.23e-1 8.47e-2 5.81e-2 9.95e-1 -1.37e-1
KI p16 1.00e+2 2.09e-1 7.98e-2 -5.44e-2 1.34e-1 -9.48e-1
k8za1 p4 1.25e+0 2.07e-1 8.78e-2 -8.44e-3 7.65e-1 -5.65e-1
k9za1 p5 1.25e+0 2.07e-1 6.12e-2 3.37-2 9.68e-1 -2.20e-1
KS p19 1.00e+2 2.02e-1 8.53e-2 -8.23e-3 7.37e-1 -5.47e-1
KG p21 2.00e+3 1.99e-1 8.45e-2 8.15e-3 5.42e-1 -7.30e-1
KL p23 1.00e+2 1.98e-1 5.86e-2 3.22e-2 9.23e-1 -2.11e-1
KO p25 2.00e+3 1.97e-1 5.82e-2 -3.20e-2 2.10e-1 -9.18e-1
k83a p8 5.00e-1 1.87e-1 5.37e-2 -2.19e-2 8.57e-1 -8.79e-1
Kp p26 1.50e+0 1.86e-1 5.33e-2 -2.38e-2 6.23e-1 -8.13e-1
KR p27 5.00e+0 1.42e-1 4.07e-2 1.80e-2 6.18e-1 -4.97e-1
KJ p17 5.00e+0 1.28e-1 4.80e-2 3.32e-2 6.81e-1 -7.49e-2
KB p14 1.00e+2 9.25e-2 3.02e-2 -1.73e-2 8.64e-2 -3.97e-1
KA p13 1.00e-1 8.93e-2 2.92e-2 -1.67e-2 8.33e-2 -3.83e-1
ku p11 1.10e-1 5.21e-2 1.16e-2 -1.16e-2 0.00e+0 -2.76e-1
k93a p9 5.00e-1 4.35e-2 1.04e-2 -5.87e-3 5.84e-2 -2.70e-1
k9za2 p7 1.00e-5 3.60e-2 2.33e-3 2.20e-3 9.97e-1 -9.18e-4
ka p2 2.00e+0 1.89e-2 7.07e-3 -2.84e-3 1.49e-1 -7.73e-2
kI p1 2.00e+0 1.69e-2 7.14e-3 6.49e-4 1.41e-1 -5.88e-2
KH p15 1.00e+1 1.23e-2 3.82e-3 -1.77e-3 3.51e-2 -6.98e-2
KS p12 1.00e+1 1.02e-2 3.80e-3 2.80e-4 1.20e-1 -5.00e-2
KC p18 1.00e+2 1.93e-3 8.20e-4 -8.22e-5 6.46e-3 -5.05e-3
KF p20 2.00e+3 1.93e-3 8.20e-4 8.22e-5 5.05e-3 -6.46e-3
KK p22 1.00e+2 1.16e-3 3.45e-4 1.89e-4 5.30e-3 -1.31e-3
KN p24 2.00e+3 1.16e-3 3.45e-4 -1.89e-4 1.31e-3 -5.29e-3
k8za2 p6 1.00e-5 9.28e-5 3.83e-5 -3.28e-6 5.06e-4 -2.87e-4
Tabla 13.1: Valores para el ranking de parametros
Estos resultados reflejan grandes diferencias en los valores de δmsqr para los
distintos parametros lo que indica que la salida del modelo es muy sensible a unos
134 Capıtulo 13. Funcion de las caspasas en la apoptosis
y poco sensible a otros. Entre δmsqr y δmabs no hay grandes diferencias lo que indica
que no existe mucha variabilidad en las sensibilidades de los distintos estados con
respecto a un mismo parametro (Sj). Una comparacion de δmax y δmin indica que
todos los parametros presentan sensibilidades tanto positivas como negativas.
13.4. Estimacion de parametros
Para poder comparar nuestros resultados con los publicados anteriormente, se
consideraron las condiciones del caso 3 de Gadkar et al. (2005). De este modo, los
datos pseudo-experimentales fueron obtenidos mediante simulacion a partir de los
valores de los parametros nominales a los que se anadio un 10% de error. Mediante el
computo de la matriz de correlacion a priori (ver seccion 4.2) se comprobo que el con-
junto de los 27 parametros del modelo no es identificable por lo que se considero un
conjunto de 18 parametros identificables a priori cuyo valor nominal ası como sus
lımites superior e inferior se muestran en la Tabla 13.2.
Param pn Val nom Lim inf Lim sup
kI p1 2.00e+0 0.00e+0 1.00e+1
ka p2 2.00e+0 1.00e-1 1.00e+1
kh p3 3.00e-1 1.00e-1 2.00e+0
k8za1 p4 1.25e+0 1.00e-1 1.00e+1
k9za1 p5 1.25e+0 1.00e-1 1.00e+1
k83a p8 5.00e-1 1.00e-1 1.00e+1
k93a p9 5.00e-1 1.00e-1 1.00e+1
αCE p10 1.00e-1 0.00e+0 1.00e+0
ku p11 1.10e-1 0.00e+0 1.00e+0
KS p12 1.00e+1 1.00e-1 1.00e+2
KA p13 1.00e-1 1.00e-2 1.00e+1
KH p15 1.00e+1 1.00e-1 1.00e+3
KI p16 1.00e+2 1.00e-1 1.00e+3
KS p19 1.00e+2 1.00e-1 1.00e+3
KG p21 2.00e+3 1.00e-2 2.00e+6
KO p25 2.00e+3 1.00e-1 1.00e+4
Kp p26 1.50e+0 5.00e-2 1.00e+2
KR p27 5.00e+0 1.00e-2 2.00e+1
Tabla 13.2: Valores nominales y lımites para los 18 parametros
13.4. Estimacion de parametros 135
Se consideraron las mismas concentraciones iniciales de proteınas que las nominales
(cero para x2, x4, x5, x7, x11, x12 y x13 y uno para el resto) perturbadas con un error
del 25%. Las medidas se tomaron cada cinco minutos durante un tiempo total de
simulacion de 100 minutos. Las proteınas medidas son x2, x3, x4, x5, x7, x10 y x12.
En un primer momento el problema fue resuelto con un metodo de SQP en
modo multi-start. En la Figura 13.3 se representa el histograma de frecuencia de las
soluciones estando todas ellas lejos del optimo global. La convergencia a mınimos
locales de los metodos de esta naturaleza resulta una clara motivacion para el uso
de estrategias globales con mas garantıas de convergencia a la solucion global.
0 5 10 15 20 250
2
4
6
8
10
12
14
16
18
Función objetivo
Fre
cuen
cia
Figura 13.3: Frecuencia de las soluciones de un SQP en
modo multi-start
Por este motivo, el problema de estimacion fue tambien resuelto con los metodos
globales SRES, DE y SSm. El metodo DE no alcanzo la solucion global mientras que
SRES y SSm convergieron a valores muy buenos de la funcion objetivo aunque el
tiempo de calculo requerido por SSm fue de menos de 10 segundos, mas de un orden
de magnitud inferior al requerido por SRES.
A pesar de que para la estimacion solamente se consideraron los datos pseudo-
experimentales correspondientes a la concentracion de siete proteınas, el ajuste de
todos los estados es bueno como muestra la Figura 13.6. El valor de las velocidades
de reaccion predicho por el modelo tambien se ajusta bien a los valores teoricos a
pesar de que estos no hayan sido empleados para la estimacion (ver Figura 13.5).
136 Capıtulo 13. Funcion de las caspasas en la apoptosis
100
101
102
103
100
101
102
Tiempo CPU (s)
Fun
ción
obj
ectiv
o
DESRESSSm
Figura 13.4: Curvas de convergencia de SRES, DE y SSm
0 50 1000
0.05
0.1
0.15
0.2
0.25
Tiempo (min)
r 1
0 50 1000
0.05
0.1
0.15
0.2
Tiempo (min)
r 2
0 50 1000
0.005
0.01
0.015
Tiempo (min)
r 3
0 50 1000
0.01
0.02
0.03
Tiempo (min)
r 4
0 50 1000
0.005
0.01
0.015
Tiempo (min)
r 5
0 50 1000.6
0.8
1
1.2
1.4x 10−5
Tiempo (min)
r 6
0 50 1001
1.5
2
2.5
3
3.5x 10−5
Tiempo (min)
r 7
0 50 1000
0.02
0.04
0.06
0.08
0.1
Tiempo (min)
r 8
0 50 1000
0.01
0.02
0.03
Tiempo (min)
r 9
0 50 1000
0.05
0.1
0.15
0.2
Tiempo (min)
r 10
0 50 1000
0.01
0.02
0.03
0.04
0.05
Tiempo (min)
r 11
Figura 13.5: Valores predichos versus datos pseudo-experimentales
para las 11 velocidades de reaccion
13.5. Identificabilidad a posteriori 137
0 50 1001
1.5
2
2.5
Tiempo (min)
x 1
0 50 1000
0.5
1
1.5
2
2.5
Tiempo (min)
x 2
0 50 1000.2
0.4
0.6
0.8
1
Tiempo (min)
x 3
0 50 1000
0.2
0.4
0.6
0.8
1
Tiempo (min)
x 4
0 50 1000
0.5
1
1.5
2
Tiempo (min)
x 5
0 50 1001
1.5
2
2.5
Tiempo (min)
x 6
0 50 1000
0.05
0.1
0.15
0.2
0.25
Tiempo (min)
x 7
0 50 100
0.8
1
1.2
1.4
Tiempo (min)
x 8
0 50 1001
1.2
1.4
1.6
1.8
2
Tiempo (min)
x 9
0 50 1000
0.5
1
1.5
Tiempo (min)
x 10
0 50 1000
0.5
1
1.5
Tiempo (min)
x 11
0 50 1000
0.1
0.2
0.3
0.4
0.5
Tiempo (min)
x 12
0 50 1000
0.5
1
1.5
Tiempo (min)
x 13
0 50 1000.5
0.6
0.7
0.8
0.9
1
Tiempo (min)
x 14
0 50 100
1.4
1.6
1.8
2
2.2
Tiempo (min)
x 15
0 50 1001
1.5
2
2.5
Tiempo (min)
x 16
0 50 1000
0.2
0.4
0.6
0.8
Tiempo (min)
x 17
0 50 1000.5
1
1.5
2
2.5
Tiempo (min)
x 18
0 50 100
0.8
1
1.2
1.4
1.6
Tiempo (min)
x 19
Figura 13.6: Valores predichos versus datos pseudo-experimentales
para las 19 concentraciones de proteına
13.5. Identificabilidad a posteriori
A pesar de que el ajuste es bastante bueno, a la hora de realizar el estudio de
identificabilidad a posteriori, la matriz de informacion de Fisher resulto ser singular
138 Capıtulo 13. Funcion de las caspasas en la apoptosis
lo que significa que los parametros considerados no son identificables a partir de
la informacion disponible. De hecho, al llevar a cabo multiples optimizaciones con
los metodos globales, el valor de la funcion objetivo fue siempre muy parecido pero
los parametros correspondientes resultaron ser diferentes de cada vez. Esto significa
que hay multiples combinaciones de parametros que proporcionan el mismo ajuste
de los datos experimentales. Sin embargo, solo uno o ninguno de estos conjuntos
de parametros seran capaces de reproducir los resultados del modelo en condiciones
experimentales diferentes.
Dado que la FIM es singular, no se puede realizar un diseno optimo de expe-
rimentos ya que el punto inicial no es siquiera factible. Por lo tanto, con objeto de
disminuir los problemas de identificabilidad practica, se considero un experimento
similar al anterior pero en donde se midio la concentracion de todas las proteınas.
Para ese caso los metodos de optimizacion global funcionaron de modo analogo
encontrando un conjunto de parametros que ajustan muy bien los datos pseudo-
experimentales. La matriz de informacion de Fisher para este experimento ya no
es singular pero sigue estando muy mal condicionada (rcond = 7.7e-19) habiendo
pares de parametros muy correlacionados (R3,15 = 0.998, R3,16 = 0.999) como puede
verse representado en la Figura 13.7.
1 2 3 4 5 8 9 10111213151619212526271234589
1011121315161921252627
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
Figura 13.7: Matriz de correlacion a posteriori
13.6. Intervalos de confianza 139
13.6. Intervalos de confianza
Para el caso de siete estados medidos, los intervalos de confianza de Cramer-Rao
no pueden ser calculados ya que la FIM es singular y estos requieren la inversion
de la misma.
Los parametros optimos y los intervalos de confianza del 95 % obtenidos median-
te a aproximacion de Cramer-Rao para el experimento en el que se miden todos los
estados se muestran en la Tabla 13.3. Como puede apreciarse, los intervalos de con-
fianza son muy elevados para todos los parametros que presentan altas correlaciones
con otros lo que significa que estos fueron estimados con muy poca precision.
Param pn Valor optimo Int conf (95 %)
kI p1 8.41e-1 4.40e-1
ka p2 1.54e+0 5.70e-1
kh p3 1.05e-1 1.05e+1
k8za1 p4 9.95e+0 7.01e+3
k9za1 p5 1.88e+0 3.48e+2
k83a p8 5.54e+0 1.37e+3
k93a p9 7.95e+0 1.99e+3
αCE p10 9.71e-2 4.13e-3
ku p11 1.10e-1 2.50e-2
KS p12 6.08e+1 8.23e+1
KA p13 1.13e-1 3.57e-2
KH p15 3.78e+0 4.54e+2
KI p16 3.20e+1 3.49e+3
KS p19 1.87e+2 2.58e+6
KG p21 2.90e+4 4.21e+8
KO p25 3.19e+3 6.09e+5
Kp p26 1.46e-1 2.93e+1
KR p27 7.91e+0 5.13e+2
Tabla 13.3: Valores e intervalos de confianza de los
parametros optimos
140 Capıtulo 13. Funcion de las caspasas en la apoptosis
13.7. Conclusiones
En este capıtulo se considero la estimacion de parametros en un modelo que
describe los elementos clave de la activacion de las caspasas. El empleo de metodos
globales permitio realizar un buen ajuste de los datos experimentales. El metodo
SSm resulto ser mucho mas rapido que otras tecnicas globales de probada eficacia.
Sin embargo, el analisis de la identificabilidad a posteriori, demostro la existen-
cia de graves problemas de identificabilidad por lo que no se puede asegurar que los
parametros estimados puedan reproducir el comportamiento del sistema en condi-
ciones experimentales diferentes.
Capıtulo 14
Ruta bioquımica en tres pasos
14.1. Introduccion
La construccion de modelos dinamicos de rutas bioquımicas es un punto clave pa-
ra el desarrollo de modelos celulares y de organismos completos. Estas herramientas
pueden dar lugar, en ultima instancia, a medicina predictiva y/o preventiva basada
en modelos.
Los recientes trabajos de Sugimoto et al. (2005), Voit y Almeida (2004) y Poli-
setty et al. (2006) demuestran el interes creciente por llevar a cabo la identificacion
de modelos de rutas bioquımicas. En Moles et al. (2003b) se considera un conjun-
to seleccionado de metodos estocasticos y deterministas de optimizacion global que
pueden manejar modelos tipo caja negra para resolver el problema de estimacion de
parametros de una ruta bioquımica empleado como problema de referencia (ver Fi-
gura 14.1). Solamente un cierto tipo de metodos estocasticos de optimizacion global,
las estrategias evolutivas, fueron capaces de resolver con exito el problema inverso
asociado aunque con un esfuerzo de calculo muy elevado, especialmente cuando se
requiere una gran precision para la solucion.
Con objeto de acelerar los metodos de optimizacion global estocasticos mante-
niendo su robustez, las estrategias hıbridas tratan de combinar ambas metodologıas
de un modo adecuado (sinergico) para beneficiarse de sus ventajas reduciendo, o
eliminando, sus limitaciones. En este capıtulo se utilizo el metodo hıbrido secuencial
en dos fases, estocastico-determinista presentado en la seccion 7.3. Con objeto de
incrementar todavıa mas la eficiencia computacional y de comparar ambas aproxi-
maciones, tambien se empleo el metodo hıbrido paralelo sincronico basado en Scatter
Search presentado en la seccion 7.4, SSm.
141
142 Capıtulo 14. Ruta bioquımica en tres pasos
S M1 M2 P
E1 E2 E3
G1 G2 G3
Figura 14.1: Esquema de reaccion para la ruta bioquımica en tres pasos
14.2. Modelo matematico
La formulacion matematica del modelo dinamico no lineal descrito por ocho
ODEs consta de 36 parametros y viene dada por (Moles et al., 2003b):
dG1
dt=
V1
1 +(
PKi1
)ni1+
(Ka1
S
)na1
− k1 G1 (14.1)
dG2
dt=
V2
1 +(
PKi2
)ni2+
(Ka2
M1
)na2− k2 G2 (14.2)
dG3
dt=
V3
1 +(
PKi3
)ni3+
(Ka3
M2
)na3− k3 G3 (14.3)
dE1
dt=
V4 G1
K4 + G1
− k4 E1 (14.4)
dE2
dt=
V5 G2
K5 + G2
− k5 E2 (14.5)
dE3
dt=
V6 G3
K6 + G3
− k6 E3 (14.6)
dM1
dt=
kcat1 E1
(1
Km1
)(S −M1)
1 + SKm1
+ M1
Km2
−kcat2 E2
(1
Km3
)(M1 −M2)
1 + M1
Km3+ M2
Km4
(14.7)
dM2
dt=
kcat2 E2
(1
Km3
)(M1 −M2)
1 + M1
Km3+ M2
Km4
−kcat3 E3
(1
Km5
)(M2 − P )
1 + M2
Km5+ P
Km6
(14.8)
14.3. Ranking de parametros 143
donde M1, M2, E1, E2, E3, G1, G2 y G3 representan la concentracion de las 8 especies
implicadas en las diferentes reacciones bioquımicas. La concentracion del sustrato
S y del producto P actuan como variables de control y se consideran constantes
para cada experimento (su concentracion inicial es lo suficientemente elevada como
para considerar despreciable su variacion en relacion con la variacion de las demas
especies). Las condiciones iniciales para cada estado (y para todos los experimentos)
aparecen en la Tabla 14.1.
Especie Concentracion
G1 6.6667e-1
G2 5.7254e-1
G3 4.1758e-1
E1 4.0000e-1
E2 3.6409e-1
E3 2.9457e-1
M1 1.4190e+0
M2 9.3464e-1
Tabla 14.1: Valores iniciales para los 8 estados
14.3. Ranking de parametros
El valor de los cinco criterios descritos en la seccion 3.3 se muestran en la Tabla
14.2 donde los parametros aparecen en orden decreciente de acuerdo con el criterio
δmsqr. Los valores de los cinco criterios para los 36 parametros se representan en la
Figura 14.2.
Estos resultados reflejan que, a pesar de diferencias de mas de dos ordenes de
magnitud en δmsqr, la salida del modelo es considerablemente sensible a todos los
parametros. Para algunos parametros existen diferencias bastante grandes entre
δmsqry δmabs lo que indica una variabilidad relativamente elevada y/o la existen-
cia de valores extremos (outliers) en Sj. Una comparacion de δmax y δmin indica
que todos los parametros presentan sensibilidades tanto positivas como negativas
aunque, como puede verse por el signo de δmean, el efecto global es positivo para 16
parametros y negativo para los otros 20.
144 Capıtulo 14. Ruta bioquımica en tres pasos
Parametro pnumero δmsqr δmabs δmean δmax δmin
na1 p5 2.61e-1 3.81e-1 -2.42e-1 2.83e-1 -1.44e+0
na2 p11 1.80e-1 2.38e-1 -1.89e-1 1.73e-1 -1.08e+0
na3 p17 1.62e-1 2.39e-1 -1.45e-1 2.21e-1 -1.05e+0
Ka1 p4 1.42e-1 2.52e-1 -1.99e-1 1.16e-1 -9.67e-1
Ka2 p10 1.32e-1 2.32e-1 -2.17e-1 6.26e-2 -1.09e+0
k4 p21 1.21e-1 3.00e-1 -1.21e-1 3.30e-1 -1.39e+0
Ka3 p16 1.19e-1 2.59e-1 -1.50e-1 2.55e-1 -1.20e+0
k1 p6 1.11e-1 2.74e-1 -2.27e-1 8.32e-2 -1.47e+0
V 1 p1 1.08e-1 2.61e-1 2.31e-1 1.00e+0 -6.39e-2
k2 p12 1.07e-1 2.43e-1 -2.21e-1 9.66e-2 -1.07e+0
V 2 p7 1.06e-1 2.40e-1 2.19e-1 1.02e+0 -9.61e-2
k6 p27 9.68e-2 2.29e-1 1.57e-2 5.65e-1 -9.96e-1
k5 p24 9.58e-2 1.98e-1 -1.47e-1 1.94e-1 -1.22e+0
k3 p18 9.37e-2 2.23e-1 -1.28e-1 2.57e-1 -1.03e+0
V 3 p13 9.31e-2 2.21e-1 1.29e-1 9.92e-1 -2.47e-1
V 4 p19 8.88e-2 2.10e-1 1.61e-1 9.99e-1 -9.08e-2
V 5 p22 8.53e-2 1.80e-1 1.34e-1 9.84e-1 -1.65e-1
V 6 p25 8.31e-2 1.99e-1 -1.50e-4 8.10e-1 -4.49e-1
kcat1 p28 7.40e-2 1.85e-1 -1.04e-2 2.73e-1 -4.61e-1
kcat3 p34 7.18e-2 1.74e-1 -1.52e-1 3.09e-2 -6.72e-1
K4 p20 6.44e-2 1.47e-1 -1.04e-1 7.97e-2 -7.47e-1
K6 p26 6.39e-2 1.52e-1 -3.66e-3 3.21e-1 -6.44e-1
K5 p23 6.30e-2 1.27e-1 -9.63e-2 1.07e-1 -7.39e-1
Km1 p29 6.00e-2 1.31e-1 4.96e-2 4.20e-1 -1.22e-1
Km5 p35 4.94e-2 1.15e-1 9.86e-2 4.20e-1 -2.30e-2
Ki2 p8 4.02e-2 4.95e-2 4.49e-2 2.41e-1 -2.07e-2
Ki3 p14 3.93e-2 4.84e-2 3.92e-2 2.18e-1 -3.52e-2
Ki1 p2 3.75e-2 4.34e-2 4.09e-2 1.74e-1 -4.05e-3
kcat2 p31 3.27e-2 8.54e-2 2.18e-2 2.52e-1 -1.86e-1
Km2 p30 2.22e-2 5.37e-2 -8.38e-3 7.36e-2 -1.72e-1
Km3 p32 1.80e-2 4.94e-2 -1.19e-2 1.02e-1 -1.45e-1
ni1 p3 8.41e-3 1.06e-2 1.05e-2 4.13e-2 -3.00e-4
Km4 p33 7.48e-3 1.94e-2 5.25e-3 6.20e-2 -4.38e-2
ni2 p9 7.46e-3 9.28e-3 8.21e-3 5.41e-2 -5.29e-3
Km6 p36 6.34e-3 1.65e-2 -9.16e-3 9.81e-3 -5.53e-2
ni3 p15 4.97e-3 6.24e-3 3.15e-3 3.79e-2 -1.04e-2
Tabla 14.2: Valores para el ranking de parametros
14.4. Estimacion de parametros 145
5 11 17 4 10 21 16 6 1 12 7 27 24 18 13 19 22 25 28 34 20 26 23 29 35 8 14 2 31 30 32 3 33 9 36 15−1.5
−1
−0.5
0
0.5
1
1.5
Parámetros
Val
or d
el c
riter
io
dmsqr
dmabs
dmean
dmax
dmin
Figura 14.2: Parametros ordenados por orden decreciente de δmsqr
14.4. Estimacion de parametros
El problema de optimizacion consiste en ajustar los 36 parametros del modelo
matematico, que estan divididos en dos clases diferentes: seis que pueden variar en
el rango (0.1, 10), y todos los demas, que pueden variar en el rango (10−12, 103) (ver
Tabla 14.3).
Con el fin de estudiar el comportamiento de las diferentes tecnicas para la re-
solucion del problema inverso se generaron datos pseudo-experimentales mediante
simulacion a partir de un conjunto determinado de parametros considerados como
los verdaderos o valores nominales (ver Tabla 14.3). De este modo, las medidas
pseudo-experimentales de las concentraciones de las especies de metabolitos, pro-
teınas y RNA mensajero, correspondientes a las ocho especies implicadas en las
diferentes reacciones bioquımicas descritas, son el resultado de 16 experimentos di-
ferentes (simulaciones) con distintas concentraciones iniciales de sustrato (S) y de
producto (P ). Los valores de S y P correspondientes a cada experimento para el
diseno original y para el diseno optimo se muestran en la Tabla 14.4.
En una primera etapa los datos simulados corresponden a resultados exactos,
146 Capıtulo 14. Ruta bioquımica en tres pasos
Parametros pnumero Val. nom. Lımite inf. Lımite sup.
V1 p1 1 1e-12 1e+3
Ki1 p2 1 1e-12 1e+3
ni1 p3 2 1e-1 1e+1
Ka1 p4 1 1e-12 1e+3
na1 p5 2 1e-1 1e+1
k1 p6 1 1e-12 1e+3
V2 p7 1 1e-12 1e+3
Ki2 p8 1 1e-12 1e+3
ni2 p9 2 1e-1 1e+1
Ka2 p10 1 1e-12 1e+3
na2 p11 2 1e-1 1e+1
k2 p12 1 1e-12 1e+3
V3 p13 1 1e-12 1e+3
Ki3 p14 1 1e-12 1e+3
ni3 p15 2 1e-1 1e+1
Ka3 p16 1 1e-12 1e+3
na3 p17 2 1e-1 1e+1
k3 p18 1 1e-12 1e+3
V4 p19 0.1 1e-12 1e+3
K4 p20 1 1e-12 1e+3
k4 p21 0.1 1e-12 1e+3
V5 p22 0.1 1e-12 1e+3
K5 p23 1 1e-12 1e+3
k5 p24 0.1 1e-12 1e+3
V6 p25 0.1 1e-12 1e+3
K6 p26 1 1e-12 1e+3
k6 p27 0.1 1e-12 1e+3
kcat1 p28 1 1e-12 1e+3
Km1 p29 1 1e-12 1e+3
Km2 p30 1 1e-12 1e+3
kcat2 p31 1 1e-12 1e+3
Km3 p32 1 1e-12 1e+3
Km4 p33 1 1e-12 1e+3
kcat3 p34 1 1e-12 1e+3
Km5 p35 1 1e-12 1e+3
Km6 p36 1 1e-12 1e+3
Tabla 14.3: Valores nominales y lımites para los 36 parametros
14.4. Estimacion de parametros 147
Concentracion de S Concentracion de P
Experimento 1 0.1 0.05
Experimento 2 0.1 0.13572
Experimento 3 0.1 0.36840
Experimento 4 0.1 1.0
Experimento 5 0.46416 0.05
Experimento 6 0.46416 0.13572
Experimento 7 0.46416 0.36840
Experimento 8 0.46416 1.0
Experimento 9 2.1544 0.05
Experimento 10 2.1544 0.13572
Experimento 11 2.1544 0.36840
Experimento 12 2.1544 1.0
Experimento 13 10 0.05
Experimento 14 10 0.13572
Experimento 15 10 0.3684
Experimento 16 10 1.0
Tabla 14.4: Valores de S y P (10 experimentos)
es decir, medidas sin ruido (conjunto de datos pseudo-experimentales I). A conti-
nuacion, se anadieron errores relativos, normalmente distribuidos, de un 3% y un
5% a los datos resultantes de la simulacion dando lugar a los conjuntos de datos
pseudo-experimentales II y III, respectivamente:
z∗ (i) = z (i)± σν (14.9)
donde ν representa la variable normalmente distribuida con media cero y desviacion
estandar igual a la unidad y σ son las desviaciones estandar de los errores anadidos a
z∗. El error relativo (r) se utiliza para definir estas desviaciones estandar σ = rz (i).
Resultados de los metodos locales
En una primera aproximacion, se intento resolver el problema empleando varios
metodos locales (n2fb, NOMADm y solnp) llegando a la conclusion de que ninguno
de ellos es capaz de resolver el problema satisfactoriamente si no se inicializa en un
punto muy proximo al verdadero valor de los parametros. Ademas, la aproximacion
multi-start tradicional (es decir, elegir un gran numero de valores iniciales aleatorios
148 Capıtulo 14. Ruta bioquımica en tres pasos
dentro de los lımites de los parametros y realizar la busqueda local desde cada uno
de ellos) dio lugar a un gran numero de soluciones locales. En la Figura 14.3, se
puede observar el histograma de frecuencias para el metodo n2fb en modo multi-
start donde la mayor parte de las soluciones estan lejos del optimo global que no se
alcanzo en ninguna ocasion.
0 200 400 600 800 1000 12000
5
10
15
20
25
30
Función Objetivo
Fre
cuen
cia
Figura 14.3: Frecuencia de las soluciones de n2fb en modo multi-start
Esto lleva a confirmar la idea de que solo los metodos de optimizacion global son
adecuados para resolver esta clase de problemas.
Resultados del metodo hıbrido SRES-n2fb
Los resultados obtenidos con el hıbrido SRES-n2fb mejoraron significativamente
los resultados de Moles et al. (2003b) utilizando SRES solo. En concreto, el tiempo
computacional se redujo en un orden de magnitud (de un rango de 35-40 a 2-3
horas, empleando 5 optimizaciones con cada aproximacion) y, simultaneamente, se
obtuvo un valor de la funcion objetivo mucho mejor (en el caso de conjunto de datos
I, el valor final de la funcion objetivo se redujo de 10−3 a 10−7). Esto se muestra
claramente en la Figura 14.8, donde se comparan las curvas de convergencia (valor
de la funcion objetivo frente al tiempo computacional, en escala logarıtmica) del
metodo SRES y del hıbrido SRES-n2fb (para este ultimo, la fase estocastica global y
la local se representan con distinto tipo de lınea). Notese que, para esta grafica, el
metodo hıbrido fue inicializado a proposito en un punto peor (es decir, con un valor
14.4. Estimacion de parametros 149
mayor de la funcion objetivo) que el metodo SRES. A pesar de esta ventaja inicial,
puede verse como la fase local del hıbrido proporciona una convergencia mucho mas
rapida a una solucion mejor, dando lugar a una aceleracion total de un orden de
magnitud.
Basandose en la observacion de la Figura 14.8, serıa natural argumentar que un
cambio mas temprano de la busqueda estocastica a la fase local del hıbrido podrıa
dar lugar a una aceleracion todavıa mayor. Sin embargo, como ya se discutio en
la seccion 7.3, si el cambio se realiza demasiado pronto, este podrıa dar lugar a la
convergencia a una solucion local, es decir, un punto de cambio anterior tiene mayor
probabilidad de estar fuera de la zona de atraccion de la solucion global. Este efecto
se ilustra en la Figura 14.4 donde se representan tres busquedas locales realizadas a
partir de diferentes puntos de la misma busqueda global. Las flechas indican el punto
de cambio a lo largo de la curva de convergencia de SRES (lınea contınua), mientras
que la convergencia de n2fb para cada punto se representa por lıneas discontinuas.
Las dos primeras, senaladas con (a), convergieron a soluciones locales, mientras que
la ultima, senalada con (b), alcanza la solucion optima global.
0 2000 4000 6000 8000 10000 1200010
−8
10−6
10−4
10−2
100
102
104
Tiempo CPU (s)
Fun
ción
obj
etiv
o
(a)
(b)
Figura 14.4: Efecto del punto de cambio en la convergencia del hıbrido
Obviamente, el tamano de la zona de atraccion, o en general, la topologıa del
espacio de busqueda, es dependiente del problema. Por lo tanto, encontrar un punto
de cambio adecuado que de lugar a la mejor relacion eficiencia/robustez requiere
unos cuantos ensayos preliminares. De todos modos, una vez que esto se ha llevado
a cabo (y el tiempo computacional no es prohibitivo), nuestra experiencia demuestra
150 Capıtulo 14. Ruta bioquımica en tres pasos
que el hıbrido ajustado puede ser aplicado a otros conjuntos de datos, o incluso a
modelos ligeramente diferentes, sin ajuste adicional.
Para el conjunto de datos I, el mejor resultado (J=1.54e-7) se obtuvo despues de
un tiempo de calculo de 3.1 horas. Para el conjunto de datos pseudo-experimentales
II (3% de error) el mejor resultado (J = 1.25) se obtuvo despues de un tiempo de
calculo de 3.4 horas y para el conjunto de datos pseudo-experimentales III (5% de
error) se alcanzo un valor de la funcion objetivo J = 3.27 en un tiempo de calculo
total de 3.5 horas. En la Tabla 14.5 se muestran los valores del tiempo computacional
y de la funcion objetivo en cada una de las etapas del metodo hıbrido (punto inicial,
punto de cambio y resultado final) para los tres conjuntos de datos.
Conjunto I Conjunto II Conjunto III
J tCP U(h) J tCP U(h) J tCP U(h)
Punto inicial 1180 0 1116 0 1100 0
Primera etapa 48.2 1.55 34.9 2.50 44.6 2.09
Segunda etapa 1.54e-7 1.59 1.25 0.93 3.27 1.39
Final 1.54e-7 3.14 1.25 3.43 3.27 3.47
Tabla 14.5: Evolucion de SRES-n2fb para los conjunto de datos I y II
Este metodo hıbrido converge siempre a la solucion global si la segunda fase
(metodo n2fb) se inicializa desde un punto lo suficientemente cercano a la solucion
global. En este caso (y como confirman los puntos de cambio para la mejor solucion
de cada uno de los tres conjuntos de datos) se puede considerar J < 35 como criterio
de parada para la primera etapa para asegurar la convergencia. Ademas, siempre
se puede asegurar la convergencia a resultados mejores que los de cualquier meto-
do local (incluso en modo multi-start) en un tiempo computacional relativamente
pequeno.
Para dar una medida cuantitativa de la calidad de las soluciones obtenidas con
el metodo hıbrido para los tres conjuntos de datos, se calcularon los errores relativos
de los parametros estimados con respecto a los parametros nominales (verdaderos).
En el caso de los datos sin error (conjunto I), el hıbrido recupera el valor de todos
los parametros con un error relativo muy bajo (practicamente se puede decir que
recupera los valores exactos de los parametros verdaderos). En el caso de datos con
ruido, que son mucho mas realistas, las Figuras 14.5 y 14.6 muestran como el error
puede ser de hasta un 20% para ciertos parametros, pero que para la mayorıa de
ellos es bastante inferior al 10%, que es un resultado muy satisfactorio. En cualquier
caso, como se discutira mas adelante, este problema (debido al diseno experimental
14.4. Estimacion de parametros 151
considerado) presenta ciertas dificultades con respecto a su identificabilidad que
pueden explicar en parte esos errores.
5 10 15 20 25 30 35−25
−20
−15
−10
−5
0
5
10
15
20
25
Parámetro
erro
r re
lativ
o (%
)
Figura 14.5: Error relativo considerando
el conjunto de datos II (3 % de error)
5 10 15 20 25 30 35−25
−20
−15
−10
−5
0
5
10
15
20
25
Parámetro
erro
r re
lativ
o (%
)
Figura 14.6: Error relativo considerando
el conjunto de datos III (5 % de error)
La Figura 14.4 muestra los valores M1, M2, E1, E2, E3, G1, G2 y G3 teoricos
(lınea continua) frente a sus experimentales (marcador) considerando los mejores
parametros estimados por el metodo hıbrido secuencial para el conjunto de datos
III en cada uno de los 16 experimentos. Notese que existe una muy buena correlacion
entre los datos experimentales y los predichos incluso para el conjunto de datos con
mas ruido. El comportamiento para los otros dos conjuntos de datos es similar por
lo que se omitio su representacion.
Resultados del metodo SSm
Como se puede apreciar en la Figura 14.8 el metodo hıbrido paralelo sincronico,
SSm, fue capaz de mejorar el resultado del metodo hıbrido secuencial SRES-n2fb en
un orden de magnitud con respecto al tiempo computacional. Ademas, SSm presenta
la ventaja de no requerir ningun ensayo preliminar para el ajuste del metodo, lo que
hace que sea una estrategia muy facil de usar. En resumen, empleando SSm se redujo
el tiempo computacional de dos dıas (Moles et al., 2003b) a un par de minutos,
asegurando la robustez.
152 Capıtulo 14. Ruta bioquımica en tres pasos
0 20 40 60 80 100 1200
1
2
3
4
5
6
M1
Tiempo (min)
0 20 40 60 80 100 1200
0.5
1
1.5
2
2.5
3
M2
Tiempo (min)
0 20 40 60 80 100 1200
0.1
0.2
0.3
0.4
0.5
0.6
0.7
E1
Tiempo (min)
0 20 40 60 80 100 1200
0.1
0.2
0.3
0.4
0.5
0.6
0.7
E2
Tiempo (min)
0 20 40 60 80 100 1200
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
E3
Tiempo (min)
0 20 40 60 80 100 1200
0.2
0.4
0.6
0.8
1
1.2
1.4
G1
Tiempo (min)
0 20 40 60 80 100 1200
0.2
0.4
0.6
0.8
1
1.2
1.4
G2
Tiempo (min)
0 20 40 60 80 100 1200
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
G3
Tiempo (min)
Figura 14.7: Valores predichos versus datos pseudo-experimentales (conjunto III)
14.5. Identificabilidad a posteriori 153
102
103
104
105
10−6
10−4
10−2
100
102
104
Tiempo CPU (s)
Fun
ción
obj
etiv
o
SRESSRESn2fbSSm
Método híbrido
Figura 14.8: Curvas de convergencia de SRES, hıbrido SRES-n2fb y SSm
14.5. Identificabilidad a posteriori
Un estudio sobre el condicionamiento de la FIM demuestra que esta no esta bien
condicionada (rcond(FIM) = 1.7e-7) pero que no es singular, lo que significa que los
parametros son practicamente identificables para el valor optimo encontrado a partir
de los datos experimentales considerados (conjunto II). La matriz de correlacion a
posteriori se representa en la Figura 14.9. Se puede percibir que, aunque ningun
elemento fuera de la diagonal es igual a +1 o -1, los pares (p1,p6), (p7,p12) (p13,p18)
tienen correlaciones muy elevadas (mayores que 0.99 en valor absoluto) lo que explica
en cierto modo las dificultades encontradas por algunos metodos para resolver el
problema.
Para ilustrar mejor esta situacion, la Figura 14.11 muestra las lıneas de contorno
correspondientes a la funcion objetivo en el plano de los parametros para un par de
parametros poco correlacionados (p1,p4), mientras que la Figura 14.10 presenta la
grafica equivalente para un par de parametros altamente correlacionados (p1,p6).
En el primer caso, la falta de correlacion se refleja en un contorno bastante
redondeado de la funcion objetivo en la vecindad del mınimo. Sin embargo, la grafica
correspondiente al par (p1,p6) muestra un largo valle a lo largo de la diagonal de
estos dos parametros, donde todos los puntos de esta diagonal presentan valores muy
154 Capıtulo 14. Ruta bioquımica en tres pasos
5 10 15 20 25 30 35
5
10
15
20
25
30
35
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figura 14.9: Matriz de correlacion a posteriori
pequenos y similares de la funcion de coste. Por lo tanto, aunque existe un mınimo
verdadero para los valores (1,1), existen muchas otras combinaciones de p1 y p6 que
dan practicamente el mismo valor de la funcion objetivo, es decir, que dan lugar al
mismo comportamiento del modelo para el diseno de experimentos considerado.
14.6. Intervalos de confianza
Los intervalos de confianza del 95 % calculados a partir de la matriz de infor-
macion de Fisher para los 36 parametros se representan en la Tabla 14.6. Como se
0.5 1 1.50.5
0.6
0.7
0.8
0.9
1
1.1
1.2
1.3
1.4
1.5
p1
p 6
Figura 14.10: Lıneas de contorno
para los parametros p1 y p6
0.5 1 1.50.5
0.6
0.7
0.8
0.9
1
1.1
1.2
1.3
1.4
1.5
p1
p 4
Figura 14.11: Lıneas de contorno
para los parametros p1 y p4
14.6. Intervalos de confianza 155
Int conf (95 %) Int conf (95%) Int conf (95 %)
Parametro pn Conjunto I Conjunto II Conjunto III
V 1 p1 2.160e-5 8.639e-2 1.424e-1
Ki1 p2 2.056e-6 1.148e-2 1.953e-2
ni1 p3 9.278e-6 1.012e-1 1.478e-1
Ka1 p4 2.036e-6 1.149e-2 1.869e-2
na1 p5 2.957e-6 1.651e-2 2.861e-2
k1 p6 2.157e-5 8.558e-2 1.409e-1
V 2 p7 3.197e-5 6.952e-2 1.739e-1
Ki2 p8 2.228e-6 1.335e-2 2.063e-2
ni2 p9 1.381e-5 1.078e-1 1.903e-1
Ka2 p10 2.282e-6 1.396e-2 2.164e-2
na2 p11 4.819e-6 1.915e-2 3.127e-2
k2 p12 3.210e-5 7.001e-2 1.717e-1
V 3 p13 3.667e-5 1.228e-1 2.320e-1
Ki3 p14 7.752e-6 2.135e-2 3.307e-2
ni3 p15 4.084e-5 1.675e-1 3.440e-1
Ka3 p16 7.689e-6 2.337e-2 3.858e-2
na3 p17 7.610e-6 2.190e-2 3.695e-2
k3 p18 3.644e-5 1.236e-1 2.360e-1
V 4 p19 7.369e-7 2.703e-3 4.053e-3
K4 p20 1.228e-5 3.805e-2 5.344e-2
k4 p21 3.694e-7 1.608e-3 2.778e-3
V 5 p22 9.714e-7 3.307e-3 4.883e-3
K5 p23 1.375e-5 4.465e-2 7.318e-2
k5 p24 9.298e-7 2.561e-3 3.112e-3
V 6 p25 1.245e-6 3.167e-3 7.095e-3
K6 p26 1.809e-5 4.707e-2 1.002e-1
k6 p27 9.718e-7 1.999e-3 3.672e-3
kcat1 p28 1.067e-5 3.198e-2 5.926e-2
Km1 p29 1.905e-5 5.059e-2 9.101e-2
Km2 p30 5.175e-5 1.913e-1 2.727e-1
kcat2 p31 2.475e-5 7.569e-2 1.339e-1
Km3 p32 3.781e-5 9.858e-2 1.510e-1
Km4 p33 9.325e-5 3.560e-1 3.855e-1
kcat3 p34 2.376e-5 6.890e-2 1.079e-1
Km5 p35 3.646e-5 1.034e-1 1.563e-1
Km6 p36 2.456e-5 9.928e-2 1.317e-1
Tabla 14.6: Intervalos de confianza de los parametros optimos
156 Capıtulo 14. Ruta bioquımica en tres pasos
puede observar, el valor de los intervalos de confianza es pequeno para todos los
parametros y los tres conjuntos de datos lo que indica una buena estimacion de los
mismos. Como era de esperar, estos intervalos son mayores a medida que aumenta
el error de los datos experimentales.
Aunque en todos los casos los valores de confianza son aceptables, estos son
mayores para los parametros que presentan altas correlaciones. Vease, por ejemplo,
que los intervalos para el parametro p1 que presenta altas correlaciones con otros
parametros, estos son un orden de magnitud mayores que para el parametro p2 que
esta poco correlacionado. Esta situacion puede ser mejorada mediante un diseno
experimental adecuado.
14.7. Diseno optimo de experimentos
Una vez que las herramientas para la evaluacion de la identificabilidad y otras
medidas relacionadas han proporcionado informacion util sobre las propiedades del
problema, es importante darse cuenta de que estas corresponden al diseno experi-
mental concreto que se esta considerando. Sin embargo, como se ha explicado en
el capıtulo de Metodologıa correspondiente al diseno optimo de experimentos, este
diseno puede ser mejorado mediante la formulacion y la resolucion de un problema
de optimizacion dinamica.
El diseno experimental considerado hasta este momento (que se denotara como
original) consiste en 16 combinaciones diferentes de valores de S y P que se mantienen
constantes a lo largo de cada uno de los experimentos. Para un diseno experimental
nuevo, se podrıa intentar disenar experimentos en los que S y P varıen a lo largo
del tiempo. Aunque esto es factible numericamente, se asumio que, para este caso
particular y debido a limitaciones practicas, estos controles (es decir, los valores de
S y P), deben ser constantes durante cada uno de los experimentos. Por lo tanto, el
problema de OED puede ser formulado como:
Dado el numero de experimentos nuevos que se desean realizar N2exp, encontrar
los valores de S y P para cada uno que maximicen o minimicen el valor de un cierto
criterio basado en la FIM sujeto a las siguientes restricciones:
dinamica del sistema
lımites para S y P
otras posibles restricciones (por ejemplo debidas a limitaciones practicas)
Este es un problema de optimizacion no lineal (NLO) con restricciones diferen-
ciales que puede resolverse como se detalla en seccion 6.2. Notese que, por supuesto,
14.7. Diseno optimo de experimentos 157
tambien podrıa plantearse una formulacion mas (o menos) general del problema.
Por ejemplo, el numero de nuevos experimentos N2exp podrıa ser considerado como
una variable de decision, dando lugar a un problema de optimizacion no lineal en-
tero mixto (Mixed-Integer Non-Linear Programming, MINLP) con un problema de
valor inicial interno. El horizonte de tiempo y los tiempos de muestreo para cada
experimento tambien podrıan ser considerados como variables de decision. Obvia-
mente, aumentar la generalidad de la formulacion implica resolver un problema de
optimizacion mas complejo.
Para los objetivos de este trabajo, se considero que el valor de N2exp es fijo y
ademas:
el horizonte de tiempo y los tiempos de muestreo son los mismos que en el
diseno original
los lımites para los valores de S y P se consideran como el maximo y el mınimo
valor de estas variables en el diseno original
los valores de P y S son invariantes con el tiempo para cada uno de los expe-
rimentos
De este modo, se intento encontrar un diseno experimental alternativo de igual
dificultad practica que el original (es decir, al emplear los mismos tiempos de mues-
treo significa que se podran utilizar los mismos sensores, etc.).
Este problema fue resuelto mediante la minimizacion del criterio E, consideran-
do 10 y 16 experimentos. Para su resolucion se emplearon los metodos globales DE,
SRES y SSm alcanzando los tres la solucion optima global. No obstante, como mues-
tra la Figura 14.12 para el caso de 16 experimentos, SSm resulto ser un orden de
magnitud mas rapido que los otros dos. Ademas se utilizaron dos metodos locales,
fmincon y NOMADm, que quedaron atrapados en soluciones locales confirmando la
multimodalidad del problema y la necesidad de emplear metodos de optimizacion
global.
Los resultados se resumen en la Tabla 14.7, donde se muestran los valores del
criterio E y de otros criterios para el diseno original y para los disenos resultantes.
El nuevo diseno de 16 experimentos mejora el criterio E (empleado para la optimi-
zacion) en un orden de magnitud. Ademas, tambien reduce el criterio E modificado
y simultaneamente mejora los demas. Sin embargo, debe destacarse que el criterio E
modificado del nuevo diseno es tambien muy grande, indicando que todavıa existen
problemas de identificabilidad aunque en menor grado.
158 Capıtulo 14. Ruta bioquımica en tres pasos
100
101
102
103
104
105
0
0.002
0.004
0.006
0.008
0.01
0.012
0.014
0.016
0.018fminconNOMADmDESRESSSm
Fun
cion
obj
etiv
o =
crit
erio
E
Tiempo CPU (s)
Figura 14.12: Curvas de convergencia para el OED con 16 experimentos
El nuevo diseno optimo para 10 experimentos tambien mejora el criterio E del
diseno original aunque en menor medida. Esto era de esperar ya que menos expe-
rimentos significa menos informacion. Sin embargo, cabe destacar que, a pesar de
la reduccion sustancial del trabajo experimental de este nuevo diseno, el criterio E
todavıa pudo ser mejorado significativamente.
Criterio Diseno Diseno Opt. Diseno Opt.
Original (16 exp.) (10 exp.)
Criterio E 1.658e-2 1.404e-3 2.586e-3
Criterio E modificado 1.682e+6 8.673e+5 1.443e+6
Criterio A 6.040e-2 6.162e-3 1.181e-2
Criterio A modificado 2.670e+8 9.434e+8 7.887e+8
Criterio D 2.264e+161 8.799e+185 5.428e+177
Tabla 14.7: Diseno original y disenos optimos para 16 y 10 experimentos
A partir del diseno optimo para 16 experimentos se generaron nuevos valores
pseudo-experimentales y se volvio a calibrar el modelo dando lugar a valores muy
similares para los parametros y disminuyendo los intervalos de confianza de los que
aparecıan mas correlacionados en el diseno original.
14.8. Conclusiones 159
14.8. Conclusiones
En este capıtulo se considero la estimacion de parametros y el diseno expe-
rimental optimo para un modelo de una ruta bioquımica. Empleando el hıbrido
SRES+n2fb para el problema de estimacion de parametros se obtuvieron soluciones
mejores que con el metodo SRES a solas en un tiempo computacional mucho mas
reducido. Ademas, esta metodologıa demostro ser robusta cuando se maneja ruido
en las medidas. Sin embargo, empleando el metodo SSm el tiempo computacional
se reduce todavıa mas pasando de un rango de 35-40 horas con SRES a un par de
minutos, conservando la robustez.
El analisis de identificabilidad revelo correlaciones elevadas entre ciertos pares
de parametros que estaban ocasionando un mal condicionamiento del problema.
Mediante el uso de nuevos disenos experimentales se demostro que esta situacion
puede ser mejorada. Los parametros estimados utilizando datos experimentales ob-
tenidos a partir del diseno optimo presentaron intervalos de confianza menores que
los estimados con el diseno original.
Los resultados del diseno optimo de experimentos confirman la utilidad de esta
metodologıa mejorando la precision de los parametros estimados a la vez que se
reduce el esfuerzo experimental.
Capıtulo 15
Cinetica de la glucosa en pacientes
diabeticos
15.1. Introduccion
La diabetes mellitus se define como un grupo de enfermedades metabolicas que
se caracterizan por altos niveles de glucosa en sangre (hiperglucemia) (Expert Com-
mittee on the Diagnosis and Classification of Diabetes Mellitus, 2003). Esta hiper-
glucemia es el resultado de defectos en la secrecion de insulina, en la accion de la
insulina, o en ambas. En la diabetes de tipo 1 hay una deficiencia absoluta de secre-
cion de insulina debido a la destruccion de las celulas β. Las personas con diabetes
de tipo 1 son propensas a la cetoacidosis y son totalmente dependiente de insulina
exogena. Se estima que en el ano 2000 habıa 17.1 millones de personas con diabetes
de tipo 1 en todo el mundo (Wild et al., 2004; Eiselein et al., 2004).
En diabetes, la hiperglucemia cronica se asocia con complicaciones a largo plazo
debido a danos, disfunciones e insuficiencias en varios organos, especialmente ojos,
rinones, nervios, corazon y vasos sanguıneos. Las mayores complicaciones son en-
fermedades cardıacas, ataques de apoplejıa, retinopatıas, nefropatıas y neuropatıas.
Estas pueden eventualmente producir fallos renales, ceguera, amputacion y otros
tipos de morbilidad. Los sujetos con diabetes tienen un alto riesgo de sufrir en-
fermedades cardiovasculares y se enfrentan a una mayor morbilidad y mortalidad
cuando son enfermos crıticos.
La eficacia de un tratamiento intensivo para la prevencion de complicaciones
diabeticas ha sido demostrada por el Ensayo sobre el Control y las Complicacio-
nes de la Diabetes (Diabetes Control and Complications Trial, 1993) y el Estudio
Prospectivo de Diabetes del Reino Unido (United Kingdom Prospective Diabetes
Study, 1998). En ambos ensayos los regımenes de tratamiento que redujeron la me-
161
162 Capıtulo 15. Cinetica de la glucosa en pacientes diabeticos
dia de la hemoglobina glicosilada A1C (medida clınica del control glucemico que
refleja los niveles medios de glucosa en sangre durante los 2-3 meses precedentes) a
un aproximadamente 7% (el rango normal es de 4-6 %) fueron asociados con pocas
complicaciones microvasculares a largo plazo. A pesar de ello, evidencias recientes
sugieren que estos niveles objetivo no son suficientemente bajos (Khaw et al., 2001;
Muntner et al., 2005).
Los tratamientos intensivos requieren multiples inyecciones diarias de insulina
(tres o mas), o un tratamiento con una bomba de infusion de insulina (ver Figura
15.1). En cualquier caso, este control estricto (lo mas cercano posible a la normali-
dad) debe mantenerse de por vida para aprovechar todos los beneficios que confiere.
Hay muchos factores que influyen en la dosis de insulina requerida a traves del tiem-
po, incluyendo el peso, la condicion fısica y los niveles de estres. Debido a esto, se
requiere una monitorizacion frecuente de la glucosa en sangre. Basandose en estas
medidas, se puede modificar la dosificacion de la insulina, implementar cambios en
la dieta (como alteraciones en los horarios, frecuencia y contenido de las comidas)
y variar las pautas de actividad y ejercicio.
Figura 15.1: Bomba de infusion de insulina
Esto ha fomentado el desarrollo de sistemas de control retroalimentados que
puedan ajustar automaticamente las dosis de insulina (Bellazzi et al., 2001; Parker
et al., 2001; Bequette, 2005). Un componente crıtico de estos esfuerzos es el desarrollo
de un modelo matematico que pueda ser empleado para probar la eficacia del sistema.
Hay varios modelos en la literatura aunque todos ellos fueron obtenidos utilizando
datos de sujetos sin diabetes. Para el presente estudio ha sido elegido uno de los
modelos recientemente publicados por Hovorka et al. (2004), sustituyendo el modelo
para la infusion subcutanea de insulina por el descrito por Wilinska et al. (2005).
Cinco sujetos con diabetes de tipo 1 fueron sometidos a un ensayo clınico en con-
diciones de hiperinsulinemia (Defronzo et al., 1979) y euglucemia durante el cual les
fue administrada una comida y la dosis correspondiente de insulina subcutanea (Be-
vier et al., 2006). En este capıtulo, los datos recogidos fueron utilizados para ajustar
los parametros del modelo utilizando metodos de optimizacion global. Los resultados
15.2. Modelo matematico 163
muestran que el modelo es capaz de describir las dinamicas observadas para sujetos
de tipo 1 y por lo tanto puede ser empleado para simular el comportamiento del
paciente en estas condiciones.
15.2. Modelo matematico
El protocolo experimental se encuentra detallado en Bevier et al. (2006). El
principal objetivo del protocolo es reunir los datos de la respuesta de la glucosa en
sangre a una comida mixta y la correspondiente dosis de insulina subcutanea; el
procedimiento de la prueba permite garantizar que el sujeto se encuentra en estado
estacionario euglucemico en el momento que comienza la ingestion de la comida.
Cada sujeto se somete a este procedimiento dos veces, de modo que se tiene un
conjunto de datos independientes para cada uno con el que validar el modelo.
La glucosa en sangre es medida cada cinco minutos durante todo el experimento.
Los niveles de insulina en plasma tambien son medidos: cada 30 minutos hasta el
comienzo de la comida, despues cada 10 minutos durante 90 minutos, a continuacion
cada 15 minutos durante 45 minutos, despues cada 20 minutos durante 40 minutos y
finalmente cada 30 minutos hasta el final del experimento. Los datos experimentales
fueron procesados con un filtro de Hampel para eliminar los datos anomalos (outliers)
(Pearson, 2002).
El modelo propuesto por Hovorka et al. (2004) es un modelo compartamental
(ver Figura 15.2). Dos estados describen la glucosa en plasma y tejidos, uno es para
la insulina en plasma y el resto describen tres efectos diferentes de la insulina en
la dinamica de la glucosa. En general, el modelo consiste en las ecuaciones de un
balance de masa que se detallan a continuacion:
dQ1(t)
dt= −F c
01 − x1(t)Q1(t) + k12Q2(t)− FR (15.1)
+UG(t) + EGP0 [1− x3(t)]
dQ2(t)
dt= x1(t)Q1(t)− [k12 + x2(t)] Q2(t) (15.2)
dx1(t)
dt= −ka1x1(t) + SIT ka1I(t) (15.3)
dx2(t)
dt= −ka2x2(t) + SIDka2I(t) (15.4)
dx3(t)
dt= −ka3x3(t) + kb3I(t) (15.5)
G(t) = Q2(t)/VG (15.6)
164 Capıtulo 15. Cinetica de la glucosa en pacientes diabeticos
x1ka1
x2
ka2
x3
ka3
Q2k12Q1EGP0
UG
x1
x2
x3
Q2Q1
x1
kb1
x2
kb2
x3
kb3
I
Q2
Fc01Q1/(GVG)-FR
Q1
G=Q1/VG
ke
UI /VI
absorción
insulina
absorción
intestinal
Figura 15.2: Estructura del modelo de Hovorka et al. (2004)
donde
F c01 =
F01 si G ≥ 4.5 mmol/LF01G/4.5 en otro caso
(15.7)
FR =
0.003(G− 9)VG si G ≥ 9 mmol/L0 en otro caso
(15.8)
UG =DGAGte−t/tmax,G
t2max,G
(15.9)
El modelo captura algunos aspectos de la fisiologıa que otros modelos o bien
ignoran o bien agrupan con otros parametros. Estos son la variacion del efecto de
la concentracion de glucosa en el flujo de glucosa no dependiente de la insulina, la
depuracion renal de glucosa y la produccion endogena de glucosa hepatica. Este ulti-
mo efecto no se observa en nuestras condiciones experimentales, ya que es suprimido
por la hiperinsulinemia, por lo tanto se eliminara este termino del modelo para la
estimacion de parametros, ası como el correspondiente al estado x3(t).
En una publicacion posterior, el mismo grupo realizo un modelado mas detallado
para la dinamica de la absorcion de insulina para una infusion subcutanea (Wilinska
et al., 2005). El modelo que destacan con mejores resultados (Modelo 10) divide la
absorcion de insulina en un canal lento y otro rapido, basandose en que la forma
monomerica de la insulina va a ser absorbida mas rapidamente que la forma dimerica.
El modelo tambien incluye la degradacion local de insulina en el espacio de los
tejidos. La estructura del modelo se muestra en la Figura 15.3.
15.3. Ranking de parametros 165
Q2
ka1Q1 Q2Q1 Q2Q1a
ku
Q2Q1 Q2Q1 Q2Q1a
(1-k)u ka2
ka1
canal lento
canal rápido
LDa
insulina en
plasma
ke
Figura 15.3: Estructura del modelo de infusion de insulina (Wilinska et al., 2005)
Las ecuaciones que describen la cinetica de la insulina son:
dQI1a(t)
dt= ku(t)− kia1QI1a(t)− LDa (15.10)
dQI1b(t)
dt= (1− k)u(t)− kia2QI1b(t)− LDb (15.11)
dQI2(t)
dt= kia1QI1a(t)− kia1QI2 (15.12)
dI(t)
dt=
1
VI
(kia1QI2 + kia2QI1b(t))− keI(t) (15.13)
donde
LDa =Vmax,ldQI1a
km,ld+QI1a(15.14)
LDb =Vmax,ldQI1b
km,ld+QI1b(15.15)
15.3. Ranking de parametros
En la Figura 15.4 se representa el valor de los criterios de los criterios descritos
en la seccion 3.3 para los 4 parametros a estimar. Los parametros aparecen en orden
decreciente de acuerdo con el criterio δmsqr y sus valores numericos se muestran en la
Tabla 15.1. Estos resultados no reflejan grandes diferencias en los valores de δmsqr
para los distintos parametros lo que indica que no hay mucha diferencia entre la
sensibilidad de la salida del modelo con respecto a variaciones en cada uno de ellos.
Entre δmsqr y δmabs tampoco hay grandes diferencias indicando que no existe mucha
166 Capıtulo 15. Cinetica de la glucosa en pacientes diabeticos
SIT SID F01 tmaxG−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Parámetros
Val
or d
el c
riter
io
dmsqr
dmabs
dmean
dmax
dmin
Figura 15.4: Parametros ordenados por orden decreciente de δmsqr
Param pn Val nom δmsqr δmabs δmean δmax δmin
SIT p1 5.12e-3 8.17e-1 7.83e-1 -7.83e-1 0.00e+0 -9.65e-1
SID p2 8.20e-4 3.96e-1 3.62e-1 -3.62e-1 0.00e+0 -5.12e-1
tmax,G p4 4.00e+1 2.53e-1 1.36e-1 -9.81e-2 3.05e-1 -6.61e-1
F01 p3 9.70e-3 1.86e-1 1.68e-1 -1.68e-1 0.00e+0 -3.00e-1
Tabla 15.1: Valores para el ranking de parametros
variabilidad en las sensibilidades de los distintos estados con respecto a un mismo
parametro (Sj). El efecto global de las sensibilidades para todos los parametros es
negativo tal y como indica el signo de δmean.
15.4. Estimacion de parametros
Es bien sabido que los parametros del sistema glucorregulatorio varıan conside-
rablemente entre sujetos, por lo tanto, la estimacion de parametros se realizo por
separado para cada uno de los pacientes. Utilizando varios metodos de optimizacion,
se estimaron los parametros correspondientes al sistema de glucosa (F01, SIT , SID)
y tambien tmax,G considerada una constante del modelo por Hovorka et al. (2004).
Los parametros relacionados con el sistema de insulina se mantuvieron en sus valo-
res nominales. Para los metodos que requieren un valor inicial para los parametros
se consideraron los valores de la bibliografıa. Los lımites inferiores y superiores se
muestran en la Tabla 15.2.
15.4. Estimacion de parametros 167
Parametro Val inicial Lımite inf Lımite sup
SIT 5.12e-3 1.00e-5 1.00e+0
SID 8.20e-4 1.00e-5 1.00e+0
F01 9.70e-3 1.00e-5 1.00e+0
tmax,G 4.00e+1 2.00e+1 1.00e+2
Tabla 15.2: Valores nominales y lımites para los cuatro parametros
En un primer momento se resolvio el problema empleando un metodo SQP en
modo multi-start. En la Figura 15.5 se muestra la frecuencia de las soluciones para
el primer paciente. Este metodo local convergio a soluciones que ajustan bastante
bien los datos experimentales pero, dado que se desconoce el valor de la funcion
objetivo en el optimo y debido a la naturaleza del metodo, no se puede saber si la
solucion obtenida corresponde al optimo global. Por ello, se hace necesario resolver
el problema empleando metodos de optimizacion global que proporciones mayores
garantıas de convergencia a la solucion optima global.
0 0.5 1 1.5 2 2.5 3
x 105
0
10
20
30
40
50
60
70
80
Función objetivo
Fre
cuen
cia
Figura 15.5: Frecuencia de las soluciones de un SQP en
modo multi-start
Por este motivo, se emplearon los metodos globales SRES, DE y SSm. Los tres
metodos convergieron a la solucion optima global en un tiempo reducido siendo SSm
el mas rapido de los tres. En la Figura 15.6 se muestran las curvas de convergen-
168 Capıtulo 15. Cinetica de la glucosa en pacientes diabeticos
cia para los tres metodos durante la estimacion de parametros correspondientes al
primer paciente (para los demas pacientes los resultados obtenidos fueron similares).
2 4 6 8 10 20 40 600
1
2
3
4
5
6x 10
4
Tiempo CPU (s)
Fun
ción
obj
etiv
o
SRESDESSm
Figura 15.6: Curvas de convergencia de SRES, DE y SSm
En la Tabla 15.3 se muestran los valores de los parametros obtenidos para cada
uno de los cinco pacientes.
Paciente 1 Paciente 2 Paciente 3 Paciente 4 Paciente 5
SIT 5.05e-3 2.48e-3 4.49e-3 5.57e-4 1.73e-3
SID 1.49e-5 9.94e-5 2.18e-5 1.00e-5 1.00e-5
F01 2.36e-2 2.70e-2 2.55e-2 5.25e-2 3.60e-2
tmax,G 3.82e+1 5.58e+1 5.63e+1 8.92e+1 8.75e+1
Tabla 15.3: Valores de los parametros optimos para cada paciente
La Figura 15.7 representa el error entre los datos experimentales y los datos
predichos por el modelo para la concentracion de glucosa como funcion del tiem-
po, mostrando buena concordancia para los cinco sujetos. Los valores medios de los
errores absolutos para la concentracion de glucosa se dan en la Tabla 15.4. Se ob-
serva que los parametros estimados son apropiados y que la dinamica del sistema es
capturada. Los errores medios son inferiores al 5% para todos los sujetos a estudio.
15.4. Estimacion de parametros 169
200 250 300 350 400
−10
−5
0
5
10
Tiempo (min)
Err
or d
e P
redi
cció
n (%
)
Paciente 1Paciente 2Paciente 3Paciente 4Paciente 5
Figura 15.7: Porcentaje de error entre los datos
experimentales y los predichos
Paciente 1 Paciente 2 Paciente 3 Paciente 4 Paciente 5
4.41% 3.71% 3.07 % 4.19% 4.79%
Tabla 15.4: Valor medio de los errores de prediccion para los niveles de glucosa
Los parametros ajustados para un sujeto a partir de los datos de un experimento
fueron validados con los datos de un segundo experimento. Para el sujeto 1, la Figura
15.8 muestra el ajuste del modelo basado en la primera prueba y la Figura 15.9, los
resultados de la segunda prueba comparados con la prediccion del modelo para esas
condiciones empleando el mejor conjunto de parametros encontrado utilizando los
datos experimentales de la primera.
Para los objetivos del estudio, el factor mas importante es la tendencia y esta es
capturada por el modelo cuando se utiliza para predecir los resultados de la prueba
de validacion. El error en si mismo no es malo, considerando que los dos experimentos
fueron realizados en un intervalo mas de tres meses, un periodo de tiempo suficiente
para que el peso del sujeto, su condicion fısica y otros factores que afectan estas
dinamicas hubiesen cambiado en cierta medida. Las diferencias observadas pueden
ser facilmente explicadas por un aumento en la sensibilidad a la insulina durante el
segundo experimento en comparacion con el primero.
170 Capıtulo 15. Cinetica de la glucosa en pacientes diabeticos
0 50 100 150 200 250 300 3500
20
40
60
80
100
120
Glu
cosa
(m
g/dl
)
Tiempo (min)
datos experimentalesdata filtradospredicción del modelo
Figura 15.8: Ajuste del modelo con los
datos del experimento 1
0 50 100 150 200 250 300 350 4000
20
40
60
80
100
120
140
Glu
cosa
(m
g/dl
)
Tiempo (min)
datos experimentalesdatos filtradospredicción del modelo
Figura 15.9: Validacion del ajuste con
los datos del experimento 2
15.5. Identificabilidad a posteriori
Para asegurar que el problema de estimacion de parametros esta bien planteado,
deben realizarse pruebas sobre la identificabilidad de los parametros. La identifica-
bilidad practica fue evaluada mediante la matriz de correlacion, calculada a partir
de la matriz de informacion de Fisher como se detalla en 4.3.
La matriz de correlacion (ver Figura 15.10) no presenta elementos iguales a +1
o -1 fuera de la diagonal (la mayor correlacion se encuentra entre SID y SIT con
un valor de R1,2 = −0.77), lo que significa que todos los parametros son localmente
identificables en la practica.
SIT SID F01 tmaxG
SIT
SID
F01
tmaxG
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figura 15.10: Matriz de correlacion a posteriori
15.6. Intervalos de confianza 171
15.6. Intervalos de confianza
El valor medio de los parametros estimados para los 5 pacientes y su desviacion
estandar, se muestran en la Tabla 15.5 junto con los valores publicados por Hovorka
et al. (2004).
Parametro Hovorka et al. (2004) Valor optimo Desv estd
SIT 5.12e-3 2.86e-3 1.88e-3
SID 8.20e-4 3.12e-5 3.84e-5
F01 9.70e-3 3.29e-2 1.19e-2
tmax,G 4.00e+1 6.54e+1 2.22e+1
Tabla 15.5: Valores y desviacion estandar de los parametros optimos
Cabe destacar que, a pesar de que los parametros del sistema glucorregulatorio
varıan entre sujetos y por eso su estimacion se realiza por separado, la desviacion
estandar de algunos de ellos es relativamente pequena.
15.7. Conclusiones
En este capıtulo se considero la calibracion de un modelo para la cinetica de
la glucosa en pacientes con diabetes de tipo I. El metodo SSm demostro converger
en un tiempo computacional reducido al optimo global proporcionando un buen
ajuste de los datos experimentales. La validacion del modelo con otros conjuntos de
datos experimentales fue satisfactoria demostrando que el modelo evaluado es capaz
de describir las dinamicas observadas bajo el protocolo experimental del ensayo
hiperinulinımico-euglucemico incluyendo una comida.
Esto sugiere que el modelo considerado puede servir como punto de partida para
la incorporacion de otros efectos que ningun otro modelo describe actualmente. Estas
otras dinamicas estan relacionadas con la variacion circadiana en la sensibilidad
a la insulina, cambios en el ritmo de flujo (debidos y no debidos a la insulina)
dependiendo de los niveles de actividad fısica, y respuestas contra-regulatorias a
hipoglucemia, estres y otros.
Parte IV
Conclusiones
Conclusiones
En esta tesis se abordo el modelado y la identificacion de procesos relaciona-
dos con la industria alimentaria y biotecnologica. Debido a la compleja estructura
de estos modelos, descritos en su mayorıa por sistemas de ecuaciones algebraicas y
diferenciales ordinarias y/o en derivadas parciales de naturaleza no lineal, se desa-
rrollo una metodologıa en varios pasos para la adecuada resolucion del problema
inverso asociado.
La primera parte de este trabajo se centro en el problema de estimacion de
parametros. Como conclusiones y resultados mas relevantes cabe destacar:
Los metodos locales basados en el gradiente, empleados habitualmente para
el ajuste de sistemas dinamicos no lineales, presentan a menudo problemas de
convergencia local dando lugar a conclusiones erroneas sobre la validez de los
modelos.
La mayorıa de los metodos de optimizacion global capaces de resolver este tipo
de problemas dan lugar a tiempos de calculo excesivos, especialmente cuando
se requiere una gran precision para la solucion.
Con objeto de superar estas dificultades se desarrollo un metodo hıbrido es-
tocastico-determinista (SRES+n2fb) y se emplearon otras metaheurısticas al-
ternativas (SSm) para la calibracion de los modelos considerados. Mediante
la resolucion de una serie de problemas de complejidad media-alta, estas es-
trategias han demostrado mejorar la eficiencia sin perder robustez, manejando
adecuadamente medidas con ruido y observaciones parciales. En todos los pro-
blemas considerados, SSm resulto ser al menos dos ordenes de magnitud mas
rapido que metodos estocasticos de probada eficacia como SRES y DE.
El valor de los parametros estimados siempre debe ir acompanado de una medi-
da objetiva de su precision. Para ello se calcularon los intervalos de confianza
mediante la aproximacion de Cramer-Rao y mediante el metodo de Monte
Carlo resultando esta ultima aproximacion mas robusta.
175
176 Conclusiones
En una segunda parte se realizo un estudio sobre de los diferentes metodos para el
calculo de sensibilidades y el analisis de identificabilidad obteniendose las siguientes
conclusiones:
El estudio de la identificabilidad estructural global es muy complejo para mo-
delos no lineales. Para algunos de los modelos considerados (el relativo al seca-
do de alimentos y el correspondiente a la isomerizacion termica del α-pineno)
se pudo estudiar la identificabilidad estructural mediante el metodo de series
de Taylor. A pesar de que las tecnicas basadas en algebra diferencial hayan
demostrado resultados prometedores, la aplicabilidad de las tecnicas existentes
en la actualidad es limitada (Dokos y Lovell, 2004; Baker et al., 2005) por lo
que para otros de los modelos considerados no fue posible realizar este analisis.
El analisis de sensibilidades permitio establecer un ranking en funcion de la
importancia de los parametros de modo que los que demostraron tener poco
efecto pudieron ser simplificados o incluso ignorados. Dado el caracter local
de este procedimiento, este debe realizarse con especial cautela y siempre de
modo iterativo para evitar descartar parametros poco importantes en fases
intermedias que afecten significativamente a las predicciones del modelo una
vez encontrado el optimo global. Por este motivo, siempre que fue posible, se
intento llevar a cabo la estimacion del conjunto completo de los parametros
del modelo.
Se realizo el chequeo de la identificabilidad practica de todos los modelos
considerados. En algunos casos, como en el modelo de la ruta bioquımica
en tres pasos, al llevar a cabo el estudio de identificabilidad a posteriori se
vieron algunos pares de parametros altamente correlacionados. A pesar de estos
resultados, al realizar la identificacion con metodos globales, se comprobo que
los parametros sı pueden ser determinados de forma unica. Esto lleva a pensar
que, como ya han indicado otros autores como Petersen et al. (2001), en algunos
casos la matriz de informacion de Fisher resulta inadecuada para evaluar la
identificabilidad practica. Debido a la linealizacion de primer orden del modelo
con respecto a los parametros en la que se basa la FIM, se podrıa estar
perdiendo alguna informacion sobre los parametros lo que hace que en algunas
ocasiones estos sean identificables aun cuando la FIM sea singular.
En la tercera parte de este trabajo se considero e problema de diseno optimo de
experimentos. Basandose en los resultados obtenidos se puede concluir que:
Conclusiones 177
El diseno optimo de experimentos mediante tecnicas de optimizacion dinamica
consiguio reducir los problemas de identificabilidad practica de algunos mode-
los a la vez que se aumento la precision de los parametros estimados.
Esta tecnica permite ademas reducir el esfuerzo experimental con el consi-
guiente beneficio economico que esto supone a nivel industrial.
Debido a la multimodalidad de este tipo de problemas, el uso de metodos
globales permitio asegurar que los nuevos experimentos disenados son global-
mente optimos y evitar la convergencia a soluciones espureas experimentada
por los metodos locales.
Los resultados obtenidos con los distintos criterios sugieren el uso de otras for-
mulaciones alternativas a ser estudiadas en trabajos futuros como, por ejemplo,
formulaciones multi-objetivo para considerar simultaneamente varios criterios
basados en la matriz de informacion de Fisher.
La cuarta parte de este trabajo consistio en el desarrollo de un entorno de trabajo
(GOSBio) para la automatizacion de estas tareas dando lugar a una herramienta de
las siguientes caracterısticas:
El entorno principal se logro empleando codigo Matlab y creando pasarelas
para llamar a codigos Fortran externos para la simulacion, el computo de las
sensibilidades parametricas y algunos metodos de optimizacion como n2fb.
Esto permitio reducir considerablemente el esfuerzo de calculo con respecto
a una implementacion completa en Matlab, manteniendose todas las ventajas
de este lenguaje en cuanto a facilidad de implementacion y visualizacion de
los resultados.
La simplicidad de uso del codigo desarrollado, su versatilidad y su rapidez lo
convierten en una herramienta practica y eficaz que puede ser empleada para
el modelado e identificacion de un amplio rango de modelos no lineales.
Por ultimo, la utilidad y potencial de esta metodologıa se ilustro mediante el mo-
delado e identificacion de una serie de procesos de complejidad media-alta tomados
del area de ingenierıa de bioprocesos. Las principales conclusiones fueron:
Secado de alimentos: mediante la aproximacion de Taylor se detectaron pro-
blemas de identificabilidad estructural en este modelo. La eliminacion de los
parametros no identificables y el empleo de metodos de optimizacion global
para la calibracion de los parametros identificables a priori permitio estimarlos
con gran precision como muestran los intervalos de confianza calculados.
178 Conclusiones
Procesamiento termico de alimentos: los resultados obtenidos del diseno opti-
mo de experimentos para un esquema de esterilizacion termica de alimentos
enlatados permitio no solo reducir los problemas de identificabilidad del mode-
lo y aumentar la precision de los parametros estimados sino tambien disminuir
el esfuerzo experimental requerido con el consiguiente ahorro economico.
Isomerizacion del α-pineno: mediante la aproximacion de Taylor se demostro la
identificabilidad estructural de todos los parametros de este modelo. Sin em-
bargo, la multimodalidad del problema inverso asociado hizo que solo la me-
taheurıstica SSm fuese capaz de alcanzar la solucion global en un tiempo de
calculo reducido lo que la convierte en una estrategia muy recomendable para
la resolucion de esta clase de problemas.
Inhibicion de la proteasa del HIV: el metodo SSm resulto ser una estrategia
muy eficaz para la resolucion del problema de estimacion de parametros aso-
ciado a este modelo. Sin embargo, el analisis de identificabilidad a posteriori
y los intervalos de confianza calculados demostraron que el buen ajuste de
los datos experimentales no es siempre garantıa de una buena calibracion del
modelo. De hecho, cuando los modelos presentan problemas de identificabi-
lidad, los parametros estimados para un conjunto de datos no seran capaces
de reproducir el comportamiento del modelo en condiciones experimentales
diferentes.
Funcion de las caspasas en la apoptosis: como en el caso del modelo ante-
rior, el metodos SSm encontro un conjunto de parametros que ajustan bien los
datos experimentales en un tiempo de calculo reducido. Sin embargo, los pro-
blemas de identificabilidad a posteriori detectados no permiten asegurar que
estos parametros sean capaces de reproducir el comportamiento del sistema
en condiciones experimentales diferentes.
Ruta bioquımica en tres pasos: este problema, especialmente costoso desde
el punto de vista computacional, permitio comparar la eficacia de distintas
metodologıas demostrando la eficacia de las estrategias hıbridas frente a los
metodos estocasticos puros. Ademas, el diseno optimo de nuevos experimentos
permitio mejorar la precision de los parametros estimados a la vez que se redujo
el esfuerzo experimental.
Cinetica de la glucosa en pacientes diabeticos: el metodo SSm permitio ob-
tener un buen ajuste de los datos experimentales para todos los pacientes a
estudio. La validacion del modelo con otros conjuntos de datos experimentales
Conclusiones 179
no empleados para la calibracion confirmo que el modelo evaluado es capaz de
describir las dinamicas observadas bajo el protocolo experimental considerado.
Parte V
Apendices
Apendice A
Ejemplo de fichero de entrada
para el entorno GOSBio
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% USER MUST INTRODUCE HERE PROBLEM RELATED DATA: %
% --> SIMULATION DATA %
% --> OPTIMIZATION RELATED DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% User may change the name of the function according to his/her necessities
% Please, remember to save the file as name_function.m
function[problem_input,ivp_solver,opt_solver,results]=mendes_input_data;
% problem_input.folder: folder to keep problem related files.
problem_input.folder=’Mendes’;
% Folder to keep all output files:
% General input report for a particular run.
% Optimizer report.
% Plots: Best fit and Convergence curve when available
results.folder=’results_SSm_noise_5_run_1’;
% problem_input.report: file to keep input/output information for each different run
results.report=’results.m’;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% ANALYSIS TO BE PERFORMED %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% ’PE’ Parameter estimation
% ’OED’ Optimal experimental design
% ’prior_analysis’ Performs: Ranking of parameters and local a priori identifiability analysis
% ’post_analysis’ Performs practical identifiability analysis
% ’all’ Performs a priori analysis, OED and a posteriori analysis
problem_input.task=’PE’;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% MODEL RELATED DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% results.n_states: number of state variables.
problem_input.n_states=8;
183
184 Apendice A. Ejemplo de fichero de entrada para el entorno GOSBio
% ODES/DAES describing the system may be supplied in the following manners:
% 1: fcn.f: Fortran file, as follows
% SUBROUTINE FCN(N,X,Y,YDOT,PAR,IPAR,U)
% IMPLICIT DOUBLE PRECISION (A-H,O-Z)
% DIMENSION Y(N),YDOT(N),PAR(*),IPAR(*),U(*)
% YDOT=F(...) OR M*YDOT=F(...)
% RETURN
% END
% DAE solution may be approached using RKF45 or RADAU5.
% Note that fcn.f will vary with the solver
% 2: fcn.m: Matlab file as follows,
% function yteor = fcn(t,y,par)
% DAE system will be solved using ode15s
% 3: problem_input.ydot: a "char" type vector including the equations.
% Code will generate fortran files DAE solution may be
% approached using RKF45 or RADAU5
% 4: function yteor = fcn(t,y,par,u)
problem_input.model_type=3;
problem_input.ydot=char(...
’ydot(1)=par(28)*y(3)*(1.0d0/par(29))*(u(1)-y(1))/(1.0d0+(u(1)/par(29))+(y(1)/par(30))),...
-par(31)*y(4)*(1.0d0/par(32))*(y(1)-y(2))/(1.0d0+(y(1)/par(32))+(y(2)/par(33)))’,...
’ydot(2)=par(31)*y(4)*(1.0d0/par(32))*(y(1)-y(2))/(1.0d0+(y(1)/par(32))+(y(2)/par(33))),...
-par(34)*y(5)*(1.0d0/par(35))*(y(2)-u(2))/(1.0d0+(y(2)/par(35))+(u(2)/par(36)))’,...
’ydot(3)=par(19)*y(6)/(par(20)+y(6))-par(21)*y(3)’,...
’ydot(4)=par(22)*y(7)/(par(23)+y(7))-par(24)*y(4)’,...
’ydot(5)=par(25)*y(8)/(par(26)+y(8))-par(27)*y(5)’,...
’ydot(6)=par(1)/(1.0d0+(u(2)/par(2))**par(3)+(par(4)/u(1))**par(5))-par(6)*y(6)’,...
’ydot(7)=par(7)/(1.0d0+(u(2)/par(8))**par(9)+(par(10)/y(1))**par(11))-par(12)*y(7)’,...
’ydot(8)=par(13)/(1.0d0+(u(2)/par(14))**par(15)+(par(16)/y(2))**par(17))-par(18)*y(8)’);
% problem_input.y0: fixed initial conditions
problem_input.y0= [1.4190 9.3464e-1 4.0e-1 3.6409e-1 2.9457e-1 6.6667e-1 5.7254e-1 4.1758e-1];
% Initial conditions for the parametric sensitivities. This matrix will be zero unless the
% initial condition for a particular state depends on any parameter
problem_input.sens0=zeros(problem_input.n_states,problem_input.n_par);
% problem_input.n_par: number of model parameters (initial conditions not included here)
problem_input.n_par=36;
% problem_input.par: vector of parameters (nominal values)
problem_input.par=[1.0 1.0 2.0 1.0 2.0 1.0 1.0 1.0 2.0 1.0 2.0 1.0 1.0 1.0 2.0 1.0 2.0,...
1.0 0.1 1.0 0.1 0.1 1.0 0.1 0.1 1.0 0.1 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0];
% problem_input.n_theta_par: number of parameters to be considered
problem_input.n_theta_par= 36;
% problem_input.index_theta_par: index of parameters to be considered within vector par
problem_input.index_theta_par=[1 : 1 : 36];
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% INPUT DATA TO CALCULATE THE OBJECTIVE FUNCTION. EXPERIMENTAL DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.n_exp: number of experiments
problem_input.n_exp=16;
for iexp=1:problem_input.n_exp
Apendice A. Ejemplo de fichero de entrada para el entorno GOSBio 185
% Measured states for experiment
% n_obsiexp: number of measured states for each experiment
problem_input.n_obsiexp=8;
% problem_input.ms includes the vector of states, or functions of states,
% to be measured. Note the brackets used.
problem_input.msiexp=char(’ms(:,1)=y(:,1)’,...
’ms(:,2)=y(:,2)’,...
’ms(:,3)=y(:,3)’,...
’ms(:,4)=y(:,4)’,...
’ms(:,5)=y(:,5)’,...
’ms(:,6)=y(:,6)’,...
’ms(:,7)=y(:,7)’,...
’ms(:,8)=y(:,8)’);
% problem_input.n_theta_y0: number of initial conditions to be estimated
problem_input.n_theta_y0iexp=0;
% problem_input.index_theta_y0: index of initial conditions to be estimated
problem_input.index_theta_y0iexp=[];
% problem_input.y0i: vector of fixed initial conditions
problem_input.exp_y0iexp=problem_input.y0;
% n_m: Number of measurements
problem_input.n_miexp=21;
% problem_input.t_ini: initial process time
problem_input.t_iniexp=0;
% problem_input.t_fi: final process time
problem_input.t_fiexp=120;
% problem_input.t_miexp: Sampling times, for non equidistant measurements
% problem_input.t0iexp: initial sampling time >= t_iniexp
problem_input.t0iexp=problem_input.t_iniexp;
% Equidistant measurements
problem_input.t_miexp=[0:6:120];
% measurement_type:
% ’sim’: the code will generate a pseudo_data, using par0, rel_error, and tm
% ’real’: the code will use real data, rel_error must be fixed to 1 in this case
%
problem_input.measurement_type=’sim’;
% problem_input.noise_type: for simulated experimental data
% 1: exp_data= yteor*(1+rel_error*rand)
% 0: exp_data= yteor+rel_error*rand (suitable for normalized values)
%
problem_input.noise_type=1;
% exp_datai: to be defined only in case measurement_type=’real’, is a matrix N_m x n_m_states,
% where the different columns correspond to the state measurements
% problem_input.rel_error: relative error introduced to pseudo-measurements.
186 Apendice A. Ejemplo de fichero de entrada para el entorno GOSBio
% For the case experimental data is provided this value should be fixed to 1.0
problem_input.rel_erroriexp=0.05;
% problem_input.fobj_norm:
% 1: to normalize objective function with max experimental data.
% 0: no normalization is applied problem_input.
problem_input.fobj_norm=1;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% OBJECTIVE FUNCTION FOR OPTIMAL EXPERIMENTAL DESIGN %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.fobj_type: Function of the FIM to be minimized
% A_optimality = trace(inv(FIM))
% A_modified = -trace(FIM) (maximize trace(FIM))
% D_optimality = -det(FIM) (maximize det(FIM))
% E_optimality = -min(abs(eig(FIM))) (maximize min(eig(FIM)))
% E_modified = max(abs(eig(FIM)))/min(abs(eig(FIM)))
problem_input.fobj_type=’D_optimality’;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% CONTROL RELATED DATA FOR EACH EXPERIMENT i %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.n_u: number of control variables >=1 for experiment i:1-n_exp
problem_input.n_u=2;
% problem_input.n_con: number of control steps >=1 for experiment i:1-n_exp
problem_input.n_coniexp=1;
% problem_input.u: control variable for experiment i:1-n_exp
S_list = [0.1 0.1 0.1 0.1 0.46416 0.46416 0.46416 0.46416 2.1544 2.1544 2.1544 2.1544 10 10 10 10];
P_list = [0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1];
problem_input.uiexp(1,:)=S_list(iexp);
problem_input.uiexp(2,:)=P_list(iexp);
% t_con: temporal control switching points for experiment i:1-n_exp
% t_con(n_con)=tf
% problem_input.t_con=[];
problem_input.t_coniexp=[120.0];
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% ODE SOLVER RELATED DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Select the solver to be used from the following alternatives
% radau5: BDF based method suitable also for DAEs
% rkf45 : Runge-Kutta-Fehlberg ODE Solver
% ode15s: MATLAB code to be used when fcn.m is provided
% odessa: BDF based method suitable for parametric sensitivity analysis
ivp_solver.name= ’radau5’;
% rtol/atol: integration tolerances
ivp_solver.rtol = 1.0D-6;
ivp_solver.atol = 1.0D-6;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% NLP SOLVER RELATED DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
Apendice A. Ejemplo de fichero de entrada para el entorno GOSBio 187
% Select the solver to be used from the following alternatives
% simulate: will perform a simulation for the initial guess provided by user
% DE: Differential Evolution (Rainer and Storm, 1997)
% SRES: Stochastic Ranking Evolutionary Search (Runarsson and Yao, 2000)
% SSm: Scatter Search, Matlab version, J. Egeas - SSm beta 2.5
% only_local
% multistart
opt_solver.name=’SSm’;
opt_solver.n_starts=100; % To be used in multistart
opt_solver.local_solver=’n2fb’; % To be used in multistart or only_local
% opt_solver.par_guess/par_min/par_max: Initial guess/lower/upper bounds for the parameters
opt_solver.par_guess=[500 500 5 500 5 500 500 500 5 500 5 500 500 500 5 500 5 500 500 500,...
500 500 500 500 500 500 500 500 500 500 500 500 500 500 500 500 ];
opt_solver.par_min=[1.e-12 1.e-12 0.1 1.e-12 0.1 1.e-12 1.e-12 1.e-12 0.1 1.e-12 0.1 1.e-12 1.e-12,...
1.e-12 0.1 1.e-12 0.1 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 ,...
1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12];
opt_solver.par_max=[1.e3 1.e3 10. 1.e3 10. 1.e3 1.e3 1.e3 10. 1.e3 10. 1.e3 1.e3 1.e3,...
10. 1.e3 10. 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3,...
1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3];
% opt_solver.y0_guess/y0_in/y0_max:
% initial guess/lower/upper bounds for the initial conditions to be estimated
opt_solver.y0_guessiexp=[];
opt_solver.y0_miniexp=[];
opt_solver.y0_maxiexp=[] ;
% opt_solver.u_guess/u_min/u_max: Initial guess/lower/upper bounds for the controls
opt_solver.u_guessiexp(1,:)=S_list(iexp);
opt_solver.u_guessiexp(2,:)=P_list(iexp);
opt_solver.u_miniexp(1,:)=ones(1,problem_input.n_coniexp)*0.05;
opt_solver.u_miniexp(2,:)=ones(1,problem_input.n_coniexp)*0.05;
opt_solver.u_maxiexp(1,:)=ones(1,problem_input.n_coniexp)*10.0;
opt_solver.u_maxiexp(2,:)=ones(1,problem_input.n_coniexp)*10.0;
% opt_solver.t_fiexp/tf_min/tf_max
opt_solver.tf_guessiexp=[120];
opt_solver.tf_miniexp=[120];
opt_solver.tf_maxiexp=[120];
end %iexp
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% OUTPUT RELATED DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Names for the figures. The name of opt and ivp solvers will be added to the names provided here
results.fit_plot=’fit_plot’;
results.convergence_curve=’conv_curve’;
results.histogram=’histogram’; results.residuals_plot=’residuals’;
results.correlation=’correlation_matrix’;
return
Parte VI
Bibliografıa
Bibliografıa
[1] J. Abadie y J. Carpentier. Optimization, capıtulo: Generalization of the
Wolfe Reduced Gradient Method to the case of Nonlinear Constraints. Aca-
demic Press, New York, 1969.
[2] M. A. Abramson. Pattern Search Algorithms for Mixed Variable Gene-
ral Constrained Optimization Problems. Tesis doctoral, Houston, Texas, Rice
University, 2002.
[3] M.M. Ali, C. Storey y A. Torn. Application of stochastic global optimiza-
tion algorithms to practical problems. J. of Opt. Th. and Appl., 95(3):545–563,
1997.
[4] S. P. Asprey y S. Macchietto. Designing robust optimal dynamic experi-
ments. J. of Biotechnology, 12(4):545–556, 2002.
[5] A. C. Atkinson y W. G. Hunter. The design of experiments for parameter
estimation. Technometrics, 10:271–289, 1968.
[6] S. Audoly, G. Bellu, L. D’Angio, M.P. Saccomani y C. Cobelli. Global
identifiability of nonlinear models of biological systems. IEEE Trans Biome-
dical Engineering., 48(1):55–65, 2001.
[7] B. M. Averick, R. G. Carter y J. J. More. The minpack-2 test problem
collection. Technical Report ANL/MCS-TM-273, Argonne National Labora-
tory., 1991.
[8] C. T. H. Baker, G. A. Bocharov, C. A. H. Paul y F. A. Rihan.
Computational modelling with functional differential equations: Identification,
selection, and sensitivity. Applied Numerical Mathematics, 53:107–129, 2005.
[9] M. Balaban. Effect of volume change in foods on the temperature and mois-
ture content predictions of simultaneous heat and moisture transfer models.
Journal of Food Process Engineering, 12:67–88, 1989.
191
192 Bibliografıa
[10] E. Balsa-Canto. Algoritmos Eficientes para la Optimizacion Dinamica de
Procesos Distribuidos. Tesis doctoral, Universidad de Vigo, 2001.
[11] E. Balsa-Canto, A. A. Alonso y J. R. Banga. Microwave heating of
foods: Model predictive control using reduced order models. En ACoFoP IV
(Automatic Control of Food and Biological Processes), Goteborg, Sweden, Sep-
tiembre 1998.
[12] E. Balsa-Canto, J. R. Banga y A. A. Alonso. A novel, efficient and relia-
ble method for thermal process design and optimization. Part II: applications.
J. of Food Engineering, 52:225–247, 2002.
[13] E. Balsa-Canto y M. Rodriguez-Fernandez. GOSBio- Part II: Optimal
experimental design for nonlinear dynamic systems, with applications in Sys-
tems Biology. Matlab toolbox, Process Engineering Group, IIM-CSIC, 2006.
[14] J. R. Banga, A. A. Alonso, J. M. Gallardo y R. P. Martın. Degradation
kinetics of protein digestibility and available lysine during thermal processing
of tuna. Journal of Food Science, 57(4):913–915, 1992.
[15] J. R. Banga, A. A. Alonso, J. M. Gallardo y R. P. Martın. Kinetics of
thermal degradation of thiamine and surface color in canned tuna. Zeitschrift
fur lebensmittel-untersuchung und-forchung, 197(2):127–131, 1993.
[16] J. R. Banga, A. A. Alonso y R. P. Singh. Stochastic dynamic opti-
mization of batch and semicontinuous bioprocesses. Biotechnology Progress,
13(3):326–335, 1997.
[17] J. R. Banga, E. Balsa-Canto, Moles C.G. y A. A. Alonso. Dynamic
optimization of bioprocesses: Efficient and robust numerical strategies. J. of
Biotechnology, 117:407–419, 2005.
[18] J. R. Banga, R. P. Martın, J. M. Gallardo y J. J. Casares. Opti-
mization of thermal processing of conduction-heated canned foods: Study of
several objective functions. J. Food Engineering, 14(1):25–51, 1991.
[19] J. R. Banga y W. D. Seider. Global optimization of chemical processes
using stochastic algorithms, paginas 563–583. Kluwer Academic Pub., Dordre-
cht, The Netherlands, 1996.
[20] J. R. Banga y R. P. Singh. Optimization of the air drying of foods. J.
Food Eng., 23:189–211, 1994.
Bibliografıa 193
[21] J.R. Banga, E. Balsa-Canto, C.G. Moles y A.A. Alonso. Improving
food processing using modern optimization methods. Trends Food Sci. Tech.,
14:131–144, 2003.
[22] J.R. Banga, C.G. Moles y A.A. Alonso. Frontiers In Global Optimiza-
tion., capıtulo: Global optimization of bioprocesses using stochastic and hybrid
methods., paginas 45–70. Nonconvex Optimization and Its Applications, vol.
74. Kluwer Academic Publishers, 2003.
[23] J.R. Banga, K.J. Versyck y J. F. Van Impe. Computation of opti-
mal identification experiments for nonlinear dynamic process models: an sto-
chastic global optimization approach. Industrial and Engineering Chemistry
Research., 41:2425–2430, 2002.
[24] D. M. Bates y D. G. Watts. Nonlinear Regression Analysis and its Appli-
cations. Wiley, 1988.
[25] M.S. Bazaraa, H. D. Sherali y C.M. Shetty. Nonlinear Programming:
Theory and Algorithms. John Wiley & Sons, Inc., New York, 1993.
[26] R. Bellazzi, G.Nucci y C. Cobelli. The subcutaneous route to insulin–
dependent diabetes therapy. IEEE Engineering in Medicine and Biology Ma-
gazine, 20(1):54–64, 2001.
[27] R. Bellman. Dynamic Programming. Princeton University Press, Princeton,
New Jersey, 1959.
[28] B.W. Bequette. A critical assessment of algorithms and challenges in the
development of a closed–loop artificial pancreas. Diabetes Technology & The-
rapeutics, 7(1):28–47, 2005.
[29] W. C. Bevier, H. Zisser, C. Palerm, D. A. Finan, D. E. Seborg,
F.J. Doyle, III, A. Wollitzer y L. Jovanovic. Calculating the insulin to
carbohydrate ratio using the hyperinsulinemic euglycemic clamp — a novel
use for a proven technique. Diabetes Care, enviado, 2006.
[30] H. G. Beyer y H. P. Schwefel. Evolution strategies - a comprehensive
introduction. Natural Computing, 1:352, 2002.
[31] H.G. Beyer. Toward a theory of evolution strategies: Self-adaptation. Evo-
lutionary Computation, 3 (3):311–347, 1996.
194 Bibliografıa
[32] L.T. Biegler. Solution of dynamic optimization problems by succesive qua-
dratic programming and orthogonal collocation. Comp. and Chem. Eng.,
8(3/4):243–248, 1984.
[33] H. Bock. Progress in Scientific Computing, vol. 2, capıtulo: Recent advances
in parameter identification for ordinary differential equations., paginas 95–121.
Deuflhard, P., Hairer, E. (Eds.) Birkhauser, Boston, 1983.
[34] H. Bock. Randwertproblemmethoden zur Parameteridentifizierung in Syste-
men Nichtlinearer Differentialgleichungen. Tesis doctoral, Universitat Bonn,
1987.
[35] E. Bonabeau, M. Dorigo y G. Theraulaz. Swarm intelligence: from
natural to artificial systems. Oxford University Press, New York, 1999.
[36] E. Bonabeau, M. Dorigo y G. Theraulaz. Inspiration for optimization
from social insect behaviour. Nature, 406:39–42, 2000.
[37] G. E. P. Box, W. G. Hunter, J. F. MacGregor y J. Erjavec. Some
problems associated with the analysis of multiresponse data. Technometrics,
15:33–51, 1973.
[38] M.J. Box. The occurrence of replications in optimal designs of experiments
to estimate parameters in non-linear models. Journal of the Royal Statistical
Society, Series B, 30:290–302, 1968.
[39] M.J. Box. Some experiences with a non-linear experimental design criterion.
Technometrics, 12:569–589, 1970.
[40] S. Brooks. A discussion of random methods for seeking maxima. Operations
Research, 6:244251, 1958.
[41] S. Bruin y K.C.A.M. Luyben. Advances in drying, Vol. I, capıtulo: Drying
of food materials: A review of recent developments. New York: Hemisphere
Publishing Corp., 1980.
[42] R. Brun, P. Reichert y H.R. Kunsch. Practical identifiability analysis of
large environmental simulation models. Water Resources Research., 37:1015–
1030, 2001.
[43] A. E. Bryson y Y. C. Ho. Applied optimal control. Hemisphere Publishing
Corporation, New York, 1975.
Bibliografıa 195
[44] M. J. Chappell, K. R. Godfrey y S. Vajda. Global identifiability of
the parameters of nonlinear-systems with specified inputs: A comparison of
methods. Mathematical Biosciences., 102(1):41–73, 1990.
[45] D. Corne, M. Dorigo y F. Glover. Adaptation in Natural and Artificial
Systems. The University of Michigan Press, 1975.
[46] D. Corne, M. Dorigo y F. Glover. New Ideas in Optimization. McGraw-
Hill, New York, 1999.
[47] G. B. Dantzig. Linear Programming and Extensions. Princeton University
Press, 1963.
[48] A.K. Datta. Computer-aided engineering in food process and product design.
Food Technology, 52:44, 1998.
[49] R. A. DeFronzo, J. D. Tobin y R. Andres. Glucose clamp technique: a
method for quantifying insulin secretion and resistance. American journal of
physiology: Endocrinology and metabolism, 237(3):14–23, Septiembre 1979.
[50] D. Degenring, C. Froemel, G. Dikta y R. Takors. Sensitivity analysis
for the reduction of complex metabolism models. Journal of Process Control.,
14:729–745, 2004.
[51] J.E. Dennis, D.M. Gay y R.E. Welsch. Algorithm 573, NL2SOL - an
adaptive nonlinear least-squares algorithm. ACM Trans. Math. Software,
7:369–383, 1981.
[52] Diabetes Control and Complications Trials Research Group. The
effect of intensive treatment of diabetes on the development and progression
of long–term complications in insulin–dependent diabetes mellitus. The New
England Journal of Medicine, 329:977–986, 1993.
[53] T. J. DiCiccio y J. P. Romano. A review of bootstrap confidence intervals
(with discussion). Journal of Royal Statistics Society, Series B, 50(3):338–370,
1988.
[54] D. Dochain y P. A. Vanrolleghem. Dynamical Modelling and Estimation
in Wastewater Treatment Processes. IWA Publishing, London, 2001.
[55] S. Dokos y N. H. Lovell. Parameter estimation in cardiac ionic models.
Progress in Biophysics and Molecular Biology, 85:407–431, 2004.
196 Bibliografıa
[56] E. D. Dolan, J. J. More y T. S. Munson. Benchmarking optimization
problems with COPS 3.0. Technical Report ANL/MCS-TM-273, Argonne Na-
tional Laboratory., 2004.
[57] J. Donaldson y R. Schnabel. Computational experience with confidence
regions and confidence intervals for non-linear least squares. Technometrics,
29(1):67–82, 1987.
[58] M. Dorigo, V. Maniezzo y A. Colorni. The ant system: Optimization by a
colony cooperaing agents. IEEE Transactions on Systems, Man & Cybenetics
B, 26(2):29–41, 1996.
[59] G. T. Dunkan. An empirical study of jackknife constructed confidence re-
gions in nonlinear regression. Technometrics, 20:123–129, 1978.
[60] A.M. Dunker. The decoupled direct method for calculating sensitivity coef-
ficients in chemical kinetics. Journal of Chemical Physics, 81:2385–2393, Sep-
tember 1984.
[61] T. D. Durance. Improving canned food quality with variable retort tempe-
rature processes. Trends in Food Sci. & Technol., 8(4):113–118, 1997.
[62] T. F. Edgar y D. M. Himmelblau. Optimization of Chemical Processes.
1988.
[63] B Efron. The jackknife, the bootstrap, and other resampling plans. Series
in Applied Mathematics, SIAM, 38:91, 1982.
[64] J. A. Egea, M. Rodriguez-Fernandez, J. R. Banga y R. Marti. Scatter
Search for chemical and bio-process optimization. Journal of Global Optimi-
zation, 2006. En publicacion.
[65] L. Eiselein, H.J. Schwartz y J.C. Rutledge. The challenge of type 1
diabetes mellitus. ILAR Journal, 45(3):231–236, 2004.
[66] W. R. Esposito y C. A. Floudas. Global optimization of nonconvex pro-
blems with differential-algebraic constraints. En S. Pierucci, editor, Procee-
dings ESCAPE-10, paginas 73–78. Elsevier Science, 2000.
[67] R. Fisher. Design of experiments. Oliver and Boyd Ldt., Edinburgh, 1935.
[68] R. Fletcher. Nonlinear Optimization, capıtulo: Methods for Nonlinear Cons-
traints. Academic Press, 1982.
Bibliografıa 197
[69] C.A. Floudas. Deterministic Global Optimization: Theory, Methods and Ap-
plications. Kluwer Academics, The Netherlands, 2000.
[70] L.J. Fogel, A.J. Owens y M.J. Walsh. Artificial intelligence through
simulated evolution. Wiley, New York, 1966.
[71] R.E. Fuguitt y J. E. Hawkins. Rate of thermal isomerization of α-pinene
in the liquid phase. J. A. C. S., 69:461, 1947.
[72] M. Fussenegger, J. E. Bailey y J. Varner. A mathematical model of
caspase function in apoptosis. Nat. Biotechnol., 18:768–774, 2000.
[73] K.G. Gadkar, R. Gunawan y F.J. Doyle III. Iterative approach to model
identification of biological networks. BMC Bioinformatics, 6:155, 2005.
[74] M.S.G. Garcia, E. Balsa-Canto, A.A. Alonso y J.R. Banga. Compu-
ting optimal operating policies for the food industry. J. Food Eng., 74(1):13–23,
2006.
[75] R. L. Garote, E. R. Silva y R. A. Bertone. Kinetic parameters for thermal
inactivation of cut green beans lipoxygenase calculated using unsteady-state
methods. International Journal of Food Science and Technology, 36:377–385,
2001.
[76] P. E. Gill, W. Murray y M. A. Saunders. SNOPT: An SQP algo-
rithm for large-scale constrained optimization. Siam Journal on Optimization.,
12(4):979–1006, 2002.
[77] P. E. Gill, W. Murray, M. A. Saunders y M. H. Wight. User’s guide for
npsol 5.0: a FORTRAN package for nonlinear programming. Informe Tecnico
SOL 86-1, Systems Optimization Laboratory, Standford University, 1998.
[78] P. E. Gill, W. Murray y M. H. Wright. Practical Optimization. Academic
Press, New York, 1981.
[79] F. Glover. Heuristics for integer programming using surrogate constraints.
Decision Sciences, 8-1:156–166, 1977.
[80] F. Glover. Artificial Evolution, Lecture Notes in Computer Science, volumen
1363, capıtulo: A Template for Scatter Search and Path Relinking, paginas
13–54. Springer-Verlag, 1998.
[81] F. Glover y M. Laguna. Tabu Search. Kluwer, MA, 1997.
198 Bibliografıa
[82] K. R. Godfrey y J. J. DiStefano III. Identification and System Parame-
ter Estimation, capıtulo: Identifiability of model parameters, paginas 89–114.
Pergamon Press, Oxford, 1985.
[83] D.E. Goldberg. Genetic Algorithms in Search, Optimization & Machine
Learning. Addison Wesley Longman, 1989.
[84] G.C. Goodwin y R.L. Payne. Dynamic system identification: Experiment
design and data analysis. Acadamic Press, New York, 1977.
[85] F. H. Grant III y J.J. Solberg. Variance reduction techniques in stochastic
shortes route analysis: Application procedures and results. Mathematics and
Computers in Simulation, 25:366–375, 1983.
[86] K. Grijspeerdt y P. Vanrolleghem. Estimating the parameters of the
baranyi model for bacterial growth. Food. Microbiol., 16(6):593–605, 1999.
[87] C. Guus, E. Boender y H.E. Romeijn. Handbook of Global Optimization,
capıtulo: Stochastic Methods. Kluwer, 1995.
[88] E. Hairer y G. Wanne. Solvind Ordinary Differential Equations II: Stiff
and Differential Algebraic Problems. Springer-Verlag, 1996.
[89] D. V. Hinkley. Bootstrap methods. Journal of Royal Statistics Society,
Series B, 50(3):321–337, 1988.
[90] K. Holmstrom y M.M. Edvall. Modeling Languages in Mathematical Opti-
mization, capıtulo: The Tomlab Optimization Environment, paginas 369–378.
Kluwer Academic Publishers, 2004.
[91] R. Hooke y T. A. Jeeves. An automatic method for finding the greatest
or least value of a function. The Computer Journal, 3(3):175–184, 1960.
[92] R. Hooke y T. A. Jeeves. “Direct Search” solution of numerical and sta-
tistical problems. J. Assoc. Comput. Mach., 8:212–229, 1961.
[93] W. Horbelt, J. Timmer y W. Melzer. Differential equations and appli-
cations, capıtulo: Estimating parameters in Nonlinear Differential Equations
with Application to Physiological Data. G. Osipenko, ed., 1998.
[94] R. Horst y P.M. Pardalos. Handbook of Global Optimization. Kluwer
Academic, 1995.
Bibliografıa 199
[95] R. Hovorka, V. Canonico, L.J. Chassin, U. Haueter, M. Massi-
Benedetti, M.O. Federici, T.R. Pieber, H.C. Schaller, L. Schaupp,
T. Vering y M.E. Wilinska. Nonlinear model predictive control of glucose
concentration in subjects with type 1 diabetes. Physiological Measurement,
25(4):905–20, Agosto 2004.
[96] W. G. Hunter y J. F. McGregor. The estimation of common parame-
ters from several responses: Some actual examples. Department of Statistics,
University of Winsconsin, 1967.
[97] J. A. Jacquez y P. Greif. Numerical parameter identifiability and estima-
bility: Integrating identifiability, estimability, and optimal sampling desing.
Mathematical Biosciences., 77:201–227, 1985.
[98] K. S. Jayaraman y D. K. Das Gupta. Dehydration of fruits and
vegetables–recent developments in principles and techniques. Drying Tech-
nology, 10(1):1–50, 1992.
[99] U. Jeppsson. Modelling Aspects of Wastewater Treatment Processes. Tesis
doctoral, Lund Institute of Technology, 1996.
[100] W.J. Karnavas, P. Sanchez y A.T. Bahill. Sensitivity analyses of conti-
nuous and discrete systems in the time and frequency domains. IEEE Trans.
Syst. Man. Cybernetics., SCM-23:488–501, 1993.
[101] K. Khaw, N. Wareham, R. Luben, S. Bingham, S. Oakes, A. Welch
y N. Day. Glycated haemoglobin, diabetes, and mortality in men in Norfolk
cohort of European Prospective Investigation of Cancer and Nutrition (EPIC-
Norfolk). British Medical Journal, 322(7277):15–18, 2001.
[102] S. Kirkpatrick, C. D. Gelatt y M. P. Vecchi. Optimization by simulated
annealing. Science, 220:671–680, 1983.
[103] P. Kuzmic. Program dynafit for the analysis of enzyme kinetic data: appli-
cation to hiv proteinase. Analytical Biochemistry, 237:260–273, 1996.
[104] P.J.M. Laarhoven y E.H.L. Aarts. Simulated annealing: theory and ap-
plications. Reidel Publishing Company, Dordrecht, 1987.
[105] M. Laguna y Marti R. Scatter Search: Methodology and Implementations
in C. Kluwer Academic Publishers, The Netherlands, 2003.
200 Bibliografıa
[106] J. R. Leis y M. A. Kramer. Sensitivity analysis of systems of differential
and algebraic equations. Comp. & Chem. Eng., 9(3):93–96, 1985.
[107] J.R. Leis y M.A. Kramer. ODESSA - an ordinary differential-equation
solver with explicit simultaneous sensitivity analysis. ACM Transactions on
Mathematical Software., 14(1):61–67, 1988.
[108] M. K. Lenz y D. B. Lund. Experimental procedures for determining des-
truction kinetics of food components. Food Technology, 34(2):51–55, 1980.
[109] L. Ljung. System Identification: Theory for the User. Prentice Hall, Engle-
wood Cliffs, New Jersey, 1999.
[110] L. Ljung y T. Glad. On global identifiability for arbitrary model parame-
trizations. Automatica, 30 (2):265–276, 1994.
[111] R. Luus. Application of dynamic programming to high-dimensional non-
linear optimal control problems. Int. J. Control, 52(1):239–250, 1990.
[112] R. Luus. Optimization of fed-batch fermentors by iterative dynamic pro-
gramming. Biotechnol. Bioeng., 41:599–602, 1993.
[113] K. Ch. A. M. Luyben, J. K. Liou y Bruin S. Enzyme degradation during
drying. Biotechnol. Bioeng., 24:533–552, 1982.
[114] S. Marsili-Libelli, S. Guerrizio y N. Checchi. Confidence regions of
estimated parameters for ecological systems. Ecological Modelling., 165:127–
146, 2003.
[115] J. Matyas. Random optimization. Automation Remote Control, 26:246253,
1965.
[116] L. Mayor y A. M. Sereno. Modelling shrinkage during convective drying
of food materials: a review. Journal of Food Engineering, 61(3):373–386, 2004.
[117] P. Mendes y D.B. Kell. Non-linear optimization of biochemical pathways:
Applications to metabolic engineering and parameter estimation. Bioinforma-
tics, 14 (10):869–883, 1998.
[118] Z. Michalewicz y D.B. Fogel. How to Solve it: Modern Heuristics. Springer-
Verlag, Berlin, 2000.
Bibliografıa 201
[119] C. G. Moles, A. S. Lieber, J. R. Banga y K. Keller. Advances in Soft
Computing: Engineering Design and Manufacturing, capıtulo: Global Optimi-
zation of Climate Control Problems Using Evolutionary and Stochastic Algo-
rithms. Springer-Verlag, Heidelber, 2003a.
[120] C.G. Moles. Optimizacion global de procesos de la industria alimentaria y
biotecnologica. Tesis doctoral, Universidade de Vigo, 2003.
[121] C.G. Moles, P. Mendes y J.R. Banga. Parameter estimation in bio-
chemical pathways: a comparison of global optimization methods. Genome
Research., 13:2467–2474, 2003b.
[122] A. Munack. Biotechnology, a Multi-volume Comprehensive Treatise, Vol. 4,
capıtulo: Optimization of Sampling, paginas 251–264. K. Schugerl, 1991.
[123] P. Muntner, R.P. Wildman, K. Reynolds, K. B. Desalvo, J. Chen
y V. Fonseca. Relationship between HbA1c level and peripheral arterial
disease. Diabetes Care, 28(8):1981–1987, Agosto 2005.
[124] H. B. Nahor, N. Scheerlinck, R. Verniest, J. De Baerdemaeker y
B. M. Nicolaı. Optimal experimental desing for the parameter estimation
of conduction heated foods. Journal of Food Engineering., 48:109–119, 2001.
[125] H.B. Nahor, N. Scheerlinck, J.F. Van Impe y B.M. Nicolaı. Opti-
mization of the temperature sensor position in a hot wire probe set up for
estimation of the thermal properties of foods using optimal experimental de-
sign. J. Food Eng., 57(1):103–110, 2003.
[126] J. A. Nelder y R. Mead. A simplex method for function minimization.
The Computer Journal, 7:308–313, 1965.
[127] A. Neumaier, O. Shcherbina, W. Huyer y T. Vinko. A comparison of
complete global optimization solvers. Mathematical Programming, 103(2):335–
356, 2005.
[128] F. Ollivier. Le probleme de l’identifiabilite structurelle globale: etude theori-
que, methodes effectives et bornes de complexite. Tesis doctoral, Ecole
Polytechnique, Paris, France, Junio 1990.
[129] Expert Committee on the Diagnosis y Classification of Diabetes Me-
llitus. Report of the expert committee on the diagnosis and classification of
diabetes mellitus. Diabetes Care, 26(1):5–20, 2003.
202 Bibliografıa
[130] I. H. Osman y G. Laporte. Metaheuristics: A bibliography. Annals of
Operations Research, 63:513623, 1996.
[131] C. C. Pantelides, D. Gritsis, K. R. Morison y R. W. H. Sargent.
The mathematical modelling of transient systems using differential-algebraic
equations. Comp. & Chem. Eng., 12(5):449–454, 1988.
[132] I. Papamichail y C.S. Adjiman. A rigorous global optimization algorithm
for problems with ordinary differential equations. Journal of Global Optimi-
zation, 24:1–22, 2002.
[133] K. J. Park. Diffusional model with and without shrinkage during salted fish
muscle drying. Drying Technology, 16(3-5):889–905, 1998.
[134] R.S. Parker, F.J. Doyle III y N.A. Peppas. The intravenous route to
blood glucose control. IEEE Engineering in Medicine and Biology Magazine,
20(1):65–73, 2001.
[135] R.K. Pearson. Outliers in process modeling and identification. IEEE Tran-
sactions on Control Systems Technology, 10(1):55–63, 2002.
[136] B. Petersen. Calibration, Identifiability and Optimal Experimental Design of
Activated Sludge Models. Tesis doctoral, Universiteit Gent, 2000.
[137] B. Petersen, K. Gernaey y P.A. Vanrolleghem. Practical identifiabi-
lity of model parameters by combined respirometric-titrimetric measurements.
Water Science and Technology., 43:347–355, 2001.
[138] J. Pinter. Global Optimization in Action. Continuous and Lipschitz Opti-
mization: Algorithms, Implementations and Applications. Kluwer Academics,
Netherlands, 1996.
[139] H. Pohjanpalo. System identifiability based on the power series expansion
of the solution. Mathematical Biosciences., 41:21–33, 1978.
[140] E. Polak. Computational Methods in Optimization. Academic Press, New
York, 1971.
[141] P. K. Polisetty, E. O. Voit y E. P. Gatzke. Identification of metabolic
system parameters using global optimization methods. Theoretical Biology
and Medical Modelling, 3:4, 2006.
Bibliografıa 203
[142] L. S. Pontryagin, V. G. Boltyanskii, R. V. Gamkrelidze y E. F.
Mishchenko. The Mathematical Theory of Optimal Processes. John Wiley
& Sons, Inc., New York, 1962.
[143] M. J. D. Powell. An efficient method for finding the minimum of a function
of several variables without calculating derivatives. Computer Journal, 7:155–
162, 1964.
[144] Ph. Preux y E.-G. Talbi. Towards hybrid evolutionary algorithms. Intl.
Trans. in Op. Res., 6:557–570, 1999.
[145] M Quenouille. Approximate tests for correlation in time series. Journal of
Royal Statistics Society, Series B, 11:18–84, 1949.
[146] H.S. Ramaswamy, G.B. Awuah y B.K. Simpson. Heat transfer and
lethality considerations in aseptic processing of liquid/particle mixtures: A
review. Crit. Rev. in Food Sci. Nutr., 37(3):253–286, 1997.
[147] H. S. Rasmaswamy, F. R. van de Boort y S. Ghazala. An analysis of
TDT and Arrhenius methods for handling process and kinetic data. Journal
of Food Science, 54, 1989.
[148] L.A. Rastrigin y Y. Rubinstein. The comparison of random search and
stochastic approximation while solving the problem of optimization. Automa-
tic Control, 2:2329, 1969.
[149] G. V. Reklaitis, A. Ravindran y K. M. Ragsdel. Engineering Opti-
mization: Methods and Applications. John Wiley & Sons, Inc., New York,
1983.
[150] A. H. G. Rinnooy-Kan y G. T. Timmer. Stochastic global optimization
methods. Part I: Clustering methods. Mathematical Programming, 39:27, 1987.
[151] M. Rodriguez-Fernandez, A. A. Alonso y J. R. Banga. Robust para-
meter estimation in heat and mass transfer models of food processing. Inter-
national Conference on Engineering and Food 9 (ICEF 9), 2004.
[152] M. Rodriguez-Fernandez y E. Balsa-Canto. GOSBio- Part I: Parameter
estimation in nonlinear dynamic systems, with applications in Systems Bio-
logy. Matlab toolbox, Process Engineering Group, IIM-CSIC, 2006.
204 Bibliografıa
[153] M. Rodriguez-Fernandez, P. Mendes y J.R. Banga. A hybrid approach
for efficient and robust parameter estimation in biochemical pathways. BioSys-
tems, 83:248–265, 2006.
[154] W. C. Rooney y L. T. Biegler. Incorporating joint confidence regions into
design under uncertainty. Computers and Chemical Engineering, 23:1563–
1575, 1999.
[155] I.I. Ruiz-Lopez, A.V. Cordova, G.C. Rodriguez-Jimenes y M.A.
Garcia-Alvarado. Moisture and temperature evolution during food drying:
effect of variable properties. Journal of Food Engineering, 63(1):117–124, 2004.
[156] T.P. Runarsson y X. Yao. Search biases in constrained evolutionary op-
timization. IEEE Transactions on Systems, Man and Cybernetics, 35:233243,
2005.
[157] T.P. Runarsson y Xin Yao. Stochastic ranking for constrained evolutionary
optimization. IEEE Transactions on Evolutionary Computation, 4:284–294,
2000.
[158] I. Saguy y M. Karel. Modeling of quality deterioration during food proces-
sing and storage. Food Technology, 34:78–85, 1980.
[159] A. Saltelli, K. Chan y E.M. Scott. Sensitivity Analysis. John Wiley &
Sons, Inc., New York, 2000.
[160] W.E. Schiesser. The Numerical Method of Lines. Academic Press, New
York, 1991.
[161] K. Schittkowski. Numerical Data Fitting in Dynamical Systems - A Practical
Introduction with Applications and Software. Kluwer Academic Publishers,
2002.
[162] H. P. Schwefel. Evolution and optimum seeking. Wiley, New York, 1995.
[163] G. A. F. Seber. Multivariate Observations. Wiley, New York, 1984.
[164] G.A.F. Seber y C.J. Wild. Non Linear Regression. Wiley, New York, 1989.
[165] L. F. Shampine, H. A. Watts y S. M. Davenport. Solving non-stiff
ordinary differential equations-the state of the art. SIAM Review, 18:376–411,
1976.
Bibliografıa 205
[166] S. Simal, C. Rossello, A. Berna y A. Mulet. Drying of shrinking cylinder-
shaped bodies. Journal of Food Engineering, 37:423–435, 1998.
[167] R. Smith, G. Dullerud, S. Rangan y K. Poolla. Model validation for
dynamically uncertain systems. Mathematical Modeling of Systems, 3:43–58,
1997.
[168] E. D. Sontag. For differential equations with r parameters, 2r+1 experiments
are enough for identification. Nonlinear Science, 12:553–583, 2002.
[169] S. M. Stigler. Gauss and the invention of the least-squares. Annals of
Statistics, 9(4):465–474, 1981.
[170] R. Storn y K. Price. Differential evolution - a simple and efficient heuristic
for global optimization over continuous spaces. J. Global. Optim., 11:341–359,
1997.
[171] M. Sugimoto, S. Kikuchi y M. Tomita. Reverse engineering of bio-
chemical equations from time-course data by means of genetic programming.
BioSystems, 80:155–164, 2005.
[172] E.-G. Talbi. A taxonomy of hybrid metaheuristics. Journal of Heuristics,
8:541564, 2002.
[173] J. Timmer. Modeling noisy time series: physiological tremor. Int. J. Bifur-
cation Chaos, 8(7):1505–1516, 1998.
[174] J. Timmer, W. Horbelt, M. Bunner, M. Ciofini y R. Meucci. Sto-
chaos: Stochastic and Chaotic Dynamics in the Lakes, capıtulo: Estimating
Parameters in Differential Equations with Application to Laser Data. Ameri-
can Institute of Physics, Melvilley, NY, USA, 2000.
[175] I. B. Tjoa y L. T. Biegler. Simultaneous solution and optimization stra-
tegies for parameter estimation of differential-algebraic equation systems. In-
dustrial and Engineering Chemistry Research, 30(2):376, 1991.
[176] A. Torn, M. Ali y S. Viitanen. Stochastic global optimization: Problem
classes and solution techniques. Journal of Global Optimization, 14:437, 1999.
[177] A. A. Torn. Global optimization as a combination of global and local search.
En Proceedings of Computer Simulation Versus Analytical Solutions for Busi-
ness and Economic Models, 1973.
206 Bibliografıa
[178] UK Prospective Diabetes Study Group. Intensive blood–glucose con-
trol with sulphonylureas or insulin compared with conventional treatment and
risk of complications in patients with type 2 diabetes (UKPDS 33). Lancet,
352:837–853, 1998.
[179] S. Vajda, K. R. Godfrey y H Rabitz. Similarity transformation approach
to structural identifiability of nonlinear models. Mathematical Biosciences.,
93:217–248, 1989.
[180] A. Van Loey, A. Fransis, M. Hendrickx, G. Maesmans y P. Tobba-
ck. Kinetics quality changes of green peas and white beans during thermal
processing. Journal of Food Engineering, 24:361–377, 1995.
[181] P. A. Vanrolleghem y K. J. Keesman. Identification of biodegrada-
tion models under model and data uncertainty. Water Science Technology,
33(2):91–105, 1996.
[182] P.A. Vanrolleghem y D. Dochain. Advanced Instrumentation, data inter-
pretation, and control of biotechnological process., capıtulo: Bioprocess Model
Identification, paginas 251–318. Kluwer Academic Publishers, 1998.
[183] G. C. Vansteenkiste y J. A. Spriet. Progress in Modelling and Simula-
tion, capıtulo: Modelling ill-defined systems, paginas 11–38. Academic Press,
London, 1982.
[184] V. S. Vassiliadis. Computational Solution of Dynamic Optimization Pro-
blems with General Differential-Algebraic Constraints. Tesis doctoral, Imperial
College, University of London, London, U.K., Julio 1993.
[185] K. Versyck. Dynamic Input Design for Optimal Estimation of Kinetic Para-
meters in Bioprocess Models. Tesis doctoral, Katholieke Universiteit Leuven,
Mayo 2000.
[186] K. Versyck, K. Bernaerts, Geeraerd A.H. y J. Van Impe. Introducing
optimal experimental desing in predictive modeling: A motivating example.
Int. J. Food. Microbiol., 51:39–51, 1999.
[187] E. O. Voit y J. Almeida. Decoupling dynamical systems for pathway iden-
tification from metabolic profiles. Bioinformatics, 20:1670–1681, 2004.
[188] K. M. Waananen, J. B. Litchfield y M. R. Okos. Classification of drying
models for porous solids. Drying Technology, 11(1):1–40, 1993.
Bibliografıa 207
[189] E. Walter y L. Pronzato. Identification of Parametric Models from Expe-
rimental Data. Springer, 1997.
[190] F.S. Wang y J.P. Chiou. Optimal control and optimal time location pro-
blems of differential-algebraic systems by differential evolution. Ind. Eng.
Chem. Res., 36(12):5348–5357, 1997.
[191] S. Wild, G. Roglic, A. Green, R. Sicree y H. King. Global prevalence
of diabetes: estimates for the year 2000 and projections for 2030. Diabetes
Care, 27(5):1047–1053, 2004.
[192] M.E. Wilinska, L.J. Chassin, H.C. Schaller, L. Schaupp, T.R. Pieber
y R. Hovorka. Insulin kinetics in type–1 diabetes: continuous and bolus de-
livery of rapid acting insulin. IEEE Transactions on Biomedical Engineering,
52(1):3–12, 2005.
[193] D.H. Wolpert y W.G. Macready. No free lunch theorems for optimization.
IEEE Transactions on Evolutionary Computation, 1:67–82, 1997.
[194] Y. Ye. Interior algorithms for linear, quadratic and linearly constrained non-
linear programming. Tesis doctoral, Department of ESS, Stanford University,
1987.
[195] D. E. Zak, G. E. Gonye, J. S. Schwaber y F. J. Doyle III. Importance of
input perturbations and stochastic gene expression in the reverse engineering
of genetic regulatory networks: Insights from an identifiability analysis of an
in silico network. Genome Research., 13:2396–2405, 2003.
Parte VII
Publicaciones
Publicaciones 211
Publicaciones en revistas internacionales
Rodriguez-Fernandez, M., Mendes, P. y Banga, J. R. A hybrid ap-
proach for efficient and robust parameter estimation in biochemical pathways.
BioSystems, 83:248-265, 2006.
Banga, J. R., Balsa-Canto, E., Rodriguez-Fernandez, M. y Alonso,
A. A. Model calibration in Systems Biology. BioForum Europe, 9:42-43, 2005.
Rodriguez-Fernandez, M., Egea, J. A. y Banga, J. R. Novel metaheuris-
tic for parameter identification in nonlinear dynamic biological systems. BMC
Bioinformatics, 7:483, 2006.
Egea, J. A., Rodriguez-Fernandez, M., Banga, J. R. y Marti, R.
Scatter Search for chemical and bio-process optimization. Journal of Global
Optimization, 2006. En imprenta, disponible en formato electronico.
Rodriguez-Fernandez, M., Balsa-Canto, E., Egea, J. A. y Banga, J.
R. Identifiability and robust parameter estimation in food process modeling:
application to a drying model. Journal of Food Engineering, 2006. Enviado.
Balsa-Canto, E., Rodriguez-Fernandez, M. y Banga, J. R. Optimal
design of dynamic experiments for improved estimation of kinetic parameters
of thermal degradation. Journal of Food Engineering, 2006. Enviado.
Contribuciones a congresos
Balsa-Canto, E., Rodriguez-Fernandez, M., Alonso, A. A. y Banga,
J. R. Optimal Identification in Systems Biology. Applications in Cell Signa-
ling. AIChE Annual Meeting, 12-17 Noviembre, 2006, San Francisco, Estados
Unidos.
Palerm, C. C., Rodriguez-Fernandez, M., Bevier, W. C., Zisser, H.,
Banga, J.R., Jovanovic, L. y Doyle III, F. J. Robust Parameter Estima-
tion in a Model for Glucose Kinetics in Type 1 Diabetes Subjects. Engineering
in Medicine and Biology Conference, 30 Agosto - 3 Septiembre, 2006, Nueva
York, Estados Unidos.
Rodriguez-Fernandez, M., Alonso, A. A. y Banga, J. R. Robust Iden-
tification in Nonlinear Dynamic Process Models. Second CTS Workshop, 10-12
Julio, 2006, Paris, Francia.
212 Publicaciones
Rodriguez-Fernandez, M., Palerm, C. C., Bevier, W. C., Zisser, H.,
Jovanovic, L. y Doyle III, F. J Robust Parameter Estimation in a Model for
Glucose Kinetics in Type 1 Diabetes Patients. American Diabetes Association
66th Scientific Sessions, 9-13 Junio, 2006, Washington DC, Estados Unidos.
Rodriguez-Fernandez, M., Egea, J. A. y Banga, J. R. Novel metaheu-
ristics for parameter estimation and optimal experimental design in Systems
Biology. First International Symposium on Systems Biology, 1-2 Junio, 2006,
Murcia, Espana.
Balsa-Canto, E., Rodriguez-Fernandez, M. y Banga, J. R. Compu-
tational Design of Optimal Dynamic Experiments in Systems Biology: a Case
Study in Cell Signaling. First International Symposium on Systems Biology,
1-2 Junio, 2006, Murcia, Espana.
Egea, J. A., Rodriguez-Fernandez, M., Banga, J. R. y Marti, R.
Optimizacion de procesos quımicos y biotecnologicos mediante busqueda dis-
persa. IV Congreso Espanol sobre Metaheurısticas, Algoritmos Evolutivos y
Bioinspirados (MAEB 05), 13-16 Septiembre, 2005, Granada, Espana.
Rodriguez-Fernandez, M., Egea, J. A. y Banga, J. R. Novel Metaheu-
ristics for Parameter Estimation in Nonlinear Dynamic Biological Systems.
European Conference on Mathematical and Theoretical Biology - ECMTB05,
18-22 Julio, 2005, Dresden, Alemania.
Rodriguez-Fernandez, M., Alonso, A. A. y Banga, J. R. Robust Pa-
rameter Estimation in Nonlinear Dynamic Process Models. European Sym-
posium on Computer Aided Process Engineering: ESCAPE-15, 29 Mayo - 1
Junio, 2005, Barcelona, Espana.
Rodriguez-Fernandez, M., Moles, C.G., Mendes, P. y Banga, J. R.
A Hybrid Approach for Efficient and Robust Parameter Estimation in Bio-
chemical Pathways. 5th International Conference on Systems Biology (ICSB
2004), 9-13 Octubre, 2004, Heidelberg, Alemania.
Rodriguez-Fernandez, M., Banga, J. R. y Alonso, A. A. Parameter
Estimation in Heat and Mass Transfer Models. First CTS Workshop, 1-3 Julio,
2004, Coimbra, Portugal.
Banga, J.R., Balsa-Canto, E., Moles, C. G., Garcia, S., Sendin, O. H.,
Rodriguez-Fernandez, M. y Alonso, A. A. Advances in the Optimization
Publicaciones 213
of Industrial Food Processing. FOODSIM’2004, 16-18 Junio, 2004, WICC-
WIR, Wageningen, Holanda.
Fernandez, C.V., Garcia, M.R., Rodriguez-Fernandez, M., Balsa-
Canto, E., Banga, J.R. y Alonso, A.A. On Systematic Model Reduction
Techniques for Dynamic Optimization and Robust Control of Distributed Pro-
cess Systems. European Symposium on Computer Aided Process Engineering
(ESCAPE-14), 16-19 Mayo, 2004, Lisboa, Portugal.
Rodriguez-Fernandez, M., Alonso, A. A y Banga, J. R. Robust Pa-
rameter Estimation in Heat and Mass Transfer Models of Food Processing.
International Conference on Engineering and Food 9 (ICEF 9), 7-11 Marzo,
2004, Montpellier, Francia.