Dr. Roberto A. González
Castellanos
Profesor Titular Adjunto
Investigador Auxiliar
Centro de Estudios de
Combustión y Energía (CECYEN)
Las presiones competitivas en la industria química y en la biotecnológica hacen cada vez más necesario contar con procedimientos que permitan escalar lo más rápido y directo posible, desde los laboratorios de investigación y desarrollo. para poder acortar el tiempo que transcurre entre la concepción de un nuevo proceso y la puesta en marcha de la planta correspondiente, a escala industrial.
Esta tarea no puede cumplirse sin un dominio y aplicación adecuada de las técnicas de esalado y por esa razón, este texto tiene como objetivos generales:
Presentar de forma ordenada los fundamentos de los métodos de escalado, definiendo adecuadamente ese término.
Introducir el concepto de Ingenierización en los trabajos de Investigación y Desarrollo.
Conocer los procedimientos de aplicación del escalado en la solución de los problemas relacionados con el desarrollo de tecnologías y procesos industriales, a partir de resultados científicos obtenidos en los laboratorios.
Conocer algunas de las aplicaciones prácticas de los métodos estudiados.
Conocer la teoría y los fundamentos de las plantas piloto, definiendo la naturaleza de su actividad y las opciones disponibles para la utilización de las mismas.
Para cumplir esos objetivos se han considerado seis capítulos. Para la confección de los capítulos 2, 3 y 4 se tomó como base el clásico texto de Johnstone y Thring "Pilot Plants, Models and Scale-up in Chemical Engineering" , y en especial sus capítulos 2, 3, 4, 5, 6, 7. 8 y 9 y los Apéndices 1 y 2, traducidos y actualizados. El Capítulo 1 se redactó tomando como base los materiales de los Talleres Internacionales sobre Escalado realizados en la Habana en 1992, 1993 y 1995 y para el resto se tomaron como base principalmente artículos de revistas actualizadas de la especialidad y textos como "La Teorìa de los Modelos en la Ingenierìa de Procesos" de J. Rosabal
En el escenario de la investigación y el desarrollo de nuevas tecnologías está presente siempre la problemática de cómo convertir en una estructura económica de producción los conocimientos logrados en el laboratorio, concatenándolos con otros conocimientos ya establecidos, para poder llegar de esa forma a una escala comercial de producción.
En este proceso de cambio de escala surgen problemas que en muchas ocasiones son ignorados completa o parcialmente y esa ha sido la causa de no pocos fracasos. Estos problemas pueden ser agrupados en dos tipos fundamentales: los que se relacionan exclusivamente con la necesidad de manejar grandes volúmenes de material y aquellos en que la naturaleza misma del problema se ve afectada por el tamaño de la escala de operación (Wiseman, 1986).
En el primer caso se tienen los problemas relacionados con los sistemas de enfriamiento, calentamiento y tratamiento de residuales, los cuales se llevan a cabo con relativa facilidad a nivel de laboratorio y requieren generalmente de equipos costosos y complejos cuando se realizan en la escala industrial. También son de este tipo de problemas los relacionados con la necesidad de utilizar diferentes materiales al paso a una escala mayor, como ocurre al emplear reactivos químicos comerciales en lugar de los de grado analítico o la utilización de recipientes metálicos en lugar de los de vidrio, lo que puede introducir problemas de contaminación.
Los problemas del segundo tipo surgen cuando los distinto parámetros del proceso se ven afectados de manera diferente por el tamaño de la unidad. Un ejemplo sencillo puede ser el efecto que sobre la superficie específica de un recipiente tiene el cambio de escala. Una serie de recipientes de proprociones geométricamente similares (Capítulo 2), pero de diferentes volúmenes, tienen un volumen que es proporcional al cubo del diámetro del recipiente, pero la superficie de la pared es proporcional al cuadrado del diámetro del recipiente, de manera que la superficie específica, que afecta a la transferencia de calor en las camisas refrigerantes, es proporcional al inverso del diámetro del recipiente.
Los microorganismos porpoprcionan otro ejemplo muy espectacular de este principio, ya que una de las características de su eficiencia como sistemas reaccionantes microscópicos es su gran superficie con respecto a su volumen. Una bacteria tiene un volumen de aproximadamente 5 x 10-19 m3 y una superficie de alrededor de 6 x 10-12, por lo que la superficie específia es de alrededor de 3 x 10 6, mientras que un m3 de agua se puede encerrar en un tanque con una superficie de 6 m2, lo que hace una superficie específica de 6 , o sea un millón de veces menor que la de las bacterias.
En los procesos químicos se tiene que durante la Investigación y Desarrollo de un nuevo producto, uno de los problemas que requiere una atención más estrecha y que en ocasiones llega a ser problemático, es el escalado del reactor. Es aceptado prácticamente por todos que el diseño de un reactor químico a escala comercial, el cual es el corazón de una planta química, no puede llevarse a cabo con un enfoque solamente teórico, por lo cual resulta imprescindible contar con datos de las reacciones involucradas obtenidos a nivel de laboratorio, banco o planta piloto.
Aunque básicamente la velocidad de una reaccion química resulta independiente del tamaño y estructura de un reactor (Tabla 6-1), la misma es influenciada por los procesos físicos, por ejemplo la transferencia de masa y calor, las cuales son controladas por el tamaño y estructura del reactor (30).
Tabla
6-1.Influencia del tamaño
en un número de mecanismos claves en los procesos
químicos, tomado de Trambouze, 1990 (30).
Mecanismo |
Variables importantes |
Influencia del tamaño |
Cinética Química |
T, C, P |
Ninguna |
Termodinámica |
T, C, P |
Ninguna |
Transferencia de calor |
Velocidades locales, P, C |
Indirecto |
Transf. de masa en una fase fluida |
T, C, Turbulencia |
Indirecto |
Transferencia de masa entre fases |
Velocidades relativas de fases, C, T |
Indirecto |
Convección forzada |
Rapidez de flujo, Geometría |
Importante |
Convección natural |
P, C, T, Geometría |
Determinante |
Por esa causa la reacción química se afecta por el tipo de reactor y el efecto del incremento de escala resulta normalmente impredecible de forma cuantitativa, lo que resulta más complejo aún cuando en la reacción participan diferentes fases, a causa de que los fenómenos no son todos afectados en la misma forma por las dimensiones de una planta (Tabla 6-2) (29).
Tabla 6.2. Efecto de
las dimensiones geométricas en lo fenómenos pirncipales que ocurren en un
reactor con fases múltiples.Tomado de Trambouze, 1979 (29).
DIMENSIONES GEOMÉTRICAS |
||||
MECA-NISMO |
Volumen ( DL2) |
razón L/D |
Superficie lateral/vol. ( D-1) |
|
Reac-ción química |
Fuerte, prácticamente determinante |
Débil e indirecto |
Sin influencia directa |
|
Transf. de masa |
No determinante. Indirecto |
Fuerte |
Sin influencia directa |
|
Transf. de calor |
Débil e indirecto |
Fuerte |
Fuerte y directo |
|
Un procedimiento de escalado satisfactorio puede requerir un enfoque empírico paso a paso, en el cual el tamaño del reactor se va incrementando paulatinamente, para poder conocer en detalle el efecto del cambio de escala en la velocidad y rendimiento de la reacción. Este procedimiento es largo y costoso.y por ello se han desarrollado un número de métodos semiempíricos alternativos para aliviar esta situación.
Entre esos métodos está la aplicación del Principio de Semejanza, estudiado en el Capítulo 2, la modelación matemática y el uso de modelos a gran escala (mockups) y en muchas ocasiones los mejores resultados se logran con el uso combinado de los mismos ( 25 ). No obstante, todos esos métodos requieren de los datos cinéticos y termodinámicos básicos, los cuales deben de obtenerse de la literatura si están disponibles o de la experimentación.
El proceso de Investigación y Desarrollo puede considerarse dividido en 5 etapas, niveles o escalas:
. Laboratorio
. Banco
. Piloto
. Semi-industrial
. Industrial
Esta división es convencional y por ello, como veremos más adelante, no son muy precisos los límites entre una escala y otra, ni tienen que considerarse siempre necesariamente todas las escalas, siendo bastante común, por ejemplo, obviar la escala semi-industrial. También hay casos, cuando el proceso es suficientmente conocido y sus características lo permiten, en que puede pasarse directamente de la escala de laboratorio a la escala industrial.
En su concepción más simple, el concepto de escalado se refiere al paso de una escala a otra, durante el proceso de desarrollo de un nuevo producto o tecnología. En ese caso se acostumbra a utilizar el término escalado ascendente (scale-up) al proceso que va desde la escala de laboratorio hasta la escala industrial y escalado descendente (scale-down) al proceso inverso aunque conceptualmente son un mismo y único proceso de escalado y la definición del concepto éscalado es un poco más compleja que el simple tránsito de una escala a otra.
Para comprender mejor la evolución que han tenido los conceptos relativos al uso de modelos y a las escalas, se debe partir de una de las expresiones más antiguas al respecto, escrita por Leonardo da Vinci en sus "Notas", aproximadamente en el año 1500 y citada por Johnstone y Thring (7) :
"Dice Vitruvio que los pequeños modelos no son útiles para conocer los efectos de los grandes y yo aquí propongo probar que esa conclusión es falsa "
(El Vitruvio a que se refería da Vinci era Marco Vitruvio Polión, arquitecto romano del siglo primero de nuestra era, autor de un tradato De architectura, dedicado a Augusto).
Ya a inicios de siglo, en el primer manual de Ingenieria Química que se conoce, su autor, George E. Davis afirmaba (7):
"A small
experiment made upon a few grammes
of material in
the laboratory will not be much
use in guiding to the erection of a large scale works, but there is no doubt
that an experiment based on a few kilogrammes will give nearly all
the data required ... "
(Un experimento pequeño,
realizado en el laboratorio con
pocos gramos de material no
será muy útil como guía para la construcción
de una planta a
gran escala, pero
no hay duda de que
un experimento basado en unos
pocos kilogramos nos dará casi
todos los datos requeridos ....)
Y en 1916, L. H. Baekeland (2), escribe una de las frases más famosas al respecto y que mejor aclara el propósito final de los experimentos relacionados con los modelos y las plantas piloto:
"Commit your blunders on a small scale and make your profits on
a large scale".
(Cometa sus errores en una escala pequeña y obtenga sus ganancias en una escala grande)
En todas estas expresiones se habla de modelos y escalas, grandes y pequeñas y esos conceptos se unen con el de escalado. Ahora bien ... ¿ Qué entendemos en la actualidad por escalado?
En la práctica existen muchas definiciones del término escalado. Una de las clásicas lo limita al estudio de los problemas asociados a la transferencia de datos del laboratorio y la planta piloto a la producción industrial (1). Una definición más reciente plantea que el escalado hace uso de los datos del laboratorio y/o planta piloto, complementados con modelos a gran escala (mockups) y modelación matemática, para determinar las dimensiones y el tamaño de una unidad industrial (4). Otra definición señala que éste consiste en el complejo de técnicas y metodologías que se utilizan para transferir un proceso desarrollado en una escala menor, a la escala de producción (7). y esta última se ajusta bastante a la concepción actual y por ello tomaremos, como definición de escalado, una variante de la anterior:
Escalado es el proceso mediante el cual se logra la exitosa puesta en marcha y la operación económica de una unidad a escala comercial basándose, al menos en parte, en resultados de investigaciones realizada a una escala más pequeña .
De esta definición de escalado quedan excluídos los casos de diseño de unidades industriales realizados con procedimientos de cálculos tradicionales, para los cuales sólo se necesitan los datos de las propiedades físico-químicas de las sustancias en proceso y las cantidades a procesar para obstener los valores de diseño requeridos.
Para que el concepto de escalado sea aplicado, es imprescindible que el diseño se realice sobre la base de investigaciones que se tengan que realizar con ese fin específico, a una escala inferior a la industrial, pero no se requiere que se transite por todas las etapas convencionales en que se dividen los procesos de I+ D.
El proceso completo, desde la escala de laboratorio hasta la comercial, pasando por trabajos de banco, planta piloto y escala semi-industrial, es largo y costoso y debe ser reducido en todo lo posible, con el fin de acortar el tiempo que media entre la concepción de un producto y su introducción en el mercado.
No existe duda alguna que es técnicamente posible transferir casi cualquier proceso desarrollado a nivel de laboratorio, directamente a la producción industrial a gran escala, si se dispone de suficiente tienpo y dinero, de forma que los diseñadores consideren factores de seguridad suficientemente amplios y que se esté dispuesto a un largo período de puesta en marcha, que permita adiestrar al personal y descubrir las diferentes causas de interrupciones y problemas de operación y afrontar los riesgos inevitables en la operación de nuevos procesos no suficientemente estudiados (7).
Tampoco existe duda que los datos obtenidos en plantas de pequeña escala, correctamente diseñadas y operadas, son mucho más seguros para el diseño que los obtenidos directamente del laboratorio, con lo cual se pueden reducir considerablemente los factores de seguridad en el diseño y reducir apreciablemente el período y los riesgos de la puesta en marcha de las unidades comerciales, pero para obtener dichos datos se requiere a su vez de tiempo y empleo de recursos materiales y humanos (7).
Por todo lo anterior, en todos los casos resulta imprescindible el análisis detallado de las características del proceso que se pretende desarrollar y del nivel de conocimientos que se tiene sobre el mismo, para poder decidir las etapas que hay que acocometer y planificarlas adecuadamente, de forma tal que se emplee el mínimo de recursos y se culmine en el menor tiempo posible.
Las técnicas de escalado se han desarrollado precisamentre con el objetivo de reducir al mínimo indispensable ese tiempo de I+D y en ellas juegan un papel determinante las consideraciones técnico económicas.
Finalmente se debe considerar otro objetivo ligado al concepto de escalado y que es el estudio del comportamiento de una planta en producción existente, a partir de una unidad pequeña que reproduce, en lo fundamental, el funcionamiento de la unidad comercial. Este objetivo cae dentro de la esfera del estudio de los procesos pero en principio no se diferencia del objetivo relacionado con el desarrollo de nuevos procesos, siendo la única diferencia práctica el hecho de que para el estudio de los procesos se requiere, casi siempre, solamente de la etapa equivalente a la planta piloto.
Para la definición de los límites entre una escala y otra existe una gran diversidad de criterios y en muchos casos se ha utilizado el volumen de los equipos como el criterio fundamental, particularmente en lo relacionado con la industria Biotecnológica, aunque en ese caso en realidad lo que se trata es de un significado particular del concepto de escalado, bastante más restringido que el concepto de escalado adoptado modernamente.
En la industria Biotecnológica resulta de particular significación el incremento paulatino del volumen en el que se desarrollan los microorganismos, de forma tal de asegurar un crecimiento adecuado, con las condiciones requeridas de asepsia y en un tiempo dado. Normalmente este incremento se regula de manera tal que cada nueva etapa se realice con una carga inicial (inóculo) entre un 5 y un 10 % del volumen efectivo total del equipo en cuestión y esto se efectúa siempre, con independencia de si el proceso es uno ya establecido o un proceso en desarrollo.
Este llamado "escalado" de las producciones Biotecnológicas no tiene realmente nada que ver con el escalado que se estudia en el presente texto, pero ha sido causa de confusión y una de los motivos por los cuales se utiliza mucho el volumen de los equipos como criterio de definición entre las etapas de los procesos de I+D.
También se han utilizado como criterios las relaciones entre las dimensiones lineales de los equipos (factores de escala geométricos), a partir de consideraciones de criterios de semejanza. En ocasiones se toma como valor aproximado que los factores de escala geométricos (lineales) deben estar en el rango de 5 a 15. De esa forma una columna de 2 m de diámetro puede ser escalada por una de 250 mm, lo que representa un factor de escala de 8. No obstante, en la práctica no es raro hallar factores tan bajos como 3 o tan altos como 100.
Una columna de 250 mm normalmente puede ser considerada demasiado grande para una instalación a escala pequeña , incluso para una planta piloto, a menos que se desee procesar una cantidad muy grande de producto y por ello se debe considerar un factor de escalado mayor, por ejemplo 13 y considerar entonces una columna de 150 mm, mucho más adecuada y aún dentro del rango recomendado. Si anteriormente se realizó el trabajo en la escala de banco con una columna de 25 mm de diámetro, los factores de escala empleados han sido 6 y 13, o sea se ha ido avanzando de un diámetro de 25 mm a 150 mm y finalmente a 2000 mm.
Por otra parte, cuando se escalan reactores la tendencia es a considerar el factor de escala por el volumen y esto lleva en ocasiones a considerar factores más elevados que el rango recomendado. Por ejemplo, si una reacción a escala de banco se ha realizado en un recipiente de l2 L y el tamaño final del reactor industrial se estima en unos 11500 L, se puede pensar que serán necesarias dos etapas intermedias, una de 100 L y otra de 1140 L, lo que daría factores de escala de 8, 12 y 10 respectivamente.
Sin embargo, se puede considerar mejor un valor intermedio de 400 L y en ese caso los factores de escala obtenidos (33 y 29) aunque superiores al rango recomendado, son también aceptables y esta opción constituye un buen compromiso, evitando tener que construir dos plantas piloto. Además si se considera la relación de escala con respecto a la dimensión lineal en lugar del volumen, lo que es realmente lo recomendado para el escalado, el cuadro cambia totalmente, ya que:
o sea factores de escala modestos, incluso por debajo del rango recomendado.
No obstante, en realidad el mejor criterio de definición de los límites entre las distintas escalas es la de los objetivos que se persiguen con cada una de ellas y los resultados que se esperan. Con ese criterio más amplio se pueden considerar la realización de etapas, por ejemplo de banco y piloto, con equipos de pequeño volumen, normalmente considerados de laboratorio, en los casos en que el nivel de precisión y automatización sea tan elevado y la necesidad de obtener productos de muestra tan pequeña, que se puedan cubrir entonces los objetivos señalados para esas etapas, con un considerable ahorro económico (4, 5, 8).
El laboratorio constituye la unidad primaria de investigación en la que quedan determinadas las metódicas de síntesis o procesamiento y se establecen las condiciones bajo las cuales se obtienen los mejores resultados.
El laboratorio confirma o rechaza las hipótesis obtenidas del conocimiento previo y de la literatura y se obtienen datos que contribuyen a enriquecer la información sistematizada, que constituye la base para el trabajo a escala de banco y/o planta piloto. Además se obtiene información para la realización de evaluaciones económicas preliminares y se determinan diversas propiedades físico-químicas, necesarias para los cálculos ingenieriles y la formulación y comprobación de modelos matemáticos.
Los objetivos Principales de esta etapa son la obtención, recuperación y purificación de los productos de interés, asi como el análisis y caracterización de los mismos. Además, en el caso de la Síntesis Química se definen otros objetivos como:
Conocer la influencia de los variable macroscópicas (composición, temperatura, pH, etc.) en el rendimiento u otro parámetro que caracterice la eficiencia del sistema.
Optimización de la síntesis a ese nivel.
Conocimiento de la cinética, incluyendo la construcción de modelos matemáticos.
Propiedades físicas y químicas del nuevo producto.
Influencia de los reactivos empleados en los cambios de escala.
Caracterización de los subproductos y residuales.
Evaluación económica preliminar.
En el caso de los procesos biotecnológicos, se tienen como objetivos :
Selección y evaluación de cepas.
Optimización del medio y de otras variables experimentales y de proceso.
Información en cortos plazos de tiempo a muy bajo costo.
En esta etapa la investigación comienza a adquirir un carácter tecnológico y posee sus particularidades que la distinguen (6):
Se orienta a la configuración de las unidades experimentales con características geométricas y operacionales similares a los equipos de planta piloto o industriales disponibles o recomendables, a diferencia de la etapa de laboratorio, donde el equipamiento utilizado difiere considerablemente del industrial.
Conlleva un mayor nivel de instrumentación y automatización .
El trabajo experimental se orienta hacia el completamiento y precisión de la informacion de laboratorio.
Los estudios de banco constituyen un paso de gran importancia y pueden contribuir a reducir considerablemente los costos de la investigación y obviar, en algunos casos, la necesidad de los trabajos a escala piloto.
Los objetivos principales de esta etapa son :
1. Revelar la esencia de los fenómenos que ocurren en los procesos.
2. Revelar los pasos controlantes o críticos en las operaciones.
3. Verificar hipótesis de modelos matemáticos.
4. Aportar información para cálculos y diseños de ingeniería.
Además en el caso de la
Síntesis Orgánica, hay otros
objetivos como:
Realizar estudios fundamentales de ingeniería de procesos como los fenónemos de superficie, fenómenos reológicos, equilibrio de fases, separaciones complejas, estudios de materiales, etc.
Determinar propiedades y características físico-químicas de las sustancias como la densidad, viscosidad, tensión superficial, tamaño de partículas, porosidad, calor específico, etc.
Conocer la Termoquímica (calores de reacción) y Termofísica (capacidad calorífica de las mezclas,etc).
En el caso de los procesos
biotecnológicos se consideran también
los siguientes objetivos:
1. Selección del procedimiento de desarrollo de inóculos, esterilización del medio, aireación, agitación y operaciones de purificación.
2. Ajuste de variables como razón de transferencia de oxígeno, evolución de dióxido de carbono, producción de biomasa, biosíntesis de metabolitos y efectos del pH.
3. Estudio del régimen de alimentación continua o incrementada.
4. Selección de alternativas de control e instrumentación.
5. Evaluación económica preliminar y estimado de viabilidad del proceso.
Esta etapa permite un enfoque científico a relativo bajo costo.
Los estudios de escala piloto resultan de especial importancia para el cambio de escala en muchos procesos, pero poseen un alto costo y la decisión de su realización debe estar subordinada a un conjunto de factores entre los cuales se destacan:
Tipo de proceso
Nivel de información disponible
Tamaño propuesto para la unidad industrial
La planta piloto debe montarse y operarse de manera que permita satisfacer al menos uno de los siguientes objetivos principales:
1. Evaluar la factibilidad de un proceso tecnológico.
2. Obtener la información para el diseño de una planta comercial.
3. Obtener cantidades de productos con fines de ensayo o promoción.
Además de estos, en el caso de
la Síntesis Orgánica se tienen los siguientes objetivos específicos:
Obtener "know-how" del proceso.
Corroborar teorías sobre mecanismos de los procesos.
Obtener informnación para el tratamiento de residuales.
Ensayar materiales de construcción.
Probar métodos de análisis de procesos y control de calidad.
Estudiar sistemas para el control de procesos.
Evaluar nuevos equipos y sistemas tecnológicos.
Entrenar al personal.
En el caso de
los procesos biotecnológicos, se tienen los siguientes objetivos específicos:
1. Confirmar los datos obtenidos a nivel de banco y verificar los criterios de escalado.
2. Selecciónar las estrategias de esterilización del medio y de concentración y purificación de productos.
3. Obtener cantidades de productos para pruebas de caracterización, toxicológicas, promoción de mercado y verificación de la viabilidad del proceso.
4. Ofrecer una información de validación a un costo relativamente alto .
Esta es una etapa cara del proceso de escalado que puede prolongar excesivamente la introducción de una nueva tecnología en el mercado y sólo se realiza para aquellas tecnologías de una gran complejidad y que representan un salto apreciable en el nivel de desarrollo existente (14).
En ocasiones, a las plantas de este tipo se le han denominado plantas demostrativas, aunque otros autores prefieren el término de plantas prototipo (3,4). Estas plantas se construyen de igual forma que una planta de escala completa, pero a una capacidad de producción menor, usualmente un décimo de la proyectada para la escala definitiva, que permite el acopio de experiencias durante su funcionamiento y sirve de modelo a las futuras plantas in dustriales que se construyan (14).
En la mayoría de las ocasiones esta etapa del escalado puede omitirse, lo que representa una considerable reducción en el periodo de desarrollo de una tecnología.
Normalmente esta escala no se considera una parte del proceso de investigación y desarrollo y esto constituye un error conceptual con fuertes implicaciones de índole práctica.
Realmente la industria constituye, no sólo una prueba de validación de las experiencias precedentes, sino que enriquece la información ingenieril disponible y los modelos matemáticos formulados y brinda información de gran valor para el perfeccionamiento de equipos y para la optimización del propio proceso productivo (6).
Además en la mayoría de los casos las instalaciones a escala de banco y/o piloto se diseñan a partir de un "scale-down" de la instalación industrial existente o supuesta, en base a la experiencia acumulada con la operación de otras industrias. Por todo lo anterior, la escala industrial debe ser considerada una etapa importante en el conjunto de las tareas de I+D.
El concepto de ingenierización ha comenzado a tomar fuerza en los últimos años y a menudo se confunde total o parcialmente con el escalado de los procesos productivos (6).
Anteriormente se concebía el trabajo de los ingenieros como una etapa posterior al logro científico, y el trabajo se organizaba de una manera secuenciada, donde las distintas especialidades entran según les llega su turno. Sin embargo esta manera de trabajar ha llevado a muchos fracasos y, en el mejor de los casos, provoca un alargamiento del período necesario para la introducción de un logro científico en la práctica social.
Esta forma anticuada de desarrollar un producto puede ser ejemplificado de la forma siguiente (12):
"Un químico inventa un nuevo producto químico o proceso en su laboratorio y lo estudia intensamente en una microescala. Obtiene una gran cantidad de información con estudios de parámetros no cuantitativos y como resultado puede obtener varias patentes que incrementan su prestigio cientifico, así como el de la institución a la cual pertenece.
La nueva invención se lleva al departamento de desarrollo comercial, el cual trabaja para hallar un mercado adecuado para tan maravilloso producto y para ello se comienza por la realización de un análisis económico. El entusiasmo de los dirigentes y la utilización de los datos no cuantitativos obtenidos por el químico, hacen que los cálculos muestren al producto como un seguro triunfador y eso hace que el entusiasmo aumente más aún.
La presión ejercida sobre el departamento de desarrollo comercial hace que encuentren el nuevo mercado lo antes posible y con ello se confirman las optimistas predicciones del estudio económico y el proyecto se pasa al departamento de desarrollo. Hasta ese momento el trabajo se ha ido realizando en plazos de tiempo inferiores a los del cronograma de trabajo y el ambiente de optimismo hace pensar que el trabajo del ingeniero de desarrollo no puede hacer otra cosa que confirmar los datos del químico y del departamento comercial.
Pero desgraciadamente en la inmensa mayoría de los casos esto no ocurre así. El ingeniero realiza estudios de planta piloto y siempre encuentra problemas como pueden ser: peores rendimientos y selectividades que las predichas, menores tiempos de vida de los catalizadores, problemas con componentes trazas en la materia prima, etc.
Después que encuentra un mínimo de dos o tres problemas, el ingeniero los discute con el químico y generalmente esto lo disgusta. El químico piensa que su maravillosa invención está siendo torpedeada por el ingeniero y las relaciones entre ambos comienzan a deteriorarse, lo que dificulta y alarga considerablemente el proceso de introducción del producto al mercado, si es que realmente se puede llevar el producto a vías de hecho.
Con ese método de trabajo el químico pudo alcanzar varias patentes y realizar un número adecuado de publicaciones que acrecienta su prestigio, los especialista de desarrollo comercial probaron sus habilidades en la búsqueda de nuevos mercados, el ingeniero demostró su habilidad en el trabajo a nivel de planta piloto, pero la institución no logró resarcirse de los gastos realizados o en el mejor de los casos, tuvo una demora considera ble en obtener ganancia así como una reducción apreciable en la magnitud de las mismas".
El concepto moderno de ingenierización es totalmente distinto a esa forma de trabaja:
La ingenierización contempla la interacción de los ingenieros de las distintas especialidades (químicos, bioquímicos, mecánicos, eléctricos, industriales, etc.) junto con los investigadores de laboratorio (químicos, bioquímicos, biólogos, médicos, físicos, etc.), desde el inicio mismo del proceso de I+D (6, 12, 13 y 17).
Aquí en lugar de la Ingenieria por etapas o Secuencial del enfoque tradicional se emplea el concepto de Ingeniería concurrente (17), lo que lleva a la utilización de equipos multidisciplinarios, prácticamente desde el inicio del proceso de escalado. Para la aplicación de la Ingenieria concurrente se necesitan algunos requisitos elementales, como son (15):
1. Tener facilidades de comunicación entre el colectivo, que en ocasiones resulta bastante numeroso.
2. Usar técnicas de trabajo en grupo y técnicas de solución de problemas.
3. Disponer de locales de trabajo adecuados y servicios de oficina y de apoyo en general.
4. Disponer de bases de datos comunes.
Además, a este enfoque de trabajo se oponen muchos procedimientos establecidos y actitudes, entre las que se destacan (15):
Departamentalización estructural
Sistema de estimulación diseñado para el individuo y no para el colectivo.
Dirigentes apegados a dar soluciones simples a problemas complejos.
No obstante estas dificultades la Ingeniería concurrente y en general la Ingenierización, ha demostrado su utilidad práctica y esta forma de trabajar integrado en grupos multidisciplinarios ha sido adoptada a nivel mundial, especialmente a partir de la década del 90. (6, 12, 13, 15, 17).
En esta concepción (Figura 1.1), se parte de que en la generalidad de los casos, el surgimiento de un nuevo producto o tecnología es consecuencia de una demanda social que impone la necesidad de una respuesta tecnológica y de una demanda de mercado que estimula una respuesta de la que se esperan varias ventajas económicas o de otra índole, por lo cual la iniciativa para el desarrollo surge generamente de instituciones o empresas motivadas por la interacción del factor social y del mercado (11).
Este proceso constituye realmente una etapa exploratoria y culmina con el planteamiento del problema a resolver por la I+D: la necesidad de un nuevo producto o tecnología (11). Después de planteado el problema viene una etapa preparatoria, en la cual se precisa mejor la tarea y se toman como antecedentes todo el conocimiento anterior aportado por la bibliografía. La investigación bibliográfica reporta una información que debe ser cuidadosamente analizada y ordenada, de forma que pueda ser adecuadamente utilizada en cada etapa de la investigación.
A partir de esa etapa preliminar, que puede incluir un trabajo inicial de laboratorio, comienzan las etapas fundamentales del proceso de desarrollo del nuevo producto o tecnología: las etapas de Ingenierización, en las cuales trabaja un colectivo multidisciplinario y donde las tareas de ingeniería de proceso se realizan en paralelo al trabajo de las distintas escalas (Figura 1.1) (7. 11. 13).
Del trabajo conjunto de investigación e ingeniería, surgen las variantes iniciales del diseño de planta, que sirven en cada caso para diseñar y seleccionar adecuadamente el equipo que se usará en la escala siguiente, pudiéndose decidir incluso la eliminación de algunas de las etapas, si el nivel de información así lo aconseja.
Se llega de esa forma a la etapa final de diseño y proyectos de Ingeniería, donde se realiza toda la documentación final del proyecto (6), la que debe estar compuesta de:
1. Diagrama de flujo y Balances de materiales y energía del proceso en su conjunto ("Flowsheeting del proceso").
2. Definición primaria de las especificaciones de equipos y otros elementos del sistema tecnológico.
3. Diseño de ingenieria de procesos y automática de equipamiento.
4. Diseño de la planta, como un sistema integral, incluyendo los servicios con la calidad requerida, protección del medio y del personal y las buenas prácticas de producción.
5. Proyecto Ejecutivo de los equipos y otros elementos de fabricación nacional.
6. Documentación técnica de puesta en marcha y operación.
En esta etapa final participa un gran volumen de ingenieros y técnicos los cuales, en su mayor parte, han tenido que estar vinculados al desarrollo de las etapas anteriores del proceso de I+D, si se han cumplido adecuadamente los procedimientos de la ingenierización y ello conlleva a acortar los plazos de terminación mejorar la calidad considerablemente.
Otro elemento que se debe tener en cuenta en esta etapa final, es la necesidad de aplicar las modernas técnicas de computación que se han desarrollado, como es el caso de la Ingeniería de Procesos auxiliada por Computadoras (Computer Aided Process Engineering, CAPE) (16), mediante la cual se integra el "flowsheeting" del proceso al manejo de los datos y la confección de la documentación de proyectos correspondiente, de forma automatizada e integrada, lo que reduce sensiblemente el tiempo de proyección y mejora su calidad.
El empleo de la computación se debe hacer también en el resto de las etapas del escalado, siendo un elemento fundamental para el registro y evaluación de los datos obtenidos en los experimentos y en el desarrollo y evaluación de los modelos matemáticos, lo que ayuda también a reducir el número de experimentos y de etapas a realizar, con la consecuente reducción del periodo de tiempo que lleva este proceso.
En la actualidad se dispone de experiencias positivas con la utilización de sistemas computarizados para la recolección y procesamiento de datos (SRD), durante los procesos de escalado (10), las que deben ser tenidas en cuenta en los trabajos que se realicen, en dependencia del equipamiento de control e instrumentación medios de computación de que se dispongan.
Por todo lo antes expuesto se puede pensar que el escalado se relaciona solamente con los procesos industriales, lo cual no es cierto, ya que en la vida cotidiana se debe hacer uso de estos conceptos, aunque en la mayoría de los casos es probable que se haga de forma intuitiva o incluso incorrecta. Un ejemplo de su aplicación en una actividad cotidiana está en la cocina. Si se revisa un libro típico de esta especialidad como es "Cocina al Minuto", de Nitza Villapol (Editorial Oriente, Santiago de Cuba, 1988), se puede encontrar (página 28):
" Se aconseja no duplicar o triplicar una receta la primera vez que usted la pruebe. La cocina, en cantidades mayores requiere ligeras modificaciones de condimentos y tiempo de cocción, además de condiciones apropiadas en cuanto a utensilios y refrigeración. La mayoría de las recetas que aparecen en este libro han sido calculads para condiciones domésticas".
En ese párrafo está claro la referencia a los problemas de escalado relacionados principalmente con el aumento de volumen (cocina doméstica vs. cocina a gran escala, por ejemplo en un comedor de gran capacidad), aunque también hay referencia a los problemas del segundo tipo en lo relacinado con las modificaciones de condimentos y tiempo de cocción.
También puede leerse, en esa misma página: "Para reducir una receta a la mitad use exactamente el 50% de todos los ingredientes....... Para duplicar la receta use exactamente el doble de todos los ingredientes.... Para hacer la mitad de las recetas de pasteles, cakes, etcétera, deben seleccionarse moldes más pequeños en proporción a esa cantidad, para que el tiempo y la temperataura de horneo sean similares. Si se usa el mismo tamaño del molde para la mitad de la receta, el tiempo de horneo será aproximadamente la mitad, pero eso no siempre es recomendable, ni asegura los mejores resultados. Lo mejor es utilizar moldes más chicos".
"Para duplicar la receta.... si se trata de cakes o panetelas deberá usarse, para más seguridad, doe moldes del tamaño que indica la receta, pero si se desea podrá usarse uno que tenga el doble de capacidad, cuidando el tiempo de horneo, que será entonces mayor y muy variable de acuerdo con las condiciones del medio".
¿Puede Vd. explicar cuáles son las variaciones que se producen en el horneo durante el escalado (ascendente o descendente) que hacen necesario variar el tiempo de horneo?.
El insuficiente desarrollo de los procesos de escalado constituye una de las dificultades que se presentan en las condiciones actuales de Cuba, al tratar de avaluar técnica y económicamente los resultados científicos (1). El no dominio de estos procedimientos ha sido la causa de no pocos intentos fallidos y de procesos industriales deficientes (6, 15).
Los ejemplos de este sentido son abundantes y es posible ejemplificarlos con las dificultades que han existido con el desarrollo del proceso industrial de fermentación del bagazo en estado sólido para la producción de alimento animal (sacharina), el cual no ha podido cumplir con las expectativas que los elevados contenidos de proteína obtenidos en las pruebas a pequeña escala, hicieron surgir.
Esta situación hizo necesario que en 1991 el Consejo Científico Superior de la Academia de Ciencias de Cuba (A.C.C.) analizara un estudio realizado al efecto por una Comisión temporal de ese Consejo (1) y que se realizara un estudio similar para su discusión en el Polo Científico del Oeste en 1992 (6). Como resultado de esos análisis se adoptaron un grupo de medidas encaminadas a revertir esta situación, entre las que se destaca la organización de eventos científicos internacionales sobre esa temática, llevados a cabo con éxito en l992, 1993 y 1995.
Otras recomendaciones se refieren al papel que deben jugar los Centros de Educación Superior del país en la profundización del trabajo sobre escalado e ingenierización y en ese sentido destacan las palabras del Ministro de Educación Superior, Dr. Fernando Vecino Alegret, el cual planteó, en su intervención del 2 de mayo de l993, en el Seminario de Perfeccionamiento para dirigentes de la Educación Superior:
"Una insuficiente infraestructura
tecnológica, un pobre
desarrollo de los
procesos de escalado
y la insuficiente evaluación económica, son barreras aún
presentes para alcanzar resultados que reporten verdaderos
beneficios económicos y
sociales, a partir de la investigación científica.
En la solución
de este problema,
las universidades pueden hacer una importante contribución al país, razón
por lo que hemos incluído
entre nuestros objetivos principales trabajar en el escalado e ingenierización de procesos para el desarrollo
de aquellas tecnologías vinculadas
con resultados científicos obtenidos por los
Centros de Educación Superior o por
otras instituciones del
país".
"Técnicas a emplear en el proceso
de Escalado".
Para cumplir con el objetivo del escalado, o sea obtener un procedimiento industrial exitoso, se necesita aplicar un conjunto de técnicas, metodologías y procedimientos que permitan transferir a la escala industrial, los datos obtenidos en los experimentos a escala reducida.
Lo ideal sería que este estudio se pudiera realizar de manera teórica, sin necesidad de experimentos, aplicando las leyes generales de la física y la química y resolviendo las ecuaciones, por lo común diferenciales, que describen por completo los procesos.
En la práctica ésto sólo es posible en muy contados casos, ya que si bien en muchas ocasiones se conocen las ecuaciones diferenciales que describen los procesos de interés, en la mayoría de ellas no es posible realizar su integración y por ello no queda otra vía que recurrir a la investigación experimental, es decir a los ensayos y pruebas.
A su vez, en la mayoría de los casos resulta difícil y costoso, cuando no imposible, experimentar directamente con los procesos de interés y no queda otra alternativa que recurrir al empleo de modelos que permitan reproducir, en los laboratorios, los procesos que se quieren estudiar.
El empleo de los modelos hace necesario la aplicación de la Teoría de los Modelos y para ello es fundamental tener en cuenta que en la misma se utilizan un grupo de términos que o bien no son utilizados normalmente o lo que es peor aún, se utilizan con un sentido diferente al que se les da en esta Teoría (Apéndice 1).
De todos esos conceptos, los primarios resultan los de modelo y prototipo, los cuales se definen de la forma siguiente:
"Un modelo es un dispositivo o medio que está concebido de
tal manera que puede ser usado para
predecir el rendimiento
de un prototipo. El prototipo, a
su vez, es el sistema físico a escala completa, que va a ser modelado (8).
El prototipo no tiene necesariamente que existir materialmente antes que su modelo. Lo determinante en el trabajo con modelos y prototipos es la relación que existe entre el comportamiento de las unidades de pequeña y gran escala, con independencia de cual de ellas exista primero en el tiempo.
Lo que sí resulta indispensable, cuando se concibe el modelo de un prototipo aún inexistente, es que esa concepción se haga teniendo en mente el tipo y forma de la unidad a gran escala que se pretende obtener (3), para lo cual se utilizará la información obtenida antes de comenzar las etapas de escalado (2).
Esta consideración hace que en la mayoría de los casos el escalado de un producto o proceso desde el nivel de laboratorio hasta el nivel industrial (scale-up), sea realmente precedido por el proceso de escalado desde el equipo industrial supuesto hasta el laboratorio (scale-down), lo que demuestra que estos dos procesos no son más que etapas de un único e integral proceso de escalado.
Para la realización de ese proceso se utilizan fundamentalmente los métodos basados en el Principio de Semejanza y la Modelación Matemática, o una combinación de ambos (1,11), aunque en este texto se tratará especialmente el método del Principio de Semejanza, de manera tal que con la metodología empleada se puedan conocer los casos en que se necesite el apoyo de la Modelación Matemática.
El Principio de Semejanza se aplica a los sistemas en los cuales se emplean modelos homólogos, o sea aquellos modelos que sólo se diferencian del prototipo en el tamaño o escala. La modelación matemática se aplica tanto a modelos homólogos como a los analógicos, ya sea como método único de escalado en los casos en que existe suficiente información para ello, o en unión con el Principio de Semejanza, en la mayoría de los casos.
El Principio de Semejanza tiene que ver con las relaciones entre sistemas físicos de tamaños diferentes y es por consiguiente fundamental para la ampliación y disminución de escala en los procesos físicos y químicos. Este principio fué enunciado por primera vez por Newton, para sistemas compuestos por partículas sólidas en movimiento y sus primeras aplicaciones prácticas fueron en los sistemas fluídos, campo en el cual ha probado ser particularmente útil (3,4,9).
Muchos científicos relevantes tomaron parte en el desarrollo de la Teoría de los Modelos, formulando el principio de semejanza y sus consecuencias con un alto grado de rigurosidad (3). Las aplicaciones iniciales de este principio fueron en la construcción naval y posteriormente se extendieron a otros campos
de la ingeniería mecánica y civil y a la aeronáutica.
En el campo de la Ingeniería Química, las aplicaciones prácticas iniciales se dirigieron a la correlación del rendimiento de mezcladores de propelas, paletas y turbinas, semejantes geométrìcamente y se extendieron posteriormente a otros campos más complejos hasta llegar al desarrollo y aplicación de la semejanza química para el escalado de los reactores químicos (12, 16, 17).
Para la aplicación del principio (3), se parte de considerar que los objetos materiales y los sistemas físicos en general, se caracterizan por tres cualidades: tamaño, forma y composición, las cuales son variables independientes. Esto quiere decir que dos objetos pueden diferir en tamaño teniendo la misma composìción
química y forma o pueden ser iguales en forma pero tener diferentes tamaños y estar compuestos de materiales diferentes.
El Principio de Semejanza está especialmente ligado con el concepto general de forma, aplicado a sistemas complejos, que incluye no solamente las proporciones geométricas de sus miembros sólidos y superficies, sino también factores como los patrones de flujo de fluídos, gradientes de temperaturas, perfiles de concentración, etc.
En términos más precisos se define que:
El Principio
de Semejanza establece
que la configuración espacial y temporal
de un sistema físico, se
determina por relaciones de
magnitud dentro del sistema
mismo y no
depende del tamaño del sistema
ni de las unidades de
medida en las cuales se miden esas magnitudes.
Estas relaciones de magnitud pueden ser medidas de dos formas diferentes: especificando las proporciones entre diferentes mediciones en el mismo cuerpo (proporciones intrínsecas o factores de forma) o comparando mediciones correspondientes en cuerpos diferentes (relaciones o factores de escala).
En el primer caso se requieren valores de un cierto número de factores de forma para poder definir la configuración de un objeto y por lo tanto su semejanza con otro, mientras que en el segundo basta un único y constante factor de escala para definir esa semejanza.
Como ejemplo de lo anterior tenemos que la forma geométrica de un cuerpo se determina por sus proporciones intrínsecas: (relación altura/ancho, relación ancho/espesor de la pared, etc.) por ello dos cuerpos serán semejantes geometricamente, cuando esos factores de forma son iguales entre ambos. A su vez cuando se comparan dos cuerpos geométricamente semejantes, las relaciones entre sus respectivas alturas, anchos y espesores son constantes y constituyen el llamado factor de escala.
Por esa razón la semejanza geométrica se define mejor en términos de correspondencia y su factor de escala. Sin embargo cuando las comparaciones son hechas con otras variables como la velocidad, la fuerza o la temperatura, la semejanza se define mejor con relaciones intrínsecas para cada sistema, los que constituyen los grupos adimensionales, tan conocidos por los ingenieros. Por tanto, cuando se dice que dos sistemas son semejantes es necesario, además, especificar cuáles son las configuraciones internas de los mismos que se comparan (geométricas, cinemáticas, térnicas, etc).
Con estas definiciones básicas, se está en condiciones de estudiar más detalladamente el Principio de Semejanza y para ello se considerararán los cuatro tipos de semejanza más importantes en las aplicaciones de Ingeniería Química y Bioquímica (8):
1- Semejanza geométrica (dimensiones
proporcionales)
2- Semejanza mecánica:
a- Semejanza estática (deformaciones
proporcionales)
b- Semejanza cinemática (tiempos
proporcionales )
c- Semejanza dinámica (fuerzas
proporcionales)
3- Semejanza térmica (temperaturas
proporcionales)
4- Semejanza química (concentraciones
proporcionales)
Hay que tener en cuenta que si bien estrictamente hablando, cada una de esas semejanzas requiere del cumplimiento de todas las anteriores a ella, es muy difícil lograr eso en la práctica y por ello en muchas ocasiones es necesario aceptar una aproximación, por ejemplo, a la semejanza química, con sustanciales divergencias en la semejanza mecánica.
También hay que considerar que todos los casos de Semejanza de hecho contienen un elemento de aproximación, debido a factores de distorsión que estrán siempre presentes y que impiden que en la
realidad se pueda obtener una semejanza ideal. Por ejemplo, dos conductos para fluidos pueden ser diseñados y construídos con dimensiones geométricamente semejantes, pero es virtualmente imposible hacer también semejante geométricamente la rugosidad superficial, y esas diferencias pueden tener alguna influencia
sobre los patrones de flujo en ambos conductos.
Sin embargo, a menudo esas desviaciones de la semejanza ideal son despreciables y la aproximación obtenida es totalmente válida a los efectos prácticos. En los casos en que no se logre ésto, se tienen que considerar los llamados efectos de escala e introducir correcciones de alguna clase. a la hora de realizar los escalados ascendentes o descendentes.
En estas discusiones sobre semejanza, es necesario referirse frecuentemente a cantidades correspondientes y sus relaciones en sistemas semajantes. En esos casos en el numerador se colocarán siempre las magnitudes referidas al prototipo y se diferenciarán de las del modelo por un apóstrofe. Las relaciones entre ambas cantidades correspondientes se expresarán empleando caracteres en negrita, lo que resulta una forma conveniente y compacta de representar las relaciones de escala.
La semejanza geométrica se define mejor en términos de correspondencia y por tanto por el factor de escala L, qurelaciona las distintas dimensiones lineales de un sistema con las del otro y que se pueden ejemplificar de la forma siguiente:
Consideremos dos cuerpos (Figura 2.1) cada uno de los cuales está provisto de tres ejes imaginarios que se intersectan en el espacio, de forma tal que cada punto de los cuerpos es descrito por tres coordenadas y tomemos un punto P' dentro del primer cuerpo (el mayor) cuyas coordenadas son X', Y', Z', y un punto P dentro del segundo cuerpo (el menor), cuyas coordenadas son X. Y, Z.
Si se cumple que ambos están relacionados por la ecuación:
donde la relación o factor de escala lineal L es constante, se puede decir entonces que esos dos puntos y todos los otros pares de puntos cuyas coordenadas espaciales estén similarmente relacionadas en términos de L, son puntos correspondientes.
Se define entonces que dos cuerpos son geométricamente semejantes cuando para cada punto en uno de ellos existe al menos un punto corrrespondiente en el otro.
El concepto de semejanza geométrica se ilustra en la figura 2.1, donde x - x', y - y' y z -z'. son coordenadas correspondientes, P y P' puntos correspondientes y L y L' longitudes correspondientes.
Figura
2.1 Semejanza geométrica (Tomado de Johnstone y Thring, 1957).
Es posible que cada punto del cuerpo a menor escala tenga más de un punto correspondiente en el segundo. Esto ocurre cuando el segundo cuerpo está compuesto de múltiples elementos cada uno de los cuales es geométricamente similar al primer cuerpo. Este es el caso, por ejemplo, de un panal de miel, el cual es geométricamente similar a una célula dodecaédrica única.
Además, no es necesario que las relaciones de escala sean las mismas a lo largo de cada eje y por ello se puede plantear una relación más general, a través de las ecuaciones:
donde X, Y, y Z, son relaciones de escala constantes, no necesariamente iguales entre sí. En los casos en que las relaciones de escala son diferentes en las distintas direcciones, se considera que se tiene una semejanza distorsionada.
Las aplicaciones de esos conceptos geométricos a las plantas de procesos sugieren diferentes tipos de aparatos a pequeña escala que podían ser considerados semejantes a los aparatos de gran escala. Por conveniencia se ha convenido que los aparatos a gran escala se denominen prototipos,con independencia de si existen primero o después que el aparato de pequeña escala, mientras que una réplica semejante geométricamente de un prototipo completo se denomina modelo, si las relaciones de escala son iguales en todas
las direcciones o modelo distorsionado si las relaciones de escala son diferentes en algunas de las direcciones.
Cuando el prototipo tiene una estructura múltiple, compuesta por elementos sustancialmente idénticos, como por ejemplo, un intercambiador de calor tubular, una torre empacada, un filtro prensa o un reactor catalítico, el aparato a pequeña escala puede ser un elemento, o sea una réplica a escala completa de una o más
células completas o unidades componentes del prototipo. También el aparato a pequeña escala puede ser un elemento modelo, o sea un modelo a escala de un elemento del prototipo completo y ese elemento modelo puede ser además un elemento modelo distorsionado.
Todas esas relaciones geométricas se ilustran en la figura 2.2, en la que se muestra también la relación de sección B , la cual es la relación entre el área de la sección transversal del prototipo con relación a la del elemento o del respectivo número de células unitarias o componentes. Los modelos son definidos a través de la relación de escala L y los elementos modelos tienen a la vez una relación de sección B y una o más relaciones de escala.
El concepto de elemento es útil solamente cuando los efectos provocados por las paredes del recipiente pueden ser ignorados o controlados independientemente, como es el caso de un reactor catalítico, donde la superficie frontera es normalmente despreciable comparada con la superficie interior.
También puede ser permisible, en ciertas circunstancias, considerar un recipiente vacío como un elemento de uno grande, cuando, por ejemplo, el recipiente pequeño es controlado térmicamente con un enchaquetado adiabático. Lo fundamental en un elemento es que bajo idénticas condiciones debe producir el mismo grado de cambio que produce el prototipo, pero en una menor cantidad de materia.
Por ejemplo una torre empacada es posible dividirla verticalmente en elementos, cada uno de los cuales tiene la misma altura de cama que el prototipo, pero si se divide horizontalmente o se reduce en altura, las partes se convierten en elementos diferenciales los cuales no son susceptibles de ser tratados con los conceptos de semejanza. De igual forma, una sola fila de tubos puede considerarse como un elemento de un condensador vertical (Figura 2.3) (Johnstone y Thring, 1957).
Esta semejanza puede ser considerada una extensión del
concepto de semejanza geométrica a los sistemas estacionarios o en movimiento,
bajo la influencia de fuerzas.
Según el tipo
de sistemas y de fuerzas, esta semejanza puede ser estática,
cinemática o dinámica.
Figura 2.2 Tipos de semejanza geométrica (Tomado de Johnstone y Thring,
1957).
La semejanza estática se relaciona con los cuerpos sólidos o estructuras sometidos a tensiones constantes. Todos los cuerpos sólidos se deforman bajo tensión y como resultado de ello, ciertas partes llegan a ser desplazadas de la posición que ocupaban cuando no estaban sometidas a tensión.
Figura 2.3 Una fila de tubos en un condensador vertical, como ejemplo
de elemento (De Johnstone y Thjring, 1957)
Con esa base la semejanza estática se define como:
Dos cuerpos
geométricamente
semejantes son semejantes estáticamente cuando ante tensiones constantes, sus deformaciones
relativas son tales que permanecen geométricamente semejantes.
En ese caso la relación de los desplazamientos correspondientes serán iguales a la relación de escala lineal y los esfuerzos en puntos correspondientes serán también iguales.
Cuando el modelo tiene una semejanza geométrica distorsionada, las relaciones requeridas de las formas correspondientes para la semejanza estática serán diferentes en las diferentes direcciones. Esto ocurre también cuando uno o ambos cuerpos son anisotrópicos y tienen diferentes módulos elásticos en las diferentes direcciones.
La semejanza estática es principalmente de interés para los ingenieros mecánicos y de estructuras, los cuales emplean modelos para predecir las deformaciones elásticas o plásticas de miembros tensionados o de estructuras de formas complejas.
La semejanza cinemática se relaciona con sólidos o sistemas fluidos en movimiento, lo que añade a las tres coordenadas espaciales, la dimensión adicional del tiempo.
Los tiempos se miden partiendo de un cero arbitrario para cada sistema y se definen los tiempos correspondientes como los tiempos tales en los cuales t'/t = t constante, siendo t la relación de escala de tiempo. A su vez la diferencia entre pares de tiempos correspondientes se denominan intervalos correspondientes y las partículas semejantes geométricamente que se centran sobre puntos correspondientes en tiempos correspondientes se denominan partículas correspondientes.
La semejanza cinemática se define entonces como:
Los sistemas en movimiento semejantes geométricamente son cinemáticamente semejantes, cuando partículas correspondientes trazan trayectorias semejantes geométricamente, en intervalos de tiempo correspondientes.
El concepto de semejanza cinemática se ilustra en la figura
2.4. Si la relación de escala de tiempo t es mayor que la
unidad, el prototipo
realizará movimientos más
lentos que el
modelo y viceversa. El concepto
de relación de escala de tiempo es
menos familiar que el de relación de escala lineal y por
ello, para propósitos de ingeniería
es más conveniente calcular en términos de velocidades correspondientes, las cuales son las velocidades de las
partículas correspondientes en tiempos correspondientes.
En el caso de la semejanza geométrica distorsionada, las relaciones de las velocidades correspondientes serán diferentes en las diferentes direcciones.
La semejanza cinemática es un estado de particular interés para los ingenieros químicos, porque si dos sistemas de fluidos son geométricamente semejantes, entonces los patrones de flujo también lo serán y las variaciones con respecto al tiempo de las transferencia de calor y masa en los dos sistemas, conformarán una relación simple entre sí.
Figura 2.4 Semejanza cinemática (De Johnstone y Thring, 1957).
La semejanza cinemática en los fluidos lleva consigo a la vez la semejanza geométrica de los sistemas de torbellinos y de las películas límites laminares y por consiguiente, si L es la relación de escala lineal. los coeficientes de tranferencia de calor y masa en el prototipo serán 1/L veces los del modelo, lo que permite calcular fácilmente la cantidad total de calor o masa transferido.
En sistemas fluidos tales como chorros líquidos en gases u ondas superficiales en vórtices, se pueden observar y medir normalmente los patrones de flujo, lo que no ocurre en sistemas cerrados de una sola fase. Sin embargo, queda el recurso de medir la velocidad en cualquier punto mediante el empleo de un tubo de Pitot y la indicación de la relación de velocidades en diferentes puntos es una indicación del patrón de flujo.
Para el flujo de fluidos en un tubo lleno o en un recipiente cilíndrico, la relación de la velocidad media a la velocidad máxima v/vm, resulta un parámetro conveniente. La velocidad media (v), se obtiene dividiendo el área de la sección transversal de la trayectoria del fluido entre la descarga volumétrica por segundo y la velocidad máxima vm, se mide con un tubo Pitot en el eje del tubo o cilindro. Para que haya semejanza cinemática, la relación v/vm debe ser constante.
La figura 2.5 muestra como varía la relación v/vm para flujo continuo en tuberías rectas, graficada contra la relación v/vc, conocida como velocidad reducida. En la región laminar (v/vc < 1 ) y de nuevo a altas velocidades, v/vm es constante o casi constante, pero inmediatamenmte por encima de la región de la velocidad crítica, varía marcadamente con la velocidad.
Esta figura resulta válida también para tuberías en forma de serpentín y recipientes cilíndricos, siempre y cuando se emplee la velocidad reducida en lugar de la velocidad real, a pesar de que los valores de la velocidad crítica serán diferentes.
Figura 2.5 Variación de la relación V/Vm en una tubería recta (De
Johnstone y Thring, 1957).
Esta figura ilustra la importante conclusión de que a velocidades de flujo muy altas o muy bajas los sistemas de flujo de fluidos monofásicos que son geométricamente semejantes, pueden ser tratados como semejantes cinemáticamente, con independencia de la variación de la velocidad del flujo.
La semejanza dinámica se relaciona con las fuerzas que aceleran o retardan masas en movimientos en sistemas dinámicos. Las fuerzas de una misma clase (gravitacional, centrífuga, etc.) que actúan sobre partículas correspondientes en tiempos correspondientes, se denominan fuerzas correspondientes.
Los sistemas en
movimiento geométricamen-te semejantes son dinámicamente semejantes cuando las relaciones
entre todas las fuerzas correspondientes son iguales.
En los sistemas fluidos o en los sistemas compuestos por partículas sólidas discretas, la semejanza cinemática necesariamente conlleva la semejanza dinámica, puesto que el movimiento del sistema es función de las fuerzas aplicadas al mismo. Sin embargo en máquinas o mecanismos en movimiento cuyas partes están obligadas a seguir trayectorias fijas, es posible tener semejanza cinemática sin ninguna relación fijada de fuerzas aplicadas. En una máquina, sólo algunas de las fuerzas sirven para acelerar las masas en movimiento, mientras que otras producen tensiones estáticas en los miembros restringidos, provocando resistencia friccional que se disipa como calor.
Por ende los paralelogramos o polígonos de fuerzas para partículas correspondientes serán geométricamente semejantes y, como una consecuencia adicional, las relaciones de diferentes fuerzas en el mismo sistema, serán también constantes.
Estas relaciones son las proporciones o relaciones intrínsecas que determinan la "forma" dinámica de un sistema de la misma manera que las relaciones entre las dimensiones lineales determinan la forma geométrica. En los sistemas fluidos las fuerzas principales que actúan son las de presión, inerciales, gravitacionales, viscosas e interfaciales y por consiguiente, las relaciones entre las magnitudes de esas fuerzas en puntos correspondientes, expresadas como grupos adimensionales, constituyen los criterios de semejanza dinámica.
Para los llamados sistemas homólogos, o sea los sistemas dinámicos semejantes geométricamente en los cuales las propiedades físicas y químicas de los componentes materiales son iguales, generalmente no es posible establecer más de dos relaciones entre tres tipos de fuerzas, iguales en ambos sistemas. Cuando los sistemas no son homólogos, o sea cuando los materiales empleados en los dos sistemas son de diferentes propiedades físicas, llega a ser posible mantener tres relaciones constantes, involucrando cuatro tipos diferentes de fuerzas.
Cuando el comportamiento de un sistema es influído significativamente por fuerzas de más de cuatro tipos, la semejanza dinámica sólo puede establecerse en unos pocos casos especiales, posiblemente con la ayuda de la distorsión geométrica.
En los sistemas de flujo de fluidos, la semejanza dinámica es de importancia directa cuando se desean predecir caídas de presión o consumos de potencia. En el caso de la transferencia de calor y masa o en las reacciones químicas, su importancia es principalmente indirecta, como una vía para establecer la semejanza cinemática.
La semejanza térmica tiene que ver con los sistemas en los cuales hay un flujo de calor, por lo que introduce la dimensión de temperatura, además de las dimensiones de longitud, masa y tiempo.
El calor puede fluir de un punto a otro por radiación, convección, conducción y movimiento global de materia mediante la acción de un gradiente de presión. Para los primeros tres procesos se requiere un gradiente de diferencias de temperatura y por ello, si se mantienen las otras condiciones iguales, la variación con respecto al tiempo del flujo de calor entre dos puntos varía con la diferencia de temperatura entre ellos.
El cuarto proceso de transferencia de calor, el movimiento global de la materia, depende a su vez de la forma de movimiento o del patrón de flujo del sistema y por consiguiente en sistemas térmicos en movimiento, la semejanza térmica requiere de la semejanza cinemática.
Antes de definir la semejanza térmica, se necesita definir la diferencia de temperatura correspondiente, la cual es aquella diferencia de temperatura en tiempos correspondientes entre un par de puntos dados en un sistema y el par de puntos correspondientes del otro sistema.
La semejanza térmica se define entonces planteando que:
Dos sistemas geométricamente semejantes son térmicamente semejantes cuando la relación
entre las diferencias de temperatura correspondientes es constante y cuando los
sistemas, si están en movimiento, son cinemáticamente
semejantes.
En los sistemas semejantes térmicamente, los patrones de las distribuciones de temperaturas formados por las superficies isotérmicas en tiempos correspondientes, son geométricamente semejantes. La relación de las diferencias correspondientes de temperaturas puede ser llamada la "relación de escala de temperatura" y cuando esta relación es igual a la unidad, las temperaturas en puntos correspondientes son iguales o difieren una de otra en un número fijo de grados.
La semejanza térmica requiere que las razones de cambio correspondientes de los flujos de calor mantengan una relación constante entre sí.
La semejanza química se relaciona con sistemas en los que se desarrollan reacciones químicas y en los cuales la composición varía de un punto a otro y, en los procesos discontinuos o cíclicos de un instante a otro. Para esta semejanza no se requiere introducir nuevas dimensiones, pero hay uno o más parámetros de concentración, en dependencia del número de compuestos químicos variables independientes, con respecto a los cuales se establece la semajanza. No es necesario tampoco que la composición química en los dos sistemas sea la misma, aunque debe existir una relación fija entre las concentraciones puntuales de los compuestos que son comparados.
Cuando un sistema contiene un componente variable B y se desea establecer semejanza con respecto a un componente A, ambas sustancias se denominarán componentes correspondientes. La concentración de un componente químico dado en un elemento de volumen en un tiempo dado, depende de la concentración inicial,
la razón mediante la cual el componente es generado o destruído por la acción química, la razón por la que se difunde hacia adentro o hacia afuera del elemento de volumen y la razón por la cual es transportado por movimiento global del material.
A su vez, la variación con respecto al tiempo de la acción química depende de la temperatura, la razón de cambio de la difusión depende del gradiente de concentración y la razón de cambio del transporte global depende de la trayectoria del flujo.
Por consiguiente la semejanza química necesita tanto de la semejanza térmica como de la cinemática y depende de las diferencias de concentración más que de las concentraciones absolutas.
Se definen las diferencias de concentración correpondientes, como la diferencia de concentración en tiempos correspondientes, entre un par de puntos dados de un sistema y el par de puntos correspondientes del otro sistema. Con esa base se define la semejanza química:
Sistemas semejantes
geométrica y térmicamente son semejantes
químicamente cuando las
diferencias de concentraciones correspondientes
mantienen una razón constante entre
ellas y cuando dichos
sistemas, si están
en movimiento, son cinemáticamente semejantes.
En los sistemas semejantes químicamente se puede considerar que los patrones formados por las superficies de composición constante en tiempos correspondientes, son geométricamente semejantes. La relación de las diferencias de concentraciones corrrespondientes se pueden llamar la "relación de escala de concentraciones" y cuando ese valor es igual a la unidad, las concentraciones en puntos correspondientes o son iguales o difieren en una cantidad constante.
En la práctica los reactores químicos de escala piloto son casi siempre operados en iguales condiciones de temperatura y concentración que el prototipo y la relación de semejanza reclamada es la de iguales temperaturas y concentraciones de productos en puntos y tiempos correspondientes, lo cual es un caso especial de la definición general dada más arriba.
Además, la variación con respecto al tiempo de una reacción química puede en teoría ser variada independientemente, cambiando la temperatura. En la práctica, sin embargo, tanto el equilibrio químico como las razones de cambio relativas de las reacciones colaterales indeseadas varían con la temperatura y hay normalmente un rango estrecho de temperaturas dentro del cual la reacción puede proceder par asegurar el máximo rendimiento, tanto en la pequeña como en la gran escala.
Tanto en el modelo como en el prototipo, el tiempo de reacción será del mismo orden y este requerimiento fija las velocidades relativas en sistemas de flujo continuo. Esas velocidades son incompatibles con las velocidades necesarias para semejanza cinemática, exepto a velocidades mmuy altas o muy bajas, como se pudo apreciar en la figura 2.4.
Por consiguiente, escalando ascedentemente una reacción química continua, y especialmente cuando hay un tiempo óptimo de reacción, después del cual el rendimiento o la calidad se reduce, es ventajoso operar tanto el prototipo como el modelo en la región laminar o con un alto grado de turbulencia. Si ninguna de esas condiciones es posible, habrá un efecto de escala impredecible y sería prudente en ese caso,o hacer el escalado ascendente en varias etapas o emplear amplios factores de seguridad en el diseño.
El análisis hecho sobsre la definición de semejanza en los distintos sistemas de interés para la Ingeniería Química y Bioquímica conduce, en todos los casos, al planteamiento de las condiciones necesarias para la existencia de semejanza entre prototipo y modelo. Esas condiciones son expresads como igualdades entre razones de magnitudes correspondientes dentro del mismo sistema, que toman la forma de grupos adimensionales.
Al analizar cualquier
sistema, la semejanza se determina
por la igualdad del valor de dichos
grupos en el prototipo y en el modelo.
Estos grupos constituyen los criterios
de semejanza entre los sistemas comparados. Así, por ejemplo, el número de
Raynolds es el criterio de semejanza dinámico para sistemas de flujo
geometricamente semejantes.
Se ha mencionado anteriormente que la semejanza química, térmica o mecánica entre sistemas geométricamente semejantes pueden ser especificadas en términos de criterios que son relaciones intrínsecas de mediciones, fuerzas o razones de cambio dentro de cada sistema. Puesto que esos criterios son relaciones de cantidades de igual magnitud, resultan ser adimensionales y existen dos métodos generales de obtenerlos.
Cuando son desconocidas las ecuaciones diferenciales que gobiernan el comportamiento de un sistema, pero se conocen todas las variables que deben entrar en dichas ecuaciones diferenciales, es posible obtener los criterios de semejanza por medio del análisis dimensional. Cuando las ecuaciones diferenciales del sistema se conocen pero no pueden ser integradas, los criterios de semejanza se pueden derivar de la forma de las ecuaciones diferenciales.
En los casos en que se conozcan las ecuaciones diferenciales y además éstas se pueden integrar y resolver, no hay en general necesidad de los criterios de semejanza ni de los experimentos con modelos, puesto que el comportamiento del sistema a gran escala puede ser directamente calculable.
El análisis dimensional es una técnica para expresar el comportamiento de un sistema físico en términos de un número mínimo de variables independientes y en una forma tal que no resulten afectadas por los cambios de las magnitudes de las unidades de medidas. Las cantidades físicas se agrupan en grupos adimensionales consistentes en relaciones de magnitudes iguales (longitudes, velocidades, fuerzas, etc.) que caracterizan el sistema, los que constituyen las variables en la ecuación adimensional de estado (o de movimiento) del sistema.
El análisis dimensional puede brindar resultados incorrectos a menos que se hayan tenido en cuenta cada una de las variables que influyen significativamente en el sistema que se está analizando, por lo cual es necesario conocer bastante sobre los mecanismos de un proceso antes de poder aplicar con confianza este método. La clave del éxito está en la selección inicial de las variables.
Si la lista de variables es muy larga y se incluyen por lo tanto variables cuyo efecto no es apreciable, los factores superfluos se pueden eliminar a veces durante el análisis, pero en la mayoría de los casos esto no es posible y el número de criterios de semejanza obtenidos resulta innecesariamente grande y el problema de alcanzar la semejanza aparece más difícil de lo que realmente es. Si por el contrario, se omite alguna de las variables realmente relevantes en el sistema, el análisis dimensional llevará a una falsa conclusión.
De lo antes expuesto se deriva el hecho de que la aplicación del análisis dimensional aisladamente es muy difícil que nos conduzca a obtener un conocimiento completamente nuevo. Muchas de las aplicaciones clásicas de este método lo que han hecho realmente es confirmar las relaciones que ya se conocían o al menos se sospechaban, lo que de hecho elimina la dificultad principal de la selección inicial de las variables.
Para obtener los criterios de semejanza a partir del Análisis Dimensional se utiliza el Teorema de Buckingham y el Método de Railegh y se parte de conocer todas las variables que intervienen en un proceso dado, como se ha dicho anteriormente. La aplicación de estos métodos se pueden estudiar en diferentes textos como los de Jonhstone y Thring (1957), Perry y Green (1986) y Rosabal (1988).
Para muchos de los procesos físicos y químicos que se utilizan en las ingenierías química y bioquímica, se conocen las ecuaciones diferenciales fundamentales, pero la dificultad radica en su integración, lo que solamente puede ser hecho matemáticamente para sistemas de forma determinada y no muy elevado rango de complejidad. Este es el caso, por ejemplo, del flujo laminar de fluido en tuberías rectas, el que se resuelve por la conocida ecuación de Poiseuille (3).
Muy frecuentemente el sistema o proceso es tan complejo que resulta imposible una integración matemática y es necesario integrarla empiricamente y de esa forma se han obtenido la mayor parte de las ecuaciones de las ingenierías química y bioquímica. Sin embargo su carácter empírico hace que las mismas sólo sean válidas cuando el sistema al cual se aplican mantiene cierta semejanza geométrica con el sistema del cual fueron derivadas experimentalmente.
En los casos en que la ecuación diferencial que gobierna un sistema se conoce y siempre y cuando ésta sea completa y dimensionalmente homogénea, resulta fácil poner la ecuación en forma adimensional y derivar entonces de ella los criterios de semejanza necesarios, sin tener que aplicar los métodos del análisis dimensional, lo que representa varias ventajas.
En primer término se elimina una de las principales dificultades del análisis dimensional, que es la de asegurar que ninguna variable significativa sea ignorada y en segundo lugar, utilizando las ecuaciones diferenciales se puede mostrar el sentido físico de los grupos adimensionales obtenidos, como una relación de flujos, fuerzas o cantidades análogas.
Estas ventajas no quieren decir que la información obtenida por este método no esté sujeta a errores, como son los producidos por despreciar algunas variables menores durante el desarrollo de la ecuación, pero evita los errores adicionales que se pueden incorporar debido a una incorrecta integración de la ecuación o una evaluación imprecisa de las constantes.
Para derivar esos criterios de semejanza de las ecuaciones diferenciales, se procede de la forma siguiente:
1- Se reduce la ecuación diferencial a una forma dimensional generalizada, omitiendo los signos diferenciales y las constantes numéricas.
2- Se divide la ecuación por uno cualquiera de sus términos, de manera tal que todos sus miembros se tornen adimensionales.
Para los procesos en serie, las ecuaciones físicas tienen la forma de las ecuaciones en serie y los criterios adimensionales son relaciones de las fuerzas impulsoras o de las resistencias. Para los procesos en paralelo las ecuaciones físicas tienen la forma de las ecuaciones paralelas y los criterios adimensionales son relaciones de flujos, conductancias o cantidades totales. Para los procesos serie-paralelo, las ecuaciones compuestas, deben ser resueltas en sus componentes simples, en serie y en paralelo, a cada una de las cuales se les aplicara uno o más criterios adimensionales.
Este procedimiento se aplica a los diferentes tipos generales de procesos, o sea:
Procesos mecánicos.
1- Deformación elástica de sólidos
2- Deformación plástica de sólidos
3- Flujo de sólidos granulares
4- Flujo de fluídos
Procesos térmicos.
5- Conducción en sólidos
6- Convección forzada en fluidos
7- Radiación
Procesos difusionales.
8- Conveccion forzada en fluidos
Procesos químicos.
9- Reacciones homogéneas
10- Reacciones heterogéneas
Ejemplos amplios de la aplicación de estos procedimientos en todos estos procesos se hallan en el Jonhstone y Thring (1957) y en el Rosabal (1988).
En el epígrafe 2.1 , los sistemas físicos fueron clasificados como estáticos, dinámicos, térmicos, químicos, etc. y en la práctica cualquier sistema real puede ser clasificado en más de uno de esos tipos, de
acuerdo con el aspecto particular de su comportamiento que se considere. Por ejemplo un condensador tubular constituye un sistema estático con respecto a las tensiones en los tubos y la coraza, un sistema dinámico con respecto a los patrones de flujo y la caída de presión, un sistema térmico con respecto a la transferencia de calor y un sistema químico con respecto a las incrustaciones y la corrosión y los criterios de semejanza a emplear variarán de acuerdo a cuál de esos efectos está siendo estudiado.
En ese epígrafe se definieron también los criterios de semejanza adimensionales como las relaciones de cantidades físicas que son función de las diversas fuerzas o resistencias que controlan la variación con respecto al tiempo de la reacción, por lo cual cuando en un sistema hay diversos factores controlantes de clases diferentes, habrán también varios criterios adimensionales.
Por ejemplo, la resistencia al movimiento de un fluido puede ser debida al arrastre viscoso, a las fuerzas gravitacionales o a la tensión superficial y en cada caso los criterios adimensionales de semejanza serán los grupos de Reynolds, Froude y Weber respectivamente. Sin embargo para sistemas homólogos de diferentes magnitudes absolutas, esos tres criterios son mutualmente incompatibles, puesto que cada uno de ellos requiere que la velocidad del fluido varíe como una función diferente de la dimensión lineal, ya que:
Para iguales números de Reynolds v es proporcional a L-1
Para iguales números de Froude v es proporcional a L0.5
Para iguales números de Weber v es proporcional a L-0.5
Si se emplean fluidos con muy diferentes propiedades físicas en los dos sistemas y se selecciona una relación de escala apropiada, es posible, dentro de ciertos límites satisfacer simultáneamente dos cualesqiera de esos criterios, pero es casi imposible cumplir con los tres a la vez.
Por ejemplo (11), en un mezclador de paletas sin deflectores, el patrón de flujo depende tanto del número de Reynolds como del de Froude y ambos criterios pueden hacerse iguales en mezcladores semejantes geométricamente sólo si se emplean líquidos de diferentes viscosidades en el prototipo y en el modelo. En ese caso, para iguales números de Froude:
Y para iguales números de Reynolds:
donde es la viscosidad cinemática del líquido. Igualando ambas condiciones se tiene:
o lo que es igual:
Es decir, se puede lograr una semejanza dinámica rigureosa si se escoge un líquido para el modelo con una viscosidad cinemática mucho menor que la del fluido en el prototipo. Por ejemplo, si en el prototipo se va a emplear agua, se puede considerar el empleo de mercurio en el modelo, ya que el mercurio tiene una viscosidad
cinemática a 20 C, 8.9 veces menor que la del agua y en ese caso la reducción de escala debe ser:
o sea:
Por lo cual el modelo deberá ser 4,3 veces menor que en el prototipo.
Por consiguiente, cuando se escala un proceso físico o químico complejo, resulta ventajoso escoger condiciones tales que las variaciones con respecto al tiempo del proceso completo dependan predominantemente de un sólo criterio adimensional, aunque en los experimentos con modelos puramente físicos en los cuales se tenga un sistema no homólogo, se pueden utilizar dos criterios adimensionales a la vez.
El proceso determinante en la razón de cambio de un sistema debe distinguirse del proceso principal que tiene lugar o del que es el objetivo de la operación a efectuar. Por consiguiente, las reacciones químicas pueden estar sujetas a un régimen dinámico cuando el sistema es heterogéneo y la velocidad de reacción muy alta. De manera semejante, la transferencia de calor está sujeta a un régimen dinámico cuando la convección forzada es la que controla la rapidez, mientras que el régimen será térmico cuando controlan la radiación o la convección natural.
El término régimen se emplea en este texto para distinguir el proceso que determina la razón de cambio de un sistema en el cual pueden estar ocurriendo otros varios procesos en serie o en paralelo, o en otras palabras, régimen es la fuerza particular, flujo o factor de resistencia que controla la razón de cambio global del sistema. En un sistema estático por ejemplo, el régimen distingue los factores que gobiernan el desplazamiento total.
En un sistema dado, el régimen depende de las magnitudes relativas de las diversas resistencias de la reacción y las mismas varían con las condiciones de operación. Por ejemplo, en una reacción química que está sujeta a un régimen dinámico, el incremento de la agitación puede llegar a disminuir la resistencia de la difusión hasta un punto en el cual la resistencia de la conversión predomine y el régimen se convierta en químico. Entre estos dos regímenes hay una región intermedia de régimen mixto en la cual tanto la resistencia de la conversión como la de la difusión son apreciables.
Correspondiendo a cada una de las clases principales de regímenes (estático, dinámico, térmico o químico), existen diversas variantes posibles de acuerdo con la naturaleza de la fuerza motriz o factor de resistencia que controle la resultante, ya sea ésta una cantidad total o variación con el tiempo Por ejemplo, un régimen dinámico fluido puede ser controlado por la relación de las fuerzas de inercia a las de viscosidad, gravedad o tensión superficial y a su vez, el régimen controlado por la viscosidad puede ser laminar o turbulento.
Teniendo en cuenta lo antes expuesto, para realizar un escalado ascendente o descendente confiable, son necesarias dos condiciones:
1- El régimen debe ser
relativamente "puro", o
sea la variación con respecto
al tiempo de la
reacción debe depender
principalmente de un único grupo adimensional.
2- El régimen debe de ser del mismo tipo tanto en el
prototipo como en el modelo.
La primera condición ya ha sido analizada y la segunda requiere que, cuando se planifican una serie de experimentos con modelos o en plantas piloto, se tengan constantemente en mente las condiciones correspondientes en el prototipo, para impedir que el régimen vaya a ser diferente. Esto puede ocurrir principalmente cuando es necesario extrapolar las relaciones de semejanza .
El régimen prevaleciente en un sistema es posible a veces determinarlo por simple inspección, como por ejemplo cuando se transfiere calor a un líquido por convección natural y resulta obvio que se trata de un régimen térmico, en el cual la única variable de proceso que afecta la variación con respecto al tiempo de la transferencia de calor es la diferencia de temperatura. Sin embargo, cuando el régimen prevaleciente no es evidente, se debe realizar su determinación teórica o empíricamente.
El método teórico consiste en examinar la razón de cambio del sistema y calcular por separado el orden de magnitud de los factores de resistencia, componentes de fuerzas motrices o flujos que se combinan para determinar la rapidez de cambio global. Este método resulta muy útil para la definición del criterio de escalado a aplicar en muchas sistuaciones prácticas.
Por ejemplo, en la combustión de un combustible líquido atomizado se puede calcular que, bajo condiciones normales, el tiempo requerido para que las gotas se evaporen y después combustionen, son en su conjunto menores que la décima parte del tiempo requerido para su mezcla con el aire de combustión. El proceso en su conjunto será controlado por consiguiente por la resistencia de la difusión y estará sujeto a un régimen dinámico.
Un procedimiento muy empleado para la determinación teórica del régimen predominante en un sistema (Reuss y Bajpai, 1993), es el de obtener los tiempos correspondientes, llamados también constantes de tiempo, para cada uno de los términos de la ecuación diferencial que describe el comportamiento de un sistema dado.
Para ilustrar ese procedimiento se tomará como ejemplo un biorector agitado mecánicamente en el cual se llleva a cabo una fermentación aerobia y se presentan las expresiones para calcular las distintas constantes de tiempo y los valores típicos obtenidos para una fermentación industrial de ácido glucónico (Tabla 3.1). Del análisis de esos valores se pueden extraer muchas informaciones útiles para el control de dicho proceso. Por ejemplo, el orden de magnitud muy similar que tienen tanto la cosntante de tiempo de transferencia de oxígeno como la de su consumo, indican que puede existir, en un momento dado, limitación de oxígeno. Los valores elevados de las constantes de crecimiento de biomasa y de utilización de sustrato, y en especial esta última, indican la importancia especial de estos parámetros en el escalado.
No obstante, el hecho de que la determinación de las constantes de tiempo requiere el empleo de correlaciones empíricas, como las de determinación del coeficiente klal, el éxito de estos análisis depende mucho de la calidad de las correlaciones utilizadas, lo cual en muchos casos es cuestionable (Reuss, 1993).
El método empírico de determinación del régimen prevaleciente consiste en observar experimentalmente el efecto de ciertas variables en la variación global del sistema, sin que sea necesario conocer la ecuación de dicha variación. Este método es particularmente aplicable cuando están involucradas tanto la resistencia química como la difusional.
Para un sistema de ese tipo, el diseño de la planta y la selección de las condiciones de operación dependerán en gran medida de si prevalece un régimen químico o dinámico y el método para determinarlo es observar el efecto que tienen el cambio de temperatura (medido genralmente por el denominado coeficiente de temperataura de 10C) y del grado de agitación (medido a su vez, generalmente, por el índice de Reynolds), sobre la rapidez global. En el clásico libro de Johnstone y Thring (1957) se pueden encontrar ejemplos de cálculo y aplicación de esos dos coeficientes, de gran importancia práctica.
El método empírico de descubrir el régimen prevaleciente cuando tienen lugar ambos procesos, el químico y el dinámico, depende de la determinación experimental de dos parámetros: el coeficiente de temperatura de 10C (corregido cuando es necesario a la temperatura de referencia de 15 C ) y el índice de Reynolds. Las conclusiones a que se pueden llegar a partir de esos parámetros se sumarizan en las siguientes reglas generales:
1- Un coeficiente de temperatura mayor que 2 caracteriza un régimen químico. Un coeficiente menor de 1.5 caracteriza un régimen dinámico.
2- Un índice de Reynolds cercano a cero, caracteriza un régimen químico o un régimen dinámico laminar; un índice entre 0.5 y 0.8 caracteriza un régimen dinámico turbulento con interfase fija y un índice entre 3 y 5 caracteriza un régimen dinámico con interfase fija, o sea un sistema de dos fases, líquido-líquido o gas-líquido.
Tabla 3.1 Constantes de
tiempo para diferentes procesos que ocurren en un bioreactor industrial
(fermentación ácido glucónico) Tomado de Mattews y Reuss, 1993.
Proceso |
Ecuación |
Const. de tiempo |
|
Fenóm.
Transp. |
|||
Transf. masa gas-líquido |
|
5.5 - 11.2 |
|
Tiempo circulación |
|
12.3 |
|
Tiempo residen- cia del gas |
|
20.6 |
|
Transf. de calor |
|
330 - 650 |
|
Conversión |
|||
Consum. de oxígeno |
|
0.7 - 16 |
|
Utiliza-ción del sustrato |
|
5.5E+4 |
|
Creci-miento biomasa |
|
1.2E+4 |
|
Produc-ción de calor |
|
350 |
|
3- Cuando el coeficiente de temperatura de 10 es mayor que 1.5 y menor que 2 y el índice de Reynolds está por debajo de 0.5, prevalece un régimen dinámico-químico mixto.
Cuando el coeficiente de temperatura de 10C de una reacción está por debajo de 2 y el índice de Reynolds es sustancialmente mayor que cero, pero menor que 0.6, tanto la resistencia de la difusión como la resistencia de la conversión tienen una influencia considerable en la velocidad de reacción global. También, en el caso en que nos encontremos en un régimen dinámico puro, esto nos indica que tanto la viscosidad como la gravedad influyen significativamente en la razón de cambio del sistema, o sea que tienen que ser tomados en cuenta simultáneamente los números de Reynolds y de Froude. En ambos casos estamos en presencia de lo que se conoce como régimnen mixto.
En general, un régimen mixto existe cuando hay dos o más resistencias de reacción que influyen significativamente la rapidez de la reacción, las cuales conforman relaciones de escala lineales diferentes. De esta forma, si el proceso se escala con respecto a una clase de resistencia, no habrá entonces semejanza con respecto a la otra.
Este tipo de problemas se encuentra constantemente en la práctica y para ello se necesita poder contar con diversos métodos empíricos que permitan corregir una de las resistencias mientras se escala con respecto a la otra. Por esta causa la presencia de un régimen mixto marca siempre un punto de peligro en cualquier proceso nuevo, puesto que no siempre se puede encontrar una base confiable para predecir el comportamiento en la escala mayor a partir de los resultados de los experimentos a pequeña escala.
Algunas veces es posible sacar a la reacción de la región de régimen mixto cambiando las condiciones de operación de manera tal que una de las clases de resistencia se haga despreciable. Por ejemplo, teniendo en cuenta que las reacciones químicas tienen mayores coeficientes de temperatura que los fenómenos difusionales, un incremento de la temperatura tiende a convertir un régimen químico en un régimen dinámico controlado por la viscosidad.
De forma semejante, cuando se tiene un régimen químico heterogéneo, la reducción del grado de agitación incrementa la resistencia de la difusión de forma tal que el régimen tiende a pasar primero a mixto y después a totalmente dinámico. En cada caso un cambio de temperatura o agitación, respectivamente, en cualquier dirección puede llevar a la reacción fuera del régimen mixto, siempre y cuando el cambio pueda realizarse en la magnitud requerida. De igual forma cuando se tiene un régimen mixto controlado por la gravedad y la viscosidad, un cambio en la geometría del sistema puede eliminar el efecto de la gravedad, como ocurre cuando se introducen deflectores en un mezclador de paletas.
Cuando es imposible o impracticable escapar de un régimen mixto mediante la modificacion de las condiciones de operación, hay varios procedimientos mediante los cuales las dificultades inherentes del régimen mixto pueden ser por lo menos parcialmente resueltas. Entre esos procedimientos tenemos:
1-Calcular uno de los factores de resistencia y realizar los experimentos con modelos para determinar el otro.
El ejemplo clásico de este procedimiento es la prueba en tanques de modelos de casco de buques. En ese caso (11), el sistema depende tanto del número de Reynolds como del número de Froude, o sea el coeficiente de arrastre (CD) es igual a:
O sea se considera el coeficiente de arrastre total CD formado por dos coeficientes de arrastre, uno debido a la fricción pelicular, que es proporcional al número de Reynolds y otro debido a la formación de ondas, proporcional al número de Froude:
El coeficiente de arrastre debido a la fricción (CDf) se calcula mediante el empleo de la teoría de la capa límite y en el experimento se determina el coeficiente de arrastre debido a la formación de ondas (CDg), restando al coeficiente total medido (CD), el coeficiente calculado para la fricción (Cf). El escalado se realiza entonces basado en la igualdad del número de Froude en el prototipo y en el modelo.
2- Realizar una distorsión
geométrica del modelo para compensar
el régimen mixto.
Por ejemplo, en el caso de un tubo simple a través del cual fluye y reacciona químicamente una mezcla gaseosa, el calor generado se remueve del exterior del tubo por radiación y convección natural. La rapidez global de la reacción estará influenciada tanto por la composición química como por la rapidez de la transferencia de calor, o sea el régimen es parcialmente químico y parcialmente térmico.
Para lograr la semejanza la temperatura de reaccion debe ser la misma tanto en la escala grande como en la pequeña y también la pérdida de calor por unidad de área debe ser igual en ambas escalas. Estos requerimientos simultáneos no pueden ser cumplidos por un modelo, puesto que la superficie relativa del mismo siempre es mucho mayor que la del prototipo y por consiguiente las pérdidas de calor serán excesivas en el modelo y la temperatura de reacción no podrá ser mantenida, lo que impide la modelación.
En ese caso la semejanza puede alcanzarse, si se distorsiona geométricamente el modelo de forma tal que el área superficial por unidad de volumen sea igual a la del prototiopo, lo que se logra manteniendo igual el diámetro en el modelo y en el prototipo, por lo cual el modelo será un recipiente achatado, en lugar del tubo alargado del prototipo y por ello hay que ajustar los flujos de reactivos de forma tal que el tiempo de residencia sea igual en ambos.
Con ese modelo distorsionado en la vertical, se logra mantener la condición de igual temperatura, al ser igual la transmisión de calor al exterior y solamente hay que tener en cuenta los posibles efectos de las pérdidas de calor mayores que pueden existir en los extremos del modelo achatado.
Las pérdidas de calor por los extremos del recipiente modelo se pueden prevenir mediante aislamiento, aunque se debe tener en cuenta que los efectos de los extremos sólo pueden ser despreciados en un rango de escala moderado. Cuando la reducción de escala es grande, este método tienda a dar un modelo con forma de torta, en el cual los efectos de los extremos pueden llegar a ser predominantes.
Bajo las circunstancias arriba mencionadas, el coeficiente de transferencia de calor interno será menor en el modelo que en el prototipo a causa de la menor velocidad de fluido. Esta diferencia se considera que tiene una influencia despreciable en el coeficiente global, pero la semejanza puede ser mejorada calculando aproximadamente los coeficientes de película internos en ambos recipientes y considerando suficiente superficie extra en el modelo para compensar la pequeña disminución del coeficiente global que pueda producir la disminución del coeficiente interno.
En otras palabras, la discrepancia de segundo orden debido a los coeficientes de película internos se corrige aplicando el método 1 explicado anteriormente.
Otros ejemplos de este tipo (11) se tienen en los casos de varios sistemas hidráulicos complejos como son el diseño de aliviaderos en las presas, el control de inundaciones, el estudio de las características de los estuarios de los ríos y la protección de puertos mediante rompeolas artificiales, entre otros, en los cuales la reducción de escala es muy grande y se está en presencia de una dependencia simultánea de los números de Froude y Reynolds.
En esos sistemas se hace necesario tomar grandes relaciones de reducción de las distancias, siendo típico un valor de 1000 debido al tamaño de los prototipos. Sin embargo, si se toma la misma relación de reducción para las distancias verticales, resultan profundidades demasiado pequeñas en el modelo, por lo que hay que aplicar una semejanza geométrica distorsionada, tomándose por ejemplo, un valor de 100 para la reducción de las distancias verticales y manteniéndose 1000 para las horizontales.
3- Modificar uno de los
factores controlantes mediante
algún arreglo artificial en el modelo.
En el primer ejemplo anterior en lugar de un modelo distorsionado con igual diámetro que el prototipo, puede emplearse un tubo de reacción modelo a escala, si se reduce artificialmente la pérdida de calor a través de la superficie externa mayor del modelo, mediante el empleo de un aislante adecuado, llevándola al mismo valor por unidad de área del prototipo no aislado. Esta solución se tratará más ampliamente en el tema de los efectos de frontera .
Una de las razones para que el principio de semejanza no haya sido desde un inicio más ampliamente aplicado a las plantas pilotos es el hecho de que estas plantas deben necesariamente procesar los mismos materiales que la planta a gran escala y bajo esos requerimientos la semejanza estricta requiere que el modelo o el prototipo operen bajo condiciones que son impracticables o que cambian el régimen de flujo.
Por ejemplo, en mezcladores de paleta bien provistos de deflectores, el criterio de semejanza dinámico es la igualdad de los números de Reynolds modificados y eso conduce, cuando las relaciones de escalado son grandes, a velocidades de agitación muy bajas en el prototipo lo que resulta antieconómico o a una velocidad en el modelo tan alta que puede ocurrir cavitación y por lo tanto existir interferencias en el régimen de flujo.
Además, la potencia consumida por el modelo es L veces la del prototipo y el calor provocado por la fricción por unidad de volumen de fluido es L veces la del prototipo. Una potencia tan elevada no es siempre posible de aplicar en un modelo y la evolución de calor puede alterar apreciablemente la
viscocidad de los líquidos que están siendo mezclados.
Otras veces la semejanza de Reynolds requiere velocidades de flujo en la escala pequeña que se aproximan a la velocidad del sonido y en este caso el número de Mach llega a ser importante en el modelo, aunque no en el prototipo, por lo cual los régimenes son diferentes y es imposible la semejanza dinámica.
De forma inversa a las plantas pilotos, en los modelos esto no es un problema tan serio y se transforma a veces incluso en una ventaja, ya que se pueden realizar las experiencias en condiciones mucho más faciles que en el prototipo. Por ejemplo cuando se modela el flujo gaseoso a baja velocidad, como es el caso de sistemas de ventilación o los hornos, si la velocidad de flujo en el prototipo es de orden de 2-10 m/s, y la razón de escala se toma igual a 10, entonces en el modelo la velocidad necesaria será de 20-100 m/s, velocidad para la cual ya puede ser marcado el efecto de la compresibilidad y el número de Mach debe ser añadido al de Reynolds para lograr la semejanza .
Sin embargo, esto esto puede solucionarse favorablemente usando agua en el modelo, cuya viscocidad cinemática es casi veinte veces manor que que la del aire y con esas condiciones la velocidad del modelo sería sólo de 1-5 m/s, perfectamente obtenible. Esto permite también sustituir el trabajo, por ejemplo, con gases calientes y otros fluidos difíciles y costosos de manipular, por el trabajo con fluidos como el agua, el aire frío u otros con condiciones mejores y más económicas de funcionamiento.
Estas posibilidades han hecho muy popular el uso de modelos a gran escala denominados mockups (13), los cuales simulan el proceso físico real adoptando condiciones mucho más "suaves" de operación, generalmente a temperatura y presión ambientes y utilizando fluidos más baratos y menos difíciles de manejar. Estos modelos se construyen en tamaños casi iguales a los de la planta a gran escala, aunque también se construyen en diferentes tamaños para examinar con precisión el efecto de los factores de escala en el fenómeno estudiado y ayudar a la obtención de los datos requeridos para el escalado.
Modelos de este tipo (mockups) han sido utilizados por ejemplo durante el desarrollo de procesos de hidro desulfuración del gas-oil, para el estudio del flujo de dos fases (gas y líquido) a través de las camas de catalizador, así como durante el desarrollo de procesos de reformación catalítica con catalizador en movimiento.
En la Figura 2. 6 (13). se muestran mockups utilizados para el desarrollo de los procesos catalíticos de cama móvil, con los cuales se probó el transporte neumático, los sellos, las válvulas y la circulación de sólidos.
Figura 2.6 Ejemplos
de modelos a gran escala (mockups) utilizados para el desarrollo de diversos
procesos petroquímicos (De Trambouze, 1990).
En todo los casos los mockups, como los demás tipos de modelos, se han usado como complemento de los equipos de laboratorio, banco o piloto desarrollando con los mismos la investigación de los mecanismos físicos que son más sensibles al tamaño como son los procesos hidrodinámicos
Cuando se trata de las plantas piloto en las cuales los fluidos a procesar son iguales que los prototipos, no se pueden utilizar estos procedimientos y hay que utilizar otros medios entre los que se destacan el uso de elementos o modelos de elementos y la extrapolación.
Cuando el aparato prototipo tiene una estructura mútiple, es posible entonces establecer la semejanza mediante un elemento de tamaño completo o un modelo a escala de ese elemento, con relativamente poca reducción de escala. Esto se puede hacer, por ejemplo, en el caso de un mezclador o reactor químico del tipo de
tanque agitado, donde el rendimiento depende del patrón de flujo global del sistema. Entonces, cuando la semejanza dinámica resulta impracticable. se necesita algún método mediante el cual el comportamiento del modelo pueda ser extrapolado a condiciones dinámicamente disímiles en el prototipo.
El concepto de extrapolación se comprende mejor considerando el ejemplo del diseño de un equipo en particular, como un proceso de aproximaciones sucesivas.
Supongamos que se quiere diseñar un intercambiador de calor. La primera aproximación sería asumir un valor fijo para el coeficiente global de transferencia de calor y aunque de esta forma se han diseñado muchos intercambiadores de calor satisfactorios, esto no elimina el hecho de que esta suposición es una aproximación burda y requiere el uso de grandes factores de seguridad.
La segunda aproximación es calcular el coeficiente de película individual mediante una ecuación de rapidez empírica o parcialmente empírica y éste es el método básico empleado normalmente para el diseño de cualquier planta de procesos en el papel. Para este cálculo se emplean las ecuaciones de variaciones con respecto al tiempo normales, tanto para la transferencia de calor, como para masa y momentun, las cuales son formuladas con la ayuda del análisis dimensional, aunque contienen constantes empíricas.
Todas esas ecuaciones de razones de cambios empíricas o semi empíricas, asumen tácitamente un principio que ha sido denominado principio extendido de semejanza. El principio de semejanza clásico se expresa mediante ecuaciones de la forma:
Q = j (R,S.......) (2.1)
donde Q, R y S son grupos dimensionales y j es una función desconocida. El principio extendido de semejanza sustituye j por una función de potencias, llevando la ecuación a la forma:
Q
= C (Rx )(Sy) (2.2)
donde x, y, C, son constantes. En la práctica se ha podido comprobar que los procesos físicos de transferencia de calor, masa y momento se describen adecuadamente con ecuaciones de este tipo .
Como regla, los exponentes x e y casi no son afectados por la geometría del sistema, mientras que la constante C si lo es y por ello de hecho constituye un factor de forma. Este factor de forma sólo puede ser calculado en casos muy simples, por lo cual deben ser determinado experimentalmente y por ello las ecuaciones del tipo de la (2.2) son aplicables solamente a sistemas geométricamente semejantes a aquellos en los cuales se determinaron experimentalmente los factores de forma. Por ejemplo el factor de forma para la transferencia de calor en una tuberia recta puede provocar un serio error si se aplica a un serpentín.
La tercera aproximación es eliminar el factor de forma C, comparando sistemas semejantes geométricamente y tomando relaciones de grupos adimensionales en lugar de los grupos en si mismos. Esto conlleva a experimentar con modelos semejantes geométricamente aunque no estén necesariamente bajo condiciones de semejanza térmica o dinámica. Las ecuaciones para sistemas de este tipo tomarán la forma de:
(2-3)
Además, en el caso de los sistemas homólogos se cancelan también los términos relacionados con las propiedades físicas, quedando las expresiones como relaciones simples entre las razones de de las dimensiones lineales y velocidades, del tipo de las que han sido denominadas ecuaciones de escala, manteniendo como únicos elementos empíricos remanentes los exponentes x e y .
Si como una aproximación final, más ajustada teóricamente, se eliminan los exponentes x e y, o la función desconocida j, comparando sistemas semejantes geométricasmente a iguales valores de los criterios adimensionales, entonces si :
R' = R
y
S' = S
se tiene:
Q' = Q (2-4)
Y esta expresión expresa el clásico principio de semejanza y define los estados correspondientes para escalar, de forma ascendente o descendente de acuerdo con este principio.
El problema que se encuentra en la práctica con esta aproximación es que esos estados correspondientes son, en muchas ocasiones, imposibles de alcanzar. Por esa causa , si se retorna al principio de semejanza extendido (Ec. 2-3) se obtiene un grado mucho mayor de flexibilidad , aunque se pierde un poco de precisión debido a la ligera variabilidad de x y de y , y esto es lo que se conoce con el nombre de extrapolación .
La aplicación correcta de la extrapolación, mediante la ecuación 2-3, aunque teóricamente inferior a la semejanza clásica estricta, es en principio menos susceptible a error que los cálculos hechos a partir de la ecuación 2-2, la que contiene el factor de forma incalculable y muy variable. Esto es lo mismo que decir que los experimentos a pequeña escala extrapolados a prototipos semejantes geométricamente pero no semejantes dinámica o térmicamente, son mucho menos susceptibles a error que los valores calculados de una ecuación derivada de un rango de sistemas geométricamente no semejantes.
Los valores de los exponentes x e y pueden ser hallados o bien experimentado con aparatos de pequeña escala o de la literatura. La determinación experimental en un aparato de la forma real que será usada en el prototipo, es probablemente el mejor método siempre y cuando se puedan cubrir con los experimentos un amplia rango de condiciones, de manera tal que se puede verificar que los exponentes no varíen apreciablemente. No obstante, para la mayoría de los procesos físicos y las configuraciones geométricas comunes, están disponibles en la literatura valores de los exponentes que resultan suficientemente buenos para la mayoría de los propósitos.
Además, generalmente los exponentes experimentales son menores que la unidad y por ello un error en los mismos causas sólo un pequeño error en el valor de la función de potencias .
El exponente que es más frecuentemente utilizado en las condiciones de semejanza extrapolada es el que se conoce como índice de Reynolds, o sea el exponente del número de Reynolds en las ecuaciones empíricas de rapidez para la transferencia de calor, masa y momentum por convección forzada. Este exponente ha sido determinado experimentalmente por un número de investigadores para diferentes fluídos, condiciones de operacion y configuraciones geométricas y los valores típicos para la transferencia de calor y masa en las configuraciones más usuales se pueden obtener de la literatura especializada y en particular en el Johnstone y Thring (1957), se puede ver una tabla de los valores típicos para procesos de transferencia de calor y masa.
Se ha podido comprobar que en sistemas geométricamente semejantes, los índices de Reynolds tanto para la transferencia de calor como para la de masa son sustancialmente iguales y por ello, en la mayoría de las aplicaciones el índice de Reynolds se denota por x. En los casos que se haga necesario diferenciar entre los índices para los distintos tipos de transferencia, se emplean entonces los valores de x con los subíndices correspondientes: xf para la transferencia de momentum, xh para la de calor y xm para la de masa.
Cuando los rangos de flujo son moderados el índice de Reynolds para transferencia de momentum, xf es del mismo orden de magnitud que los otros tres índices, con valores entre 0,8-0,85. Cuando las velocidades son altas, xf diverge de los otros y se aproxima a la unidad, por lo cual en esos casos el efecto del número de Reynolds en los patrones de flujo es despreciables y el coeficiente de presión () es casi constante.
Otro exponente empírico que se emplea para la extrapolación es el exponente z de la ecuacion de Lorenz para la transferencia de calor por convección natural. La que fue desarrollada apartir de la ecuación adimensional generalizada para la transferencia de calor, quedando como:
(2-5)
donde C es una constante. El valor teórico del exponente z es 0,25, pero Saunders encontró que el mismo varía algo con la magnitud del término entre paréntesis, el cual es el producto de dos números adimensionales, el de Grashof y el de Prandtl, o sea (Gr, Pr).
Para la evaluación del número de Grashof, la dimensión lineal L que se toma es la de la altura vertical de un serpenín o chaqueta o el ancho medio de una superficie horizontal de calentamiento .
En el caso de la transferencia de calor por convección forzada la ecuacion de razón de cambio es del tipo de Dittus-Boelter.y cuando se comparan sistemas homólogos, las propiedades físicas y los factores de forma se cancelan y la ec. (2-3) se reduce a la ecuación de escala:
(2-6)
Para convección natural la ecuación de Lorentz, expresada en forma de relación se reduce a su vez a:
(2-7)
A su vez la transferencia de masa por convección forzada se describe por una ecuación similara la de Dittus-Boelter y para sistemas homólogos, la ecuación de escala es:
(2-8)
Esta ecuación es válida sólo si el área de transferencia de masa es invariable y ésto es estrictamente cierto solamente en el caso de la transferencia de masa desde un fluido a un sólido insoluble, o sea en la adsorción. Cuando hay una interfase fluido-fluido, ésta está sujeta siempre a ser alterada y por lo tanto su área cambia por los movimientos relativos de las fases. Incluso en las torres de paredes mojadas, el gas a moderadas velocidades forma rizos en la superficie de la película de líquido. Por consiguiente la ecuación (2-8) es de aplicación menos general, para propósitos de escalado, que las ecuaciones (2-6) y (2-7).
A su vez, la ecuación para fricción de fluido puede ser escrita como:
(2-9)
o también:
(2-10)
lo que da lugar a la siguiente ecuación de escala para sistemas homólogos:
(2-11)
Esta relación también es de menos uso que la de transferencia de calor, producto de la variabilidad de xf entre 0.8 y la unidad. Sin embargo, si tanto el modelo como el prototipo operan a velocidades de fluidos no menors que cuatro veces la velocidad crítica, xf puede ser tomada como la unidad y la ecuación 2-11 se convierte en:
(2-12)
Bajo esas condiciones, la caída de presión y el consumo de potencia pueden ser escalados para condiciones que se apartan de la semejanza dinámica. La ecuaciónn de escala para el consumo de potencia, correspondiente a la ecuación 2-12 es entonces:
(2-13)
En todos los casos cuando se emplee el principio de semejanza extendido para escalar, ascendente o descendentemente, es esencial verificar que el régimen permanece igual en el modelo y en el prototipo. Si, por ejemplo, el movimiento del fluido fuera turbulento en el prototipo y laminar en el modelo, la suposición de un índice de Reynolds constante será entonces completamente erróneo.
Cada sistema experimental tiene un límite o frontera que lo separa de los alrededores y delimita las variables que están bajo el control del experimentador. Cuando el sistema se escala, la relación de la superficie de frontera al volumen interno, disminuye. Por ejemplo, un beaker con un diámetro de 0.07 m y una altura de 0.1 m, tiene una relación de superficie de frontera a volumen interno de 57 m /m y un tanque geométricamente semejante con una relación de escala lineal de 10, o sea con 0.7 m de diámetro y 1 m de largo, tiene una relación de sólo 5,7m / m o sea 10 veces menos, lo que nos indica que la relación superficie/volumen en recipientes semejantes geométricamente, varia inversamente proporcional a la dimensión lineal.
Esto se deduce del hecho de que el área crece proporcional a L2 y el volumen a L3 , por lo cual la relación superficie/volumen resulta:
(2-14)
En el caso mencionado, para llevar la relación superficie/volumen en el prototipo al valor de la del modelo, sería necesario instalar una superficie adicional equivalente, para lo que se necesitaría, por ejemplo, un serpentín interior de 220 m de tubería de 25 mm de diámetro interior.
Las superficies o interfases que influyen en el rendimiento de una planta de procesos pueden ser de frontera o interiores. La superficie de frontera es normalmente la pared del recipiente contenedor, mientras que las superficies interiores pueden estar compuestas de tubos, anillos Raschig, gránulos, etc., de acuerdo con el tipo de planta, y pueden comprender también, cuando hay sistemas de varias fases fluídos, una o más interfases de fluídos.
Un recipiente plano no tiene superficie sólida interna, aunque puede tener una interfase fluída. El área de la interfase fluída depende principalmente de la dinámica del sistema, por ejemplo del tamaño de las gotas de la fase líquida dispersa en la otra, lo que a su vez depende del grado de agitación a que esté sometido el sistema, mientras que las áreas de superficie sólida son función solamente de la geometría. Los sistemas experimentales en ingeniería química y bioquímica están normalmente contenidos en recipientes, conductos o cámaras y limitados por superficies sólida . En este contexto se reserva la palabra superficie para las superficies sólidas y las superficies líquidas se denominan interfases.
En un aparato a escala pequeña que constituye un elemento geométrico, la relación superficie interior/volumen es la misma que en el prototipo, pero si el modelo es un elemento modelo o un modelo geométrico normal, la relación se mayor en el modelo que en el prototipo, aunque esa diferencia es tomada en cuenta en las relaciones de semejanza y no constituye un problema .
La situación es distinta, sin embargo,con la relación superficie exterior (límite o frontera) y volumen, la cual es mayor tanto en el modelo , como en el elemento o elemento modelo, con relación al prototipo y por ello las condiciones fuera de la frontera no necesariamente cumplen con los criterios internos de semejanza.
Esta alejamiento que puede haber en la superficie frontera de la semejanza es el llamado efecto de frontera o efecto de pared y los mismos pueden, a menos que sean controlados, hacer casi imposible la predicción del rendimiento a gran escala a partir de los experimentos con modelo. Un ejemplo puede ser un elemento de torre empacada en el cual el diámetro de la torre es solo dos o tres veces el diámetro del anillo de empaque. En esos casos la tendencia del líquido a fluir por la pared, al igual que el gas, es mucho mayor que en una torre grande y por ello un aparato de ese tipo daría muy poca informacion útil con relacion a la torre a gran escala, debido al efecto de pared predominante en el modelo.
Los efectos de pared, límite o frontera, no pueden ser eliminados por incremento de la extensión del sistema bajo control. En el caso, por ejemplo, de un recipiente de reacción modelo que pierde calor a los alrededores por convección natural, si se intenta hacer segura la semejanza externa, encerrando el recipiente en una cámara donde se le suministre aire a la temperatura requirida, sólo se logra hacer que el aire que está circulando en esa cámara forme parte del sistema en estudio y que el efecto de frontera se transfiera hacia las paredes de la cámara en lugar de las del recipiente. Sin embargo, aunque los efectos de frontera no pueden ser eliminados teóricamente, ellos pueden ser neutralizados o compensados por procedimientos experimentales adecuados, en dependencia del tipo de efectos que la frontera esté ejerciendo sobre el sistema .
En general, la pared de un recipiente puede tener cuatro diferentes tipos de efectos sobre una reacción física o química que esté ocurriendo dentro de él :
1.-Puede influenciar el patrón de flujo y las resistencias a la fricción
2.-Puede transferir calor hacia afuera o hacia adentro del sistema
3.-Puede absorber o transmitir materia de la corriente del fluído
4.-Puede catalizar positiva o negativamente una reacción química en la fase fluída
Un modelo semejante geométricamente, bajo un régimen dinámico controlado por la viscosidad, no sufre efectos de pared relacionados con la fricción. La diferencia que existe en las relaciones superficie interior y superficie exterior versus volumen, se compensa con el incremento de la velocidad en el modelo. De esa forma, a iguales números de Reynolds, el patrón de flujo del fluído en el prototipo y en el modelo son semejantes.
En el caso de un elemento, los efectos de pared comienzan a ser pronunciados cuando la sección se reduce mucho, de manera tal que la superficie de frontera llega a ser del mismo orden del magnitud que la superficie interior y esto fija el límite práctico de la relación de sección B que puede ser empleada. Por ejemplo se ha encontrado que los efectos de pared en una torre empacada llegan a ser serios cuando el diámtro de la torre es menor que aproximadamente 10 veces el diámetro del empaque. En una construcción multitubular, un elemento con muy pocos tubos, tendrá un radio hidráulico medio fuera del los tubos que se diferenciará apreciablemente del radio hidráulico medio del prototipo y eso provocará diferentes condiciones de película.
No hay un método simple mediante el cual pueden ser compensados los efectos en el patrón de flujos y el coeficiente de arrastre por fricción provocados por la mayor relación superficie volumen de un elemento. En el caso de las torres empacadas, cuando el líquido desciende y el gas o vapor asciende, puede ser ventajoso cubrir las paredes interiores del elemento con alguno sustancia que no sea mojada por el líquido y esto reduce el efecto de pared, pero en general la mejor solución es limitar la relación de sección de un elemento a valores a los cuales la relación superficie frontera/superficie interior no sobrepase el 10% .
Para evaluar la resistencia a la fricción es preferible un modelo a escala que un elemento o un elemento modelo, siempre y cuando la velocidad correspondiente para la semejanza no sea excesiva, puesto que para un modelo, a igualdad de números de Reynolds, no hay efecto de pared.
De los tres principales procesos de transferencia (calor, masa y momentum), la transferencia de calor es el único que puede traspasar las paredes de un recipiente, por lo cual en las operaciones y reacciones que tienen lugar a temperaturas por encima o por debajo de la ambiente, el flujo de calor através de la superficie externa de los aparatos es normalmente el principal efecto de pared contra el que hay que protejerse en el escalado .
En los trabajos iniciales de semejanza térmica, Damköhler supuso que la pérdida de calor superficial de un recipiente es proporcional al coeficiente de película interno, pero realmente se ha demostrado que eso no ocurre así casi en la totalidad de los casos. Siempre hay un coeficiente de película externo que está fuera del sistema y que no es influenciado por las condiciones del flujo interno.
Los coeficientes de películas externos debido a la convección natural, tienden a ser de menor orden que los coeficientes de película internos, cuando en el interior hay convección forzada y flujo turbulento. Además, cuando un recipiente de proceso está a una temperatura muy por encima o por debajo del ambiente, el mismo se aisla normalmente por razones económicas y el resultado neto es que en general la resistencia térmica de la película del fluído es despreciable en comparación con la resistencia combinada de la película de aire externa y el aislamiento, si lo hay.
Por consiguiente, aunque los coeficientes de película internos varíen con la velocidad del fluído, los coeficientes globales de transferencia de calor del interior del recipiente de proceso hacia el aire de los alrededores, tienden a ser del mismo orden, tanto en el modelo como en el prototipo, siempre y cuando se aplique la misma resistencia por unidad de área a ambos mediante, por ejemplo, el uso de igual espesor del material aislante .
Una segunda consideración es que las pérdidas de calor superficial de una vasija de proceso experimental puede ser ajustado en la práctica independientemente de las condiciones de flujo y temperatura interiores, producto del efecto predominante de los coeficientes de transferencia de calor externos en ese proceso.
Esto se puede lograr, ya sea rodeando el recipiente con una camisa o doble pared a través de la cual pueda circular un medio adecuado para el enfriamiento o calentamiento o bien mediante el suministro de calor producido por la electricidad a través de resistencias eléctricas, se puede controlar la rázon de cambio de la pérdida de calor al exterior a cualquier valor deseado, llegando incluso hasta cero.
La utilización de la camisa o de la resistencia de calentamiento para un recipiente caliente de pequeña escala, se suele denominar una operación adiabática, aunque su verdadera función no es mantener una verdadera condición adiabática, sino poder reducir las pérdidas de calor por unidad de capacidad en el modelo a los mismos valores que se tendrían en la gran escala. No obstante, un equipo de planta a gran escala es tan cercano a las condiciones adiabáticas que la semejanza se logra generalmente con una xfaproximación a las condiciones adiabáticas en el modelo.
También hay que considerar que hay tres casos en los cuales un modelo a escala puede tener lo que se denmomina semejanza térmica inherente, o sea que el flujo de calor por unidad de área externa que se requiere es el mismo tanto en el prototipo como en el modelo, y no se requiere, por tanto utilizar chaquetas ni resistencias de calentamiento, sino solamente tener el mismo espesor de aislamiento que en el prototipo. Esos casos son los siguientes:
1.-Régimen térmico. Modelos de sistemas de transferencia de calor en los cuales los mecanismos controlantes con la radiación y la conducción a través de las paredes del recipiente.
2.-Régimen químico. Modelos de sistemas de reacciones heterogéneas con interfase fija, en los cuales las superficies internas (granos de catalizador, etc) son geométricamente semejantes y están en la misma relación de escala que los recipientes de reacción, de forma tal que la actividad superficial permanece constante.
3.-Régimen dinámico. La semejanza térmica inherente bajo un régimen dinámico es imposible tanto para los modelos como para los elementos, pero puede ser alcanzada por un modelo de elemento de proporciones adecuadas.
Para la semejanza bajo condiciones de régimen dinámico, la pérdida de calor superficial por unidad de área en el modelo a escala se requiere que sea L veces más grande que en el prototipo, siendo L la relación o factor lineal de escala del prototipo al modelo. Cuando se opera a temperaturas por encima de la atmosférica, ese tipo de modelo necesitará ser enfriado externamente, por ejemplo por una chaqueta de enfriamiento por agua.
Por otra parte, en el caso de un elemento semejante dinámicamente, se requiere que pierda menos calor por unidad de área externa que el prototipo . Para recipientes de forma elongada, en los cuales la pérdida de calor a través de los extremos es despreciable, la pérdida de calor por unidad de área del elemento será veces la del prototipo, siendo A la relación de sección, o sea la relación de la sección transversal del prototipo a la del elemento.
Evidentemente debe haber un conjunto particular de modelos de elementos en los cuales los requerimientos conflictivos se cancelen y posean por lo tanto semejanza térmica inherente. Para recipientes elongados este es el caso cuando :
(2-15)
donde U es la relación de los coeficientes de calor globales de las superficies fronteras para el prototipo y el modelo de elemento. Generalmente U se puede tomar como la unidad y la relación queda como :
(2-16)
Esa misma relación se mantiene para procesos operando a temperaturas por debajo de la atmosférica en los cuales el efecto de pared considerado es la transferencia de calor hacia el interior del recipiente.
La relación requerida en el elemento modelo es posible sólo cuando el aparato tiene una estructura múltiple o de red con una relación alta de superficie interior a superficie frontera.Por ese motivo, en el caso de recipientes planos, no se puede lograr la semejana térmica inherente bajo un régimen dinámico puro.
En todos los casos analizados de semejanza térmica inherente, se considera que los sistemas reaccionantes, para los propósitos de semejanza, están limitados por las superficies internas de los recipientes contenedoras. El espesor de la pared del recipiente no está sujeta a las requerimientos de semejanza geométrica y debe ofrecer, en unión con cualquire aislamiento externo, la misma resistencia térmica por unidad de área, tanto en el modelo como en el prototipo. En el caso de un recipiente metálico sin aislamiento, la principal resistencia térmica radica en la película de aire del exterior del recipiente y por ello el efecto del espesor de la pared puede en general despreciarse.
En sistemas para los cuales la semejanza inherente no es posible, las condiciones térmicas en las fronteras deben ser controladas artificialmente, siendo el mejor método de control para las pérdidas de calor superficial desde recipientes calientes, el empleo de resistencias eléctricas mediantes alambres enrrollados. Estos alambres deben colocarse preferentemente dentro del material de aislamiento, aproximadamente en la mitad entre la pared del recipiente y la superficie del aislante y las vueltas sucesivas de cable que se requieren para alcanzar la longitud necesaria, se deben acomodar en el espacio comprendido entre la mitad del aislante y la superficie del recipiente.
La potencia que se debe suministrar al enrrollado se calcula apartir de un estimado generoso de la pérdida máxima de calor desde el enrrollado, a través de la capa exterior de aislante, asumiendo que el enrrollado está a la misma temperatura que el recipiente. Unido a este dato y conociendo la resistividad del material del alambre de enrrollado, se calcula entonces la sección transversal del alambre de resistencia.
La regulación del calor suministrado a la resistencia se hace por réostatos en serie u otros procedimientos de control similares. Para asegurar el mantenimiento de condiciones adiabáticas es suficiente tener un termopar dentro del recipiente caliente y otro dentro del aislante, entre la pared del recipiente y el enrrollado de resistencias,ajustándose la corriente que circula de forma tal de mantener las dos temperaturas iguales.
Cuando las pérdidas de calor deben ser controlados para un valor bajo definido, es mejor tener los termopares sensitivos en el exterior del recipiente, uno adyacente a la pared y otro muy cercano al enrrollado. Conociendo el espesor de aislante entre ambos termopares y la resistividad del material aislante, se puede calcular exactamente el flujo de calor mediante la diferencia de temperatura entre ambos .
Cuando la temperatura interna varía a lo largo de la longitud del recipiente, el enrrollado de resistencia se hace comúnmente en secciones, cada una de las cuales se regula por un reóstato separado y se controlan por temopares separados también .
Las chaquetas al vacío, utilizadas en ocasiones para el aislamiento térmico en el laboratorio, como es el caso de los frascos de Dewar ordinarios, son problemáticas y raramente efectivas en la escala de las plantas pilotos ya que un buen aislamiento no se obtiene a menos que la presión absoluta en la chaqueta sea extremadamente baja, lo cual es difícil de mantener con equipamiento ordinario de ingeniería debido principalmente a los salideros por juntas, la porosidad del metal y soldaduras y la vaporización de trazas de humedad y aceite. Además una chaqueta al vacío no disminuye grandemente las pérdidas o ganancias de calor por radiación por lo cual se necesita utilizar superficies metálicas altamente reflectivas con este propósito.
Un ejemplo del uso de un sistema de regulación de la pérdida de xf calor a través de las paredes de un recipiente que posibilita el cálculo exacto y su control, se tiene en los reactores calorímetricos del típo del RC-l de la Mettler (16), los cuales constan de un recipiente de reacción de 2L/s (escala banco), con una chaqueta a través de la cual se circulan 2L/s de aceite de silicona (Figura 2.7 ).
El sistema de circulación de aceite se compone de dos partes. En la primera el aceite se mantiene aproximadamente 3 por encima de la temperatura deseada del reactor, Tr y en la segunda parte, el aceite es enfriado a una temperatura por lo menos 5 por debajo de Tr. Los dos circuitos de aceite se conectan por una válvula electrónica, la que permite una mezcla del aceite caliente " con el "frio", de manera tal que la temperatura del que pasa a la camisa del reactor sea la necesaria para mantener la temperatura del reactor, Tr, constante.
Figura 2.7 Diagrama simplificado del Reactor
Calorimétrico RC-1 de la Mettler
Midiendo continuamente Tr y Tj se tiene, en cualquier instante, el calor intercambiado entre el contenido del reactor y la chaqueta de enfriamiento por aceite, (qf), según la ecuación :
qf = UA(Tr - Tj ) (2-17)
Donde U es el coeficiente global de transferencia de calor en W k-1 m-2 y A² es la superficie de transferencia de la camisa del reactor en m2 .
Si el calor generado por la reacción disminuye, la temperatura de la chaqueta de aceite Tj se disminuye automáticamente para mantener Tr constante, mediante el ajuste de la válvula electrónica automática de la mezcla, que es controlado por una computadora IBM compatible, la que asegura la evaluación continua del flujo de calor producido por la reacción, incluso empleando modelos más sofisticados del flujo de calor a través de las paredes del reactor .
Un calentador eléctrico calibrado instalado en el reactor se utiliza para determinar el coeficiente de proporcionalidad (UA), o sea el producto del área de transferencia por el coeficiente global de transferencia y los modelos matemáticos empleados permiten medir los cambios de las características de la transferencia de calor que puede resultar de las modificaciones de viscosidad, volumen de mezcla en reactor y otras variables de operación (14).
Este tipo de reactor puede ser operado también en forma isotérmica o isoperibólica. En el modo isoperisbólico se controla la temperatura de la camisa de enfriamiento y corresponde a la forma de trabajar de los reactores discontinuos de la industria..En el caso de su uso en la biotecnología se utiliza preferentemente el modo de operación isotérmico que no daña los microorganismos (16) (Figura 2.8).
Lo más importante sobre los efectos catalíticos superficiales es que deben ser detectados en la escala pequeña y considerados en el diseño de la planta a escala completa. Muchas reacciones químicas aparentemente homogéneas son en alguna medida catalizados por las paredes de los recipientes de reacción y por ello darán diferentes rendimientos en el recipiente grande, bajo similares condiciones de temperatura y tiempo, debido a la menor relación superficie/volumen (15).
Figura 2.8 Modos de
operación del Reactor Calorimétrico (isotérmico, isoperibólico y adiabático)
(De Catálogo Metler).
Los efectos de la superficie adicional en el recipiente de medición , son usualmente investigados en el laboratorio. Cuando se descubra un efecto catalítico superficial apreciable, se debe pensar en utilizar alguna forma de recipiente de reacción empacada que permite una mayor superficie interior que la que normalmente se utilizaría en un recipiente normal, de forma tal que se puede escalar de acuerdo con los principios señalados anteriormente en este capítulo.
Las dificultades se presentan cuando se tiene recipientes simples, a los cuales es geométricamente imposible proveer una relación superficie/volumen tan baja en el laboratorio como en la escala grande, y esto puede hacer necesario cubrir la superficie interior del recipiente de laboratorio con alguna sustancia inactiva, para suprimir los efectos de la catalísis superficial. Por ejemplo la reacción entre el etileno y el bromo se cataliza por la superficie de cristal , pero cesa prácticamente cuando el cristal se cubre con cera parafina.
El conocido efecto de las dimensiones del recipiente en el tamaño de las partículas producidas por las reacciones de precipitación es posiblemente semejante a los efectos de catálisis superficial. Para igualdad de otras condiciones, los recipientes de reacción más grandes tienden a dar precipitados más fácilmente filtrables, por lo que constituye uno de los pocos efectos de frontera que son favorables en el proceso de escalado
ALGUNAS APLICACIONES DEL ESCALADO EN LA INDUSTRIA QUÍMICA.
Se han seleccionado para las aplicaciones, dos tipos de equipos de amplio uso, no solamente en la Industria Química sino también en las demás industrias, incluyendo la Biotecnológica. Ese es el caso, por ejemplo, de los tanques con agitación mecánica, los cuales sirven de base a los fermentadores más empleados en la Biotecnología, los fermentadores tipo tanque agitado.
Los reactores, por otra parte, constituyen los equipos fundamentales de la Industria Química, pero los procedimientos desarrollados para su escalado resultan comunes en gran parte, con los procedimientos de escalado de los reactores enzimáticos, de gran desarrollo en la Industria Biotecnológica actual.
No obstante limitarse el estudio a dos tipos de equipos, la complejidad y amplitud del proceso de escalado impiden que incluso éstos puedan ser abordados en su totalidad, por lo cual se ha hecho énfasis en los aspectos fundamentales y en los procedimientos que permitan su aplicación en otras condiciones y a otros equipos.
La agitación de fluidos se emplea ampliamente en las industrias química y bioquímica, existiendo gran diversidad de métodos de agitación y por ello la selección de los mismos y de los aparatos para ejecutarlos, dependen del objetivo que se quiere lograr y del estado de agregación de los materiales a agitar. De esos métodos, los dos más empleados para la agitación de fluidos son: el mecánico, mediante agitadores de diferentes estructuras y el neumático, con aire comprimido o gas inerte, aunque se emplean también otros métodos como la agitación en tuberías y la agitación mediante toberas y bombas (13, 17).
En este capítulo se estudiará el método de agitación mecánica, mediante agitadores de diversos tipos (propelas, paletas, anclas, etc.) instalados en tanques, los que se utilizan en la industria principalmente para (17,24):
1- Mezclado de polvos sólidos o pastas
2- Suspensiones de sólidos en líquidos
3- Dispersión o emulsificación de líquidos
inmiscibles
4- Solución de sólidos, líquidos o gases
5- Procesos de reacciones químicas
Además cualquiera de las operaciones a considerar puede ser acompañada de calentamiento o enfriamiento en el tanque mezclador, por lo cual se harán consideraciones especiales para los procesos de agitación y mezclado en los cuales la transferencia de calor juega un papel importante.
De las operaciones mencionadas, el mezclado de sólidos o pastas es más bien una operación mecánica, por lo cual en este capítulo se tratarán solamente las otras cuatro operaciones, las que caen totalmente dentro del campo de la hidrodinámica (13).
Con frecuencia en un tanque agitado pueden cumplirse simultáneamente varios de los procesos señalados. Por ejemplo, en la hidrogenación catalítica de un líquido, el gas hidrógeno es dispersado a través del líquido, en el cual se mantienen en suspensión las partículas sólidas del catalizador, siendo eliminado al mismo tiempo el calor producido por la reacción, por medio de un serpentín o camisa de refrigeración (17). Esto demuestra que resulta imprescindible determinar en cada caso el régimen que predomina en el equipo y el escalado se debe realizar considerando ese régimen predominante.
En el caso de los tanques con agitación mecánica, se aplica la ecuación generalizada de la hidrodinámica, para el movimiento estacionario forzoso del líquido y mediante el análisis dimensional, se obtiene (13):
Eu = (Re, Fr, S1, S²... ) (3-1)
donde S1 y S² son los factores de forma que caracterizan el tanque en
cuestión, los que se cancelan cuando se
comparan dos tanques geométricamente semejantes.
Además, en los casos en que se agitan juntos dos líquidos inmiscibles, un líquido se dispersa como gotas en el seno del otro y la tensión superficial en la intefase entre los dos líquidos juega un papel relevante en el consumo de potencia, y en ese caso el número de Weber (We) debe incluirse en el criterio.
El número de Froude (Fr), es una medida de la relación entre los esfuerzos de inercia y los de gravedad e interviene en la dinámica de los fluidos siempre que exista un movimiento de ondas importante sobre la superficie de los mismos y por eso es especialmente importante en el diseño del casco de los buques. En un tanque agitado, operando en flujo laminar o en el turbulento pero con tabiques deflectores suficientes o con una posición excéntrica del eje del agitador, no se forman vórtices en la superficie del fluído y se puede despreciar entonces la influencia de la gravedad, por lo cual se elimina el número de Froude del criterio de semejanza (25).
Teniendo en cuenta la importancia que el
consumo de potencia tiene en los tanques con agitación mecánica, se sustituye la diferencia de la presión por la
potencia, en el número de Euler (Eu)
y se transforma el mismo en el
número de Potencia (Np),
quedando la expresión del
criterio de semejanza como (13):
Np = Ý (Re) (3-2)
Para realizar el escalado
mediante la ecuación criterial (3-2), sólo en muy pocas ocasiones se considera el régimen
dinámico puro y por ello no es usual
escalar empleando el criterio de mantener constante el número de Reynolds, ya
que esa consideración conduce
generalmente a condiciones no económicas (22).
En la práctica existen ocasiones donde,
además de las relaciones entre la potencia consumida por el agitador y las características del fluido, son importantes
aspectos relacionados con la rapidez y calidad del mezclado y en ese caso aparecen otras variables no consideradas en las ecuaciones
criteriales (3-1) y
(3-2) y se necesitan aplicar por lo tanto, otros
criterios de escalado (Figura 3.1 ).
Figura 3.1 Número de Potencia en función del
Reynolds para varios tipos de impelentes (Tomado de Chisti y Moo-Young, 1991)
Se conoce que la capacidad de bombeo de un agitador dentro de un tanque es proporcional a ND y con esa base se define el número de Flujo (Nq), número adimensional que depende del número de hojas del agitador, de la relación entre el ancho de las paletas y su diámetro y de la relación entre el diámetro del impelente y el diámetro del tanque, o sea de las diferentes variables geométricas que caracterizan un agitador (4,22).
Se tienen datos de valores de Nq entre 0.4 y 0.5 para propelas con paso igual al diámetro y valores entre 0.7 y 29 para turbinas de flujo axial, de acuerdo con las dimensiones geométricas de los impelentes. Para el caso particular de ls turbinas axiales con ancho de hojas igual a 0.14 el diámetro del impelente, se tiene la información completa de la variación de Nq en función del número de Reynolds, para relaciones D/T entre 0.25 y 0.5 (3).
Estos dos tipos de impelentes (propelas y turbinas axiales), son muy utilizados en la industria química para sistemas muy sensibles al flujo, y para ellos el número Nq tiene una gran importancia, por lo que la existencia de esos datos es de gran utilidad para el escalado de ese tipo de mezcladores. No obstante, existen ocasiones en que este número resulta de importancia también para otros tipos de impelentes y en esos casos, la carencia de información disponible hace imprescindible la realización de experimentos para obtener los datos necesarios.
La expresión del número de flujo queda como:
(3.3)
O sea que para un impelente dado, el flujo movido por el agitador es directamente proporcional a la velocidad de rotación del mismo. Además el coeficiente de proporcionalidad depende del tipo de impelente y de su relación D/T y Dw/D. Despejando entonces se obtiene:
(3.4)
También el nùmero de Potencia se relaciona con la velocidad y el diámetro del impelente, cuando en régimen turbulento se hace independiente del número de Reynolds, quedando (22, 23):
(3.5)
De donde, despejando la potencia, se obtiene:
(3.6)
Esta expresión permite analizar el efecto de la variación del diámetro del impelente y la velocidad de rotación, para un consumo de potencia constante, lo que resulta muy útil para el escalado, como se verá posteriormente. De esta expresión se llega también a la relación entre el flujo que mueve el agitador y la carga, a potencia constante, o sea (22):
(3.7)
Otros elementos importantes en el funcionamiento del un agitador, son el tiempo de mezclado y el de circulación. Hay ocasiones en que los mismos tienen una importancia considerable y por ello se ha estudiado por diversos autores lo que ocurre con esos tiempos durante el escalado.
Se ha demostrado que la capacidad de bombeo por unidad de volumen (Q/V) es una buena indicación del tiempo de circulación de una partícula en un tanque pequeño (hasta 200 litros aproximadamente) y que es mayor que Q/V en un tanque grande (hasta unos 4 m ). A su vez el tiempo de mezclado es en general proporcional al tiempo de circulación, aunque esta relación no está totalmente clara, ya que hay ocasiones en que el fluido recorre trayectorias en un tanque sin que se produzca apenas mezcla con el resto del fluido en el recipiente (22).
No obstante, normalmente se acepta la relación entre el tiempo de circulación, el tiempo de mezclado y la capacidad de bombeo por unidad de volumen (Q/V) y por ello se toma como indicador de la igualdad de tiempos de circulación y de mezclado, la igualdad de la relación (Q/V) (23).
Además de lo ya analizado se debe considerar también el gradiente de velocidad que sufre el fluido a lo largo del eje, el cual varía en realación al tamaño relativo del impelente con respecto al tanque. De un perfil de velocidad en un tanque agitado mecánicamente se puede obtener (Figura 3-2), el valor del gradiente de velocidad, cuya pendiente se denomina razón de cizalladura, medida en s y que no es más que la medición de la variación de la velocidad con la altura.
Figura 3.2 Perfil de
velocidad en un tanque agitado (De Oldshue, 1969)
Multiplicando la razón de cizalladura en un punto dado por la viscosidad del fluido se obtiene la tensión de cizalladura (shear strees), la cual es en última instancia la responsable de los fenómenos que ocurren en el fluido como son la dispersión de las burbujas y gotas y la reducción de tamaño de las partículas.
Un incremento de la viscosidad del fluido, por ejemplo de 1 a 10 mPs, produce un esfuerzo de cizalladura o esfuerzo cortante 10 veces mayor, a partir de una misma razón de cizalladura alrededor del impelente, lo que puede tener un efecto apreciable en el trabajo del tanque agitado (22).
Como la razón de cizalladura varía considerablemente de un punto a otro en todo el tanque agitado, es conveniente diferenciar al menos cuatro valores de esa razón: la máxima y la promedio en la zona del impelente, la promedio de todo el tanque agitado y la mínima en la zona cizalladura promedio, varía en función de la más remota y de menor velocidad en el patrón de flujos del tanque.
Se ha podido comprobar que la razón de velocidad del agitador (N), mientras que la razón de cizalladura máxima en la zona del impelente depende de la velocidad periférica del mismo o lo que es igual, del producto ND. La carga (H), se relaciona también con la razón de cizalladura, siendo proporcional a la raíz cuadrada de dicha razón.
Estas relaciones, unidas a la expresada en la ecuación (6.7), muestran que un impelente grande, operando a baja velocidad, produce un flujo alto, una baja carga y una baja razón de cizalladura. En el otro extremo, un impelente pequeño, moviéndose a alta velocidad, desarrolla una alta razón de cizalladura y una baja capacidad de bombeo (Figura 3.3).
Figura 3.3 Variación
de el esfuerzo cortante y la carga en el escalado de un tanque agitado con igual
P/V (De Oldshue, 1969).
El escalado conlleva consideraciones de dimensiones, velocidades y fuerzas. Si el parámetro final de interés es una de esas tres variables, sólo se necesita el uso de las relaciones adimensionales que las contemplen. Por ejemplo si el interés es con la potencia, ésta se relaciona fundamentalmente con el número de Reynolds (ecuación 3-2) y en la zona turbulenta con la velocidad de rotación y el diámetro del impelente (ecuación 3-6).
Si el proceso de agitación o mezclado depende por ejemplo, del esfuerzo de cizalladura en el fluido, hay que utilizar otras relaciones como la de la razón de cizalladura con la velocidad periférica del impelente, números adimensionales como el de Flujo (Nq) y propiedades del fluido como la viscosidad. La relación que hay que mantener de un número adimensional o criterio durante el escalado,no tiene que ser necesariamente constante. Es mejor hablar de la propiedad que debe ser controlada durante el escalado y preguntarse, ¿Cuál debe ser la relación entre el tamaño del tanque y el parámetro a controlar para obtener un resultado esperado del proceso en estudio? (21).
Tabla 3.1. Variantes de escalado ascendente (scaleup) de un tanque
con agitación
mecánica (tomado de Oldshue, 1969)
No. |
Símbolo |
Escala Piloto (20L) |
Escala Industrial (2500L) |
|||||
|
Variantes con igual D/T.Criterios de Escalado |
Variante mayor D/T |
||||||
|
|
|
(P/V) |
N |
ND |
Re |
|
|
1 |
T |
1.0 |
5.0 |
5.0 |
5.0 |
5.0 |
5.0 |
|
2 |
V |
1.0 |
125 |
125 |
125 |
125 |
125 |
|
3 |
D |
1.0 |
5.0 |
5.0 |
5.0 |
5.0 |
7.8 |
|
4 |
(D/T) |
0.33 |
0.33 |
0.33 |
0.33 |
0.33 |
0.52 |
|
5 |
N |
1.0 |
0.34 |
1 |
0.2 |
0.04 |
0.16 |
|
6 |
P |
1.0 |
125 |
3125 |
25 |
0.3 |
125 |
|
7 |
(P/V) |
1.0 |
1.0 |
25 |
0.2 |
0,001 |
1.0 |
|
8 |
Q |
1.0 |
42.5 |
125 |
25 |
5.0 |
125 |
|
9 |
(Q/V) |
1.0 |
0.34 |
1.0 |
0.2 |
0.04 |
1.0 |
|
10 |
ND |
1.0 |
1.7 |
5.0 |
1.0 |
0.2 |
1.0 |
|
11 |
Re |
1.0 |
8.5 |
25 |
5 |
1.0 |
3.9 |
|
Si la relación
que se obtiene es mantener el parámetro
constante, mucho mejor, porque con ello se simplifica el procedimiento de escalado, pero no siempre tiene que ocurrir preisamente
así y
en ocasiones la variación del parámetro durante el escalado puede ser
mucho más compleja. Las principales relaciones
que se deben controlar
durante el escalado de un tanque
agitado mecánicamente, si se considera
la semejanza geométrica plena
son: el número de
Reynolds (Re), la potencia por unidad de
volumen(P/V), la capacidad de
bombeo por unidad de volumen
(Q/V), la velocidad
periférica (ND) y el coeficiente
de transferencia de masa
para la fase líquida (klal). En
caso de apartarse de la semejanza geométrica,
hay que considerar también las
relaciones diámetro de impelente/diámetro de tanque (D/T) y ancho de
impelente/altura de impelente (Dw/D).
Para tener una idea completa de las posibilidades que existen durante el escalado de un tanque agitado, se verán distintas variantes,manteniendo en cada caso una de las relaciones constantes, para analizar más cómodamente su efecto en las otras relaciones
La ecuación de escalado a utilizar es:
(3-8)
Con este criterio se obtiene un consumo de potencia muy bajo en el prototipo y prácticamente casi todos los demás indicadores bajan demasiado (Tabla 3-1) y no constituye por lo tanto una herramienta práctica del escalado (21, 22) Esto se debe a que en la mayoría de los casos, lo más importante no es el patrón de flujo asegurado por la semejanza dinámica total, sino otras consideraciones prácticas.
Para determinar la ecuación criterial se parte de la ecuación (3-4) dividida por el volumen.
Se tiene en cuenta que el Nq varía inversamente proprocional al incremento de la relación D/T y se obtiene, para prototipos con igual o mayor D/T que el modelo:
y para igual relación Q/V en el modelo y en el prototipo, la expresión se reduce a:
o lo que es igual:
(3-10a)
y para impelentes semejantes geométricamente, (D/T) = constante y queda:
(3-10b)
Esta igualdad permite asegurar un tiempo de mezclado igual en el modelo y en el prototipo, pero provoca un incremento demasiado grande en la potencia necesaria en el prototipo, lo que no resulta práctico y por ello, casi la totalidad de los tanques con agitación a gran escala tienen tiempos de mezclado más grandes que los equipos a pequeña escala, semejantes geométricamente. La única posibilidad de lograr un tiempo de mezclado en el tanque grande, igual o al menos más cercano al del tanque pequeño, es modificando las relaciones geométricas del impelente, como se verá más adelante, ya que con un incremento de la relación D/T se puede lograr una mayor relación Q/V con menor N y por lo tanto con menor potencia (21, 22).
Las ecuaciones de escala a aplicar son:
(3-11)
(3-12)
y de ahí se obtiene:
(3-13)
Esta es una de las mejores opciones para el escalado de un tanque con agitación mecánica. Se ha demostrado que es el mejor procedimiento para escalar las operaciones de mezclado líquido-líquido, cuando el objetivo es lograr igualdad de área interfacial por unidad de volumen de una mezcla líquida y también es aplicable a la dispersión de sólidos en líquidos (28).
En otros muchos casos se acostumbra también a seleccionar este criterio de igual potencia por unidad de volumen, lo que lleva en muchas ocasiones a escalados conservadores, aunque siempre el tiempo de mezclado que se obtiene en el prototipo resulta mayor que en el modelo, lo que se ha tenido en cuenta en los casos en que el tiempo de ciclo resulta importante (22). Esto puede ocurrir, por ejemplo, cuando el resultado del proceso de agitación es una función del número de veces que el material se circula a través de la zona de alta cizalladura.
La velocidad periférica constante significa igual razón de cizalladura máxima en la zona del impelente y también igual intensidad de mezclado (NI). Las resultados obtenidos con este procedimiento, para tanques semejantes geométricamente, son bastante pobres en comparación con los obtenidos, por ejemplo, con el criterio de igual potencia por unidad de volumen. No obstante, este criterio se emplea cuando es un requisito del sistema no exceder un esfuerzo de cizalladura máximo, como es el caso de algunos procesos biotecnológicos en que los microorganismos o células involucrados son muy sensibles a este parámetro.
Aquí también cabe el recurso de obtener esa condición sin mantener a semejanza geométrica, o sea variando la relación D/T como se verá posteriormente, con lo cual se mejoran sensiblemente los resultados (4, 20, 22). Las ecuaciones de escalado a considerar son:
NL = Constante (3-14)
o lo que es igual:
(3-15)
Este es el procedimiento recomendado cuando el objetivo principal del tanque agitado es disolver un gas en un líquido, como es el caso de los fermentadores industriales (1, 7, 21). Cuando se aplica en esos casos el criterio de igual P/V, se está haciendo un escalado conservador, empleándose más potencia de la necesaria y sometiendo al medio a un esfuerzo cortante mayor (Tabla 3-1).
Si se realiza el escalado con el criterio de igual coeficiente de transferencia (klal), se logran mejores valores en muchos indicadores, para este tipo de tanque agitados. Las ecuaciones a emplear son:
3-16
y de la misma se obtiene:
3.17
Aunque las cinco primeras variantes analizadas han sido con una relación D/T constante de 0.33 (Tabla 5-1), en varias ocasiones se ha mencionado la posibilidad de resolver algunas de las limitaciones de los distintos criterios de escalado, abandonando la semejanza geométrica estricta, variando fundamentalmente la realción D/T. En este caso se analiza precisamente lo que ocurre cuando se adopta esa variante y se toma una relación D/T mayor en el prototipo.
Para analizar esta variación se tomará como ecuación criterial la (5-6) y se mantiene constante el consumo total de potencia y por ende la relación (P/V). Se aumenta también convenientemente el diámetro del impelente y se reduce la velocidad de rotación N de forma tal que se alcance un producto ND igual al del modelo, con lo que se obtiene además igual esfuerzo cortante en ambas escalas.
Como resultado, a pesar de la reducción de N, el flujo se incrementa por el aumento del número de flujo Nq y para la relación D/T seleccionada en el ejemplo (0,52) se mantiene también la misma relación (Q/V),o sea iguales tiempos de circulación y mezclado por lo cual se mejoran apreciablemente todos los indicadores del escalado.
Aunque con los ejemplos analizados no se agotan todas las posibilidades, se logra una idea bastante clara del comportamiento de los diferentes parámetros en las opciones de escalado más empleadas. Quedan algunos casos específicos como es el de los tanques agitados empleados como reactores, para reacciones químicas rápidas y competitivas, en que hay que analizar tanto los fenómenos de mezclado en su conjunto (macromezclado), como el micromezclado y por ello hay que considerar otras posibilidades como son la variación de la posición y forma de la alimentación de los reactivos y el empleo de variantes con circulación externa Esto hace más complejo el escalado y requiere de una cuidadosa experimentación previa en cada caso (12).
También están los casos de los procesos muy sensitivos al flujo donde se pueden aplicar el criterio de Intensidad de Mezclado (NI) y apartarse por completo de la semejanza geométrica, utilizando los gráficos disponibles para el NI, por lo menos en los casos en que se emplean las turbinas de flujo axial (3). Se ha recomendandado además recientemente por Obot (20), el empleo de una llamada “Ley Friccional de los Estados Correspondientes” y de números reducidos de Reynolds, de Flujo y de Potencia, lo que permite seleccionar en cada caso, la relación D/T más conveniente para el escalado, corroborando lo antes planteado sobre la conveniencia de apartarse de la semejanza geométrica estricta.
La agitación se emplea en muchas ocasiones para mejorar la tranferencia de calor, mientras que en otras la transferencia de calor acompaña a otra operación de mezclado, que es la que controla la selección del mezclador y por tanto el escalado.
En los casos en que el objetivo principal es la transferencia de calor hay que distinguir entre los llamados impelentes abiertos que son los que operan a cierta distancia de las paredes del tanque, como las propelas y las turbinas y los que operan muy cercanos a la pared, normalmente con una separación de menos de un 5% del diámetro interior, como las anclas y los helicoidales.
Para el intercambio de calor en fluidos muy viscosos, se deben emplear los impelentes que funcionan muy cercanos a la pared del recipiente, ya que los impelentes abiertos (turbinas, propelas, etc) no son capaces de lograr el movimiento completo del fluido viscoso en todo el volumen del tanque y en especial en las paredes. Esto es sumamente importante cuando lo que se produce en el interior del recipientes es una reacción química entre productos muy viscosos y se necesita controlar el calor de reacción (22).
Para poder predecir la rapidez de la transferencia de calor en tanques agitados, es necesario estimar el coeficiente de transferencia de calor del lado del fluido de proceso (ho) y para ello se aplican los métodos del Análisis Dimensional, a las ecuaciones de balance de energía y flujo de calor y se obtiene:
Nu = j ( Re, Pr ) (3-18)
Esa expresión se ha desarrollado para las tres superficies de transferencia de calor más comunes en los tanques agitados: las chaquetas, los serpentines helicoidales y los tubos verticales empleados como deflectores (23). Para los tanques agitados enchaquetados se tiene:
(3-19)
Para los serpentines helicoidales:
(3.20)
En este caso el exponente m de término de corrección por viscosidad toma valores entre 0.1 y 1 y se obtiene de:
.Y para los tubos verticales:
(3-21)
En todos los casos se asume convección forzada, por lo cual es necesario asegurar que eso se cumpla y aunque se han desarrollado expresiones para determinar la velocidad mínima del agitador con la cual se asegura la convección forzada, esas relaciones empíricas tienden a ser válidas solamente para los sistemas en los cuales se desarrollaron. Por esa causa en la mayoría de los casos es necesario auxiliarse de diversos medios, entre los que se incluye la observación visual, para asegurarse de que el sistema se encuentre en convección forzada.
Para el escalado de los procesos de transferencia de calor en tanques agitados, en la mayoría de las aplicaciones en las cuales controla el flujo, lo más aconsejable es utilizar el criterio de mantener constante la potencia por unidad de volumen, ecuación (8-13), asumiendo la semejanza geométrica y de esa forma debe obtenerse aproximadamente el mismo coeficiente de transferencia de calor para el mismo tipo de impelente.
Ese método se utiliza a pesar de que se conoce que es realmente una aproximación, debido a que el efecto de la potencia en el coeficiente de transferencia de calor es realmente pequeño y por ello aún un moderado error en el escalado a P/V constante, tendrá sólo un mínimo efecto en el coeficiente de transferencia de calor del lado del agitador o mezclador.
Como punto de inicio se debe considerar el criterio de escalar con igual P/V y semejanza geométrica y calcular o estimar la potencia consumida, la velocidad y el diámetro del impelente y las razones de cizalladura, analizando posteriormente con cuidado el comportamiento de esos parámetros, de manera de poder juzgar cuan adecuada o inadecuada puede ser esa variante de escalado.
Normalmente con eso se obtiene un escalado conservador y se puede dejar así, exepto en algunos casos especiales, como son los procesos de dispersión de un gas en el seno de un líquido, donde generalmente es preferible emplear la igualdad de coeficientes de transferencia de masa o en los procesos biotecnológicos muy sensibles al esfuerzo cortante, en los cuales se debe asegurar en el escalado que no se sobrepase el esfuerzo cortante máximo permisible para el caso específico.
Si no se está en presencia de esos casos específicos, pero el análisis de los valores obtenidos con el escalado a igual P/V muestra la conveniencia de modificar los valores obtenidos en la capacidad de bombeo, tiempo de mezclado o esfuerzo cortante, puede probarse entonces con una variante que se aparte de la semejanza geométrica, principalmente en lo relacionado con la relación D/T, teniendo en cuenta que el flujo se incrementa y la velocidad disminuye cuando se incrementa la relación D/T y que la potencia P es proporcional al producto QH.
En el caso particular de un tanque agitado que va a funcionar en una planta piloto y servirá de modelo para un tanque a gran escala, debe tenerse en cuenta las diferencias que hay entre los tanques grandes y los pequeños cuando se mantiene la semejanza geométrica. El tanque pequeño tendrá siempre mayor capacidad de bombeo, menor tiempo de mezclado, mayor razón de cizalladura y menor rango de razones de cizalladura que en el tanque grande.
Un ejemplo de lo que ocurre en tanques semejantes geométricamente cuando se escala ascendentemente manteniendo constante la relación(P/V), se muestra en la figura 3-2 (21). Teniendo en cuenta estas variaciones, se recomienda apartarse de la semejanza geométrica en lo relacionado con las dimensiones del impelente y considerar en la planta piloto un impelente más estrecho, con menor relación D/T y rotando a mayor velocidad que el prototipo, de manera tal que se compensen las desviaciones y el comportamiento del tanque piloto se acerque lo más posible al prototipo.
En la tabla 5-2 se muestra un ejemplo del escalado descendente (scale-down) desde un prototipo industrial de 10 m hasta un tanque piloto de 13.6 litros, en el cual se comparan cuatro variantes de escalado: igual relación (P/V), incremento en la relación (P/V), disminución de la relación D/T y disminución de la relación (Dw/D (21).
El análisis de los resultados mostrados en la tabla, están en concordancia con las diferencias señaladas entre el prototipo y el modelo cuando se escala descendentemente manteniendo constante la relación (P/V). Cuando se prueba con un incremento de (P/V), se mejoran algo los indicadores, pero se pone de manifiesto que por esa vía no se pueden alcanzar los resultados requeridos sin grandes consumos de energía.
El cambio de las relaciones geométricas del impelente ofrece mejores resultados. Primero se prueba con la disminución de la relación (D/T)y después se reduce también la relación (Dw/D) y con
ello se logra igualar la velocidad periférica del prototipo y disminuir apreciablemente el tiempo de mezclado, sin incrementar más aún el consumo de potencia, lo que demuestra las posibilidades
de esta forma de proceder (21).
Tabla 3-2 Variantes de escalado descendente (scale-down) de un tanque con
agitación mecánica. Tomado
de Oldshue, 1969
(21), traducido y llevado al SI por el autor.
N |
Símb. |
Ind. |
Escala piloto (13.6 L) |
|||
1 |
P |
1.0 |
0.0014 |
0.0062 |
0.0062 |
0.0062 |
2 |
(P/V) |
1.0 |
1.0 |
1.6 |
1.6 |
1.6 |
3 |
N |
1.0 |
4.33 |
5.07 |
6.4 |
10.1 |
4 |
D |
1.0 |
0.11 |
1.11 |
0.097 |
0.097 |
5 |
Q |
1.0 |
0.006 |
0.007 |
0.006 |
0.004 |
6 |
(Q/V) |
1.0 |
4.3 |
5.2 |
4.3 |
2.7 |
7 |
Re |
1.0 |
0.07 |
0.08 |
0.06 |
0.09 |
8 |
(D/T) |
0.35 |
0.35 |
0.35 |
0.30 |
0.30 |
9 |
ND |
1.0 |
0.48 |
0.56 |
0.62 |
1.0 |
10 |
(Dw/D) |
1.0 |
1-0 |
1.0 |
1.0 |
0.25 |
Con relación al incremento de las relaciones (D/T) en los prototipos es necesario tener en cuenta que impelentes grandes que se mueven a bajas velocidades requieren un torque mayor para la potencia seleccionada y ésto puede hacer que el reductor requerido sea muy voluminoso y se encarezca el conjunto motriz del agitador, aunque la potencia del motor sea menor (22).
Todos estos factores deben ser sopesados cuidadosamente durante el proceso de escalado y se deben tener en cuenta, cuando se tengan disponibles, las referencias en la literatura sobre el proceso en estudio, las experienias de planta y as sugerencias del vendedor, ya que no se puede contar con reglas de escalado universales, dada la gran variedad de condiciones que pueden existir.
Otro elemento a considerar es que nornmalmente no es necesario mantener una relación (Z/T)constante en la planta piloto, pudiendose utilizar, por ejemplo, un impelente único en el eje del agitador, aún cuando en la aplicación comercial se empleen múltiples impelentes en el mismo eje, aunque existen algunos casos en que el cambio de profundidad puede causar problemas en el escalado, al variar la presión absoluta en el fondo del recipiente y afectar procesos de despojamiento de gases (22).
En general en los estudios de escalado en tanques agitados, el ingeniero debe de decidir el tipo de corridas experimentales que debe hacer, si no cuenta con suficiente información, así como la velocidad aproximada que debera emplear en las pruebas y los datos que necesita obtener de los experimentos. Cada tipo de proceso es diferente y por ello los métodos y los elementos a emplear en las corridas experimentales pueden variar mucho. No es posible relacionar una serie simple de experimentos que puedan cubrir todas las posibilidades.
En muchas ocasiones la necesidad de obtener un conocimiento detallado del proceso, lleva a convertir el equipo de mezclado de una pequeña instalación piloto en un equipo de mezclado muy ineficiente y no deberá tenerse temor de que esto ocurra, si de esa forma es posible acopiar el conocimiento suficiente sobre las características del proceso, que permita seleccionar el método de escalado más adecuado. De no hacerse ésto pudiera pasarse por alto el efecto de importantes variables durante las corridas de laboratorio y planta piloto, lo que puede provocar posteriormente que los resultados obtenidos con los tanques a gran escala difieran sensiblemente de los de pequeña escala y resulte, por lo tanto, fallido el escalado.
Se comenzará por el análisis de los procesos de una sola fase, mucho más simples y después se analizarán procesos de dos fases (gaseosa y líquida) y finalmente los más complejos, los procesos catalíticos. En cada caso es fundamental analizar la importancia relativa que los distintos fenómenos (cinética química, transferencia de masa y transferencia de calor) tienen en cada tipo de procesos y la utilidad que tienen en cada caso los principales medios y métodos empleados durante el escalado (laboratorio, planta piloto, mockups y modelos matemáticos) (29).
Se comenzará por el análisis de los procesos de una sola fase, mucho más simples y después se analizarán procesos de dos fases (gaseosa y líquida) y finalmente los más complejos, los procesos catalíticos. En cada caso es fundamental analizar la importancia relativa que los distintos fenómenos (cinética química, transferencia de masa y transferencia de calor) tienen en cada tipo de procesos y la utilidad que tienen en cada caso los principales medios y métodos empleados durante el escalado (laboratorio, planta piloto, mockups y modelos matemáticos) (29).
Para ejemplificar la aplicación de esos métodos, se analizarán un grupo de reactores de la industria de refinación de petróleo, pero de hecho los problemas a resolver son similares en los distintos tipos de procesos y las metodologías presentadas son por lo tanto aplicables igualmente a otros procesos químicos.
Los reactores de una sola fase, tanto discontinuos como continuos tubulares y continuos perfectamente agitados, presentan las menores dificultades teóricas para el escalado. En ellos no hay que considerar normalmente los problemas de transferencia de masa, sino solamente los cinéticos y los de transferencia de calor, aunque en los casos de elevadas velocidades de reacción, el mezclado de los reactivos puede complicar el escalado.
El escalado de los reactores discontinuos en la mayoría de los casos se lleva a cabo multiplicando el volumen de reacción por el factor de escala y no requiere el empleo de plantas piloto ni mockups, aunque la transferencia de calor puede ser importante en ocasiones. En esos casos hay que adecuar la capacidad de transferencia de calor del reactor escalado para que sea capaz de asimilar el calor producido por la reacción.
Cuando las reacciones son extremadamente exotérmicas, como es el caso de la polimerización, una insuficiencia en el área de intercambio de calor puede causar inestabilidad o incluso explosión, por lo cual para esos casos los datos termocinéticos deben de ser calculados con precisión en las etapas de laboratorio y banco, siendo recomendables para ello el uso de reactores calorimétricos automáticos como el RC-1 de la firma Mettler (14, 15, 33).
Figura 3.4 Reactor
calorimétrico de escala de banco (Catálogo firma Metler).
En todos los casos, aún en las reacciones más moderadas es requisito previo conocer suficientemente los datos cinéticos y termodinámicos de las reacciones involucradas y en especial los datos térmicos, para poder escalar adecuadamente la transferencia de calor.
Los problemas de escalado en este tipo de reactores son causados también por los fenómenos térmicos, en relación a la transferencia de calor que ocurre a través de la pared del tubo. En lo referente
al interior de los tubos, se debe establecer que exista el mismo patrón de flujo, con preferencia turbulento, en la planta piloto y en el prototipo.
La transferencia de calor hacia el exterior, por su parte, es a veces necesario modificarla durante el escalado, siendo un buen ejemplo de ésto los hornos para el craqueo con vapor. En los experimentos a pequeña escala se utilizan normalmente hornos eléctricos, mientras que en los hornos industriales se emplean quemadores, los cuales realizan la transferencia de calor fundamentalmente por radiación.
Esta transposición se puede realizar en base a los conocimientos modernos de transferencia de calor y solamente si es posible predecir las interacciones entre la temperatura y los cambios químicos en el sistema, dentro del reactor tubular. Para ello es esencial contar con un modelo cinético del sistema de reacción, aunque sea de una forma simplificada.
En la práctica, los fabricantes de hornos tratan de obtener la mayor transmisión de calor por unidad de área, que sea compatible con la resistencia mecánica de los materiales utilizados, lo que está normalmente en el orden de las 65 000 kcal/hr-m , para poder mantener el tiempo de residencia dentro del tubo tan corto como sea posible (p.e. 0.8s) y obtener una temperatura correcta en el fluido de reacción a su salida del reactor (820 - 880 C).
Este tipo de reactor se usa principalmente para las reacciones en fase líquida, y su escalado conlleva muy frecuentemente la transposición de los experimentos a pequeña escala realizados de forma discontinua, a reactores continuos de una sola etapa o de varias etapas agitadas en serie (10). Esta transposición es relativamente simple si se puede obtener un modelo del sistema de la reacción, durante los experimentos a pequeña escala (2, 32).
Como ejemplo podemos considerar el proceso de dimerización de olefinas, desarrollado por el Instituto Francés del Petróleo (IFP) (29), en el cual las reacciones ocurren en presencia de un catalizador del tipo homogéneo, confeccionado a partir de un compuesto de níquel, un compuesto de coordinación y un haluro de alquil aluminio, manteniéndose todos en una fase líquida homogénea. Este proceso puede ser explotado en dos variantes: iniciando con propileno para producir primero hexenos y adicionar éstos a la gasolina o iniciando con propileno y butenos para producir heptenos y octenos y emplear los mismos en la oxo-síntesis para la producción de alcoholes.
Para el desarrollo del proceso se partió de un modelo del sistema de reacciones, desarrolado a partir de los resultados de los experimentos de laboratorio con un reactor discontinuo, el cual fué la base para el escalado de las dos variantes de tipos de reactor seleccionadas para la unidad industrial: un reactor perfectamente agitado como etapa única, para la producción de hexenos y varias etapas en serie (3 ó 4) para la producción de heptenos y octenos.
En este caso fue necesaria la construcción de una pequeña planta piloto, aunque su objetivo no fué resolver los problemas de escalado propiamente dichos, sino evaluar consideraciones con respecto al catalizador, como son: remoción del catalizador a la salida del reactor; riesgos de depósitos de material catalítico en las paredes, que pueden afectar la transferencia de calor a través de las mismas y el efecto de las impurezas de la alimentación en la actividad del catalizador. La planta piloto sirvió también para producir muestras para pruebas.
Se consideran dos tipos diferentes de sistemas de reacción en dos fases fluidas, una simple pero muy rápida y otra compleja pero de moderada velocidad de reacción (29).
Este tipo de reacciones se tipifica con el proceso Claus, en el cual ocurre la siguiente reacción:
2 H²S + SO² [------L 3 S
+ H²O
Como ejemplo se tiene el desarrollo del proceso Clauspol 1500 para el lavado de los gases efluentes de una unidad Claus convencional, en el cual se empleó el principio de realizar la reacción a baja temperatura en un solvente con un catalizador disuelto. En ese caso tanto la trasnferencia gas-líquido del H²S y el SO² como la reacción entre ellos, ocurre en la fase líquida.
Los experimentos de laboratorio y banco mostraron que bajo esas condiciones la reacción se podía considerar muy rápida, de acuerdo con lo definido en la teoría de transferencia de masa en presencia de reacciones químicas (número de Hatta mayor que 3) (16) y sobre esa base se construyó un modelo matemático.
La utilización del modelo llevó a la conclusión que los parámetros claves para el escalado eran el área interfacial entre las fases líquidas y gaseosas y por ello se seleccionó una columna empacada a contracorriente, de forma de minimizar la pérdida de presión en el gas al ser limpiado.
Se construyó una pequeña unidad piloto con una columna de 10 cm de diámetro interior y un mockup de 60 cm de diámetro. Con el mockup se obtuvieron las correlaciones entre las áreas interfaciales y los flujos de gas y líquido, utilizando el método de oxidación de sulfito de sodio y se ensayaron distintos tipos de empaquetaduras. La planta piloto sirvió para resolver problemas relacionados con las corridas largas, tales como: deterioro del solvente, desactivación del catalizador, efectos de impurezas en la alimentación y resistencia a la corrosión de los materiales de construcción.
Para la construcción de la primera unidad industrial se tuvieron en cuenta los datos combinados del laboratorio, planta piloto y mockup, así como los resultados de un modelo matemático de tipo fenomenológico. La primera unidad construída tuvo un diámetro de 6 m y después de ella se han construído otras 20 unidadeds más, algunas de ellas de 10 m de diámetro.
Un ejemplo de reacciones de este tipo es la oxidación del ciclohexano para producir una mezcla de ciclohexanol y ciclohexanona. Esta reacción puede producirse inyectando aire en
una corriente de ciclohexano precalentada a 160 -170 C, pero a su vez los productos deseados pueden sufrir también oxidación, lo que limita seriamente la selectividad de la transformación del ciclohexano en la mezcla de ciclohexanol y ciclohexanona.
Se pudo comprobar por los experimentos a nivel de laboratorio, que añadiendo ácido bórico a la mezcla de reacción se mejoraba la selectividad, ya que este ácido reacciona con el ciclohexanol formando ésteres que lo protegen de la posterior oxidación. A partir de ese punto, se comenzaron una serie de experimentos discontinuos para determinar el efecto de las condiciones de operación en la conversión de ciclohexano y la selectividad.
Los resultados obtenidos confirmaron el incremento de la selectividad producido por la adición de ácido bórico y se obtuvieron datos para confeccionar las relaciones entre la selectividad y la conversión, lo que hizo posible fijar el rango de condiciones de operación en las cuales se podía alcanzar una selectividad del 90% y se estuvo en condiciones de realizar una
primera aproximación del tipo de instalación industrial que sería necesaria y comenzaron a analizarse los problemas del escalado.
Se seleccionó una columna de burbujeo con circulación del fondo al tope, como el equipo idónedo para mantener el ácido bórico en suspensión y permitir la reacción relativamente lenta en la fase líquida, ya que este proceso y no la transferencia de oxígeno, era el que limitaba la transformación deseada. También se pudo definir
que eran necesarios varios reactores de ese tipo en serie, para poder mantener la pérdida de selectividad tan baja como fuese posible, al pasar de la operación discontinua de los experimentos iniciales a la operación continua necesaria en la escala industrial.
Se construyó entonces una planta piloto continua de una sola etapa, para chequear los resultados de la operación continua y estudiar los diversos problemas inherentes a la recirculación del ciclohexano y el ácido bórico, así como la separación e hidrólisis de los ésteres formados. No se construyó la planta con los tres reactores en serie, como se anticipaba que sería la instalación industrial, por motivos económicos, pero de todas formas la información obtenida con una etapa continua, resultósuficiente par asegurar la correcta trnsposición de la operación discontinua a nivel de laboratorio y banco a la operación continua
y por etapas a nivel industrial.
Con el conocimiento alcanzado se estuvo en posibilidad de formular un modelo matemático simplificado que consideraba el proceso como el producto de dos reacciones en serie y brindaba las posibilidades para, a partir de los datos de laboratorio en instalaciones discontinuas y los de la planta piloto continua de
una sola etapa, pasar a un modelo fenomenológico más completo, capaz de proporcionar la información para pasar de una etapa continua a las tres etapas continuas en serie requeridas y con esa base se pudo construir y poner en marcha la primera unidad comercial de ese proceso sin dificultad alguna (29).
3.2.4 Escalado de
reactores catalíticos.
En los procesos catalíticos petroquímicos y de refinación, existen muchas aplicaciones de la catálisis heterogénea y varias vías de utilización de los catalizadores, como son: cama fija, cama en movimiento, cama fluidizada y suspensión. En los siguientes ejemplos se considerarán solamente los casos de cama fija y cama en movimiento 29, 30).
Reactores con cama fija de catalizador.
Las reglas de diseño de este tipo de reactores son bastante bien conocidas. Los problemas radican en hallar el tipo de equipamiento experimental de pequeña escala, adecuado para realizar las mediciones del rendimiento del catalizador y que éstas sean representativas en la escala industrial.
En el caso de la reformación catalítica, el esquema de reacción es complejo y los efectos térmicos son muy fuertes durante la primera
fase de la transformación, o sea durante la dehidrogenación de las cicloparafinas. La tecnología, en uso general desde hace más de 30
años, consiste en tres o cuatro reactores de cama fija en serie, operando adiabáticamente, precedidos por hornos para compensar la naturaleza endotérmica global del sistema reaccionante (29).
Sin embargo, los estudios sobre la efectividad de los catalizadores se desarrollan nornmalmente en unidades piloto isotérmicas, usando lotes de 300 a 400 gramos de catalizador y esto dificulta hacer las comparaciones entre esas camas experimentales de algunos centímetros y las camas industriales mucho más grandes.
Sin embargo, esa situación es aceptable en este caso debido a que la transferencia de masa en el exterior de los granos de catalizador juega un rol despreciable en la cinética global y la transposición entre la operación isotérmica a nivel piloto y la adiabática a nivel industrial puede hacerse mediante correlaciones empíricas disponibles, aunque no se dispone aún de modelos matemáticos útiles para este proceso, debido a la gran complejidad del mismo.
El tipo de reactor utilizado industrialmente para las operaciones de hidroprocesamiento (hidrodesulfurización de gasolina, fuel-oil, destilados al vacío y residuos; hidrocraqueo para producir destilados medios y gasolina; hidrorefinación de aceites lubricantes, etc) es el de cama fija y dos fases fluídas, denominado "cama de escurrimiento" (trickle bed) (Figura 3.5).
A pesar de la amplia experiencia acumulada con algunos de estos procesos, el desarrollo de nuevos procesos y variantes y la necesidad de reducir el costo de los reactores (más del 30% del costo total de una unidad), han hecho que en los últimos años se hayan realizado un considerabale trabajo de investigación y desarrollo encaminado al conocimiento del flujo de dos fases (gas y líquido), a través de camas de catalizador y que mucho aún permanezca por ser aprendido.
Entre los aspectos no suficientemente estudiados, está la caída de presión en este tipo de equipo, la que sólo se podía calcular con un amplio margen de error (+ - 100%). Para los estudios de caída de presión y patrones de flujo, se han empleado equipos de laboratorio on tubos de 10 a 15 cm de diámetros, seguidos por la utilización de mockups para estudiar los problemas distributivos de las fases a través de la sección transversal de la cama del catalizador (Figura 3,6). La distribución de las fases líquida y gaseosa debía ser tan homogénea como fuera posible, ya que la homogeneidad determina la eficiencia de la cama de catalizador y el mínimo volumen del reactor.
Figura
3,5 Reactor de escurrimiento (De Trambouze, 1990)
En los reactores piloto con un pequeño diámetro interior (unos pocos centímetros), se obtiene fácilmente una buena distribución,a pesar de que las velocidades lineales de los fluidos son considerablemente menores que en la escala industrial. A su vez esas bajas velocidades lineales pueden tener un efecto significativo en la transferencia gas-líquido en los procesos que consumen grandes cantidades de hidrógeno, como es el caso del hidrocraqueo.
Con el empleo de los mockups se pudieron determinar las velocidades lineales que debían emplearse en los equipos industriales y posteriormente se realizaron corridas en plantas
piloto con velocidades lineales lo más cercanas posibles a las obtenidas en los mockups.
Aquí es importante tener en cuenta que en los reactores piloto de pequeño diámetro interior, es fácil obtener una buena distribución a pesar que normalmente operan con velocidades de flujo
considerablemente más bajas que en los esquipos de escala industrial y esas bajas velocidades lineales pueden tener un efecto importante en la transferencia gas-líquido, en los procesos como el hidrocraqueo donde el consumo de hidrógeno es elevado.
Figura 3,6. Mockup
desarrollado para estudiar la distribución gas/líquido en el reactor de
escurrimiento (De Trambouze, 1990).
Por esa causa es conveniente realizar también corridas de planta piloto a las velocidades altas en que se operan las plantas industriales, para de esa forma poder garantizar, con los resultados conjuntos de los mockups y las plantas piloto, la obtención de las correlaciones entre el rendimiento, la selectividad y la vida del catalizador, fundamentales para el diseño de las unidades industriales.
Reactores con
cama móvil de catalizador.
Los requerimientos crecientes con relación a la cantidad y calidad de la gasolina y la producción de aromáticos, ha hecho incrementar la importancia ded los procesos de reformación catalítica y ha llevado al desarrollo de un profundo trabajo de investigación para mejorar la estabilidad del catalizador.
Este desarrollo llegó a un punto en el cual no se podían obtener mejoras sin un cambio radical de la tecnología y de ahí surgió la utilización de una cama movible de catalizador, que permite la regeneración continua o semi-continua del mismo. Después de la regeneración el catalizador entra al tope del primer reactdor, desciende por gravedad y sale por el fondo, de donde es empujado neumáticamente hacia el tope del próximo reactor y después de pasar por todos los reactores, retorna al regenerador para completar el ciclo.
Para disminuir la caída de presión a través de la cama de catalizador se adoptó una tecnología de flujo cruzado, con un reactor de la forma mostrada en la figura 3.7 (Tambouze, 1990).
Figura 3.7 Reactor de
cama móvil con flujo cruzado (De Trambouze, 1990).
El trabajo requerido para el desarrollo de una unidad de proceso basada en esa tecnología incluyó (29, 30):
-Mejora de la resistencia mecánica de los catalizadores sin detrimento de la calidad de los mismos.
-Optimización de las condiciones de operación para mejorar el rendimiento de la regeneración.
-Estudio de la transferencia neumática del catalizador.
-Detallar el diseño de los reactores de cama movil.
-Diseñar válvulas aislantes de catalizador que fuesen herméticas al hidrógeno.
Los primeros dos objetivos se investigaron en unidades piloto de reformación construídas al efecto, las tres últimas requirieron del uso de mockups y en el caso particular del último de los objetivos, las investigaciones culminaron con pruebas a gran escala bajo condiciones reales de operación.
En particular nel diseño detallado del reactor conllevó un estudio detallado de las interacciones gas-sólido y para ello se dieron los pasos siguientes:
-Empleo de una pequeña unidad de laboratorio de unos pocos centímetros de tamaño para mostrar los efectos tales como el amasado del catalizador contra los tamices en la salida del gas.
-Un mockup rectangular capaz de cargar hasta 350 L de catalizador, para un estudio preliminar de la relación entre el espesor de la cama compactada y la caída de presión en la fse
gaseosa.
-Un mockup del tamaño y forma del reactor industrial planeado, aunque limitado a sólo un sector del cilindro para reducir los volúmenes de catalizador y de gas a recircular y con una de las caras hechas de Plexiglas de forma que se pudiera observar el flujo de sólidos mediantes técnicas de trazado. El volumen de sólido total en ese mockup era de 2.5 m (Figura 3.8).
En el trabajo con los mockups, se emplearon como fase sólida los mismos gránulos que sirven de soporte al catalizador, la fase gaseosa fué el aire y las condiciones de operación fueron la temperatura y presión ambientales. De esa forma, gracias a una serie de mediciones y modificaciones hechas en el mockup grande, a muy bajo costo, fué posible definir la forma del reactor industrial y los valores máximos de flujos y caídas de presión.
Finalmente, combinando los resultados de las plantas piloto para las condiciones de operación del reactor y del regenerador con los resultados de los mockups sobre los problemas de transporte de sólidos e interacción gas-sólido, se estuvo en
Figura
3.6 Variante de mockup utilizado para el estudio del comportamiento del reactor
catalítico (De Trambouze, 1990).
condiciones de diseñar y construir la primera unidad con esta tecnología, a una escala modesta primero (1/10 de las plantas industriales comunes) y a la escala normal después, convirtiéndose en una tecnología aceptada a nivel mundial y en franco desarrollo.
3.2.5 Consideraciones
generales.
Del análisis de los ejemplos analizados en su conjunto, comparando la importancia relativa de los distintos fenómenos, tanto cinéticos como de transferencia de calor y masa, así como los medios y métodos empleados para su estudio en cada uno de los ejemplos analizados, se puede tener una idea cabal de la complejidad del escalado de los reactores químicos y de la importancia del uso creador y combinado de las distintas herramientas existentes.
En particular resultan muy útiles para este tipo de escalado el empleo de los mockups. También se comprueba el hecho de que en la mayoría de las ocasiones el problema real radica más bien en un proceso de escalado descendente (scale down) que en un escalado ascendente (scale up), ya que en todos los casos se debe prever el tipo final de reactor industrial que se debe emplear y la isntalación piloto y mockups se diseñan para resolver los problemas de diseño de la misma.
Además, la construcción de un modelo matermático es
ciertamente la herramienta más efectiva para un escalado exitoso. Ahora bien,
por modelo matemático no necesariamente se entiende un gran conjunto de
ecuaciones albegraicas o diferenciales o de derivadas parciales, aunque en
ocasiones estos métodos pueden ser necesarios y por lo tanto se justifica su
uso. Siempre debe recordarse que mientras más complejo sea el modelo, más datos
experimentales se requieren para probarlo. Es por ello que en la mayor parte de
los casos un modelo simple puede ser
suficiente, aunque la simplificación no significa ignorar las teorías
probadas.
En resumen, el uso simultáneo de todos los recursos disponibles (laboratorio, plantas pilotos, mockups y modelos matemáticos) es muy importante y eso se ha podido comprobar en los ejemplos analizados en este capítulo.
Finalmente hay que tener en cuenta que los procedimientos de escalado, son con mucha frecuencia, compromisos técnicos y, principalmente, económicos. Nunca en el proceso de desarrollo es posible alcanzar una definición perfecta de lo que será el proceso industrial definitivo y de hecho, limitado por las fechas topes de culminación de los proyectos y otras consideraciones técnico económicas, se deben correr siempre riesgos calculados en la construcción de la primera planta industrial. Esos riesgos deben ser balanceados en términos de su posible repercusión financiera y comparado con las sumas adicionales que habría que gastar para incrementar el conocimiento del proceso en desarrollo,.
En determinado momento esto puede llevar a la decisión de construir una planta semi-industrial, cuando la complejidad y los riesgos previsibles lo hagan asimilable, debido al alto costo y el incremento en el plazo total de tiempo para el desarrollo del proceso que significa una planta de este tipo (Trambouze, 1990).
CAPÍTULO 4
El único hecho incontrovertido acerca del Escalado de los Procesos Biotecnológicos en general y de los Bioreactores en particular , es que es una de las tareas más complejas en el campo de la Ingeniería Bioquímica, que constituye un empeño retador para los especialistas de la rama. Teniendo en cuenta la enorme complejidad de esta tarea, resulta conveniente dividirla en dos problemas básicos (Figura 4.1), ( Reuss, 1993):
Figura 4.2 Problemas
básicos para el
escalado de un Bioreactor (De Reusss,
1993).
1. Problemas asociados con el diseño de un fermentador o de una planta de producción, en los cuales se asume que el diseñador tiene la flexibilidad de seleccionar o desarrollar un sistema que cumpla con los requerimientos del proceso.
2. Problemas asociados con el diseño de las condiciones de proceso que son compatibles con un fermentador industrial existente. Este tipo de problemas resulta muy común en la práctica industrial, particularmente cuando se deben producir muchos productos diferentes y a veces no relacionados entre sí, en una instalación limitada.
Ambos tipos de problemas tienen sus especificidades y no es posible hallar herramientas que sean útiles a ambos por igual. Por esa causa, las reglas aceptadas generalmente para el proceso de escalado deben ser consideradas siempre con precaución y debe tenerse en cuenta que el éxito de un proceso de escalado depende mucho de la extensión en que se semejan entre sí las características del sistema en cuestión. Por ejemplo, las condiciones existentes en la escala pequeña permiten considerar casi siempre un estado de mezcla perfecta, lo cual es casi imposible de asegurar en la escala mayor, por limitaciones prácticas existentes. Por esa causa no es necesario ni conveniente tratar de duplicar las condiciones óptimas obtenidas en la escala de banco a una escala mayor.
Producto de que sólo muy raramente se pueden reproducir en las plantas comerciales a gran escala las condiciones óptimas halladas previamente en las escalas de banco y piloto, resulta crucial encontrar estrategias que cubran el rango completo de las variables claves y es imperativo que los experimentos en la escala pequeña no se concentren en encontrar un óptimo que puede ser incongruente con las condiciones de una planta de producción.
Para sobreponerse a esas deficiencias resulta útil pensar en la instalación piloto como un satélite permanente de la planta de producción y coordinar iterativamente el proceso de escalado ascendente y descendente (Aiba et al, 1973; Reuss, 1993). No obstante, si bien este enfoque puede resultar adecuado para un proceso particular, el concepto permanece empírico y no puede compensar la necesidad de desarrollar estrategias racionales basadas en una mejor comprensión de los fundamentos del proceso.
En este epígrafe se considerarán las principales etapas en que convencinalmente se ha dividido el proceso de Investigación y Desarrollo (Capítulo 1): laboratorio, banco, y piloto.
4.2.1 Etapa de
laboratorio.
En la mayoría de las ocasiones (microorganismos y células vegetales) se utilizan los denominados frascos agitados (shake flasks), los cuales se colocan en equipos agitadores rotatorios orbitales, generalmente con posibilidades de control de la temperatura a la cual se produce el proceso y, para el caso de las células vegetales con posibilidades también de control de la iluminación (Figura 4.2).
Para el caso específico de las células de mamíferos, generalmente se emplea en esta escala un equipamiento algo diferente. Por ejemplo en lugar de los frascos agitados se emplean las botellas rotatorias (roller bottles), también soportadas por un sistema para su agitación.(Figura 4.3)
Figura 4.2 Agitador
rotatorio orbital con control de temperatura para la etapa de laboratorio
(Catálogo Bioblokc).
Figura 4.3 Agitador
rotatorio para botellas giratorias (Catálogo de Bioblock).
En el caso de las células de mamíferos, en ocasiones se utilizan también otros equipos, los denominados cestos giratorios (spinner baskets), cuando se trata de células en suspensión y el equipo toma la forma mostrada en la figura 4.4.
También se tiene el caso de las células que crecen sobre microportadores y en esos casos se utiliza la agitación en frascos de laboratorio, para lo cual existen diversas variantes (Figura 4.6)
Figura 4.5 Mini
reactor de laboratorio para células inmovilizadas (Catálogo New Brunswick).
Figura 4.6 Variantes
de bioreactores de laboratorio para células creciendo sobre micrportadores.
En todos los casos las tareas principales simpre son las mismas (Capítulo 1): Seleccionar las cepas adecuadas y optimizar el medio de cultivo, así como definir las condiciones óptimas de pH, temperatura, iluminación, etc.
4.2.2 Escala de banco.
En esta escala el equipamiento a utilizar comienza a tomar las características de los equipos industriales, aunque aún predomina el vidrio como elemento fundamental de construcción. Los fermentadores a emplear en esta escala son siempre autoclaveables y, cuando el tamaño es pequeño (1 a 2 L) generalmente tienen un tope de acero inoxidable y el resto del cuerpo de vidrio (Figura 4.7).
Cuando el volumen es mayor (de 5 a 10L por ejemplo), entonces tanto el fondo como el tope son de acero inoxidable, aunque se mantienen sus características de autoclaveables. Existen variantes con agitación por el fondo (Figura 4.8) y con agitación por el tope (figura 4.9).
Figura 4.7 Fernentador de escala de banco de pequeño volumen (1 a 2 L) (Catálogo Biolafitte).
Figura 4.8
Fermentador de banco con fondo y tope de inoxidable, agitado por el fondo
(Catálogo Bio Lafitte).
Figura 4.9
Fermentador escala de banco,
con fondo y tope de
inoxidable, agitado
por el tope (Catálogo
new Brunswick).
Cuando se trata de células animales, sólo se cambia el tipo de impelente, utilizándose generalmente el tipo de propela y se prefiere también el fondo redondeado en lugar de recto, por consideraciones hidrodinámicas. En general se ha comprobado que las células de mamíferos no son tan susceptibles como se pensaba al esfuerzo cortante (Chisti et al, 1994).
También se tienen consideraciones con relación al proceso de aireación, para lo cual en ocasiones se utilizan dispersores convencionales, pero en la mayoría se emplea la aireación superficial o con diospersores de diseño especial. En la Figura 4.10 se muestra un diseño de impelente aireador especial para cultivos celulares.
También las conecciones para el suministro de gases cambia en algo ya que, sobre todo en los cultivos vegetales, se hace necesario en muchas ocasiones adicionar CDO2 y otros gases, como se muestra en Figura 4.11.
Figura 4.10 Sistema de aireación es-
pecial para cultivos
celulares (De
Beck et al, 1987).
Figura 4.11.
Fermentador para cultivos celulares con adición de varios tipos de
gases (De Beck et al, 1987).
En todos los casos las tareas principales a desarrollar son las mismas (Capítulo 1): Seleccionar el procedimiento d edesarrollo de inóculos, esterilización del medio, aireación y agitación; Determinación de los modelos cinéticos del proceso y sus coeficientes específicos ; Realizar ajustes de variables como la razón de transferencia de oxígeno, la evolución de dióxido de carabono, producción de biomasa, biosíntesis de metabolitos y efectos de pH; Estudio del régimen de allimentación continua o incrementada; Selección de alternativas de control e instrumentación y Realización de la evaluación económica preliminar del proceso.
4.2.3 Escala piloto
El tamaño de los equipos a emplear en esta escala, depende mucho del tamaño final de la unidad de producción industrial. Cuando la producción final es a pequeña escala, como en el caso de la producción de anticuerpos monoclonales a partir de células de mamíferos, un equipo de 500 litros es prácticamente de escala industrial, por lo cual la escala piloto puede ser muy reducida.
En general los fermentadores en esta escala son esterilizables in situ, y son alimentados con materias primas industriales, a diferencia de la escala de banco, donde se emplea en la mayoría de los casos, reactivos de laboratorio y se destacan por la posibilidad de obtener cantidades apreciables de producto, en condiciones similares a las industriales, con las cuales se pueden hacer las pruebas de mercado y las pruebas clínicas, en el caso de los medicamentos.
Se consideran en la escala piloto, fermentadores a partir de 20 L, generalmente construídos totalmente de acero inoxidable (Figura 4.12). En el caso de la producción de anticuerpos monoclonales, por otra parte, la pequeña escala de producción hace que se puedan considerar instalaciones piloto,
Figura 4.12 Fermentadores de escala
piloto y semi
industrial (Catálogo Bio-
lafitte).
equipos de tamaño bastante reducido (Figura 4.13), pero en todos los casos el requisito fundamental es que puedan obtenerse cantides apreciables de producto que permitan realizar las pruebas necesarias y aseguren que no se tendrán cambios en las especificaciones de calidad cuando se pase a la escala industrial.
Figura 4.13. Mini
Planta Piloto para la producción de anticuerpos monoclonales (Catálogo New
Brunswick).
De acuerdo a lo analizado anteriormente, es necesario que durante el proceso de escalado se logre alcanzar en el bioreactor de escala industrial un ambiente fisiológico e hidrodinámico tan similar como sea posible, al establecido en los equipos de escala de banco o piloto. Las soluciones de ingeniería para ese problema incluyen mantener la semejanza geométrica siempre que sea posible y además mantener constante un criterio dado, tales como la potencia por unidad de volumen, el coeficiente volumétrico de transferencia de masa ,
el tiempo de circulación, etc. (Tabla 4.1) (Reuss y Bajpai, 1993).
La lógica que respalda estos criterios se basa en que preservar uno de estos criterios significa mantener la constancia de las características correspondientes del ambiente extracelular en las diferentes escalas. Por lo cual, si esa propiedad ambiental es una de las que más críticamente influencian la deseada productividad microbiana, se obtiene por consiguiente un escalado exitoso y en la realidad un número de sistemas microbianos están en acuerdo con esas técnicas y permiten una operación en la escala industrial razonablemente de acuerdo con la establecida en las escalas de banco y piloto.
Sin embargo, es fácil de apreciar que esos criterios son mutuamente exclusivos y, por consiguiente, no permiten una replicación exacta de la semejanza ambiental en dos escalas diferentes cualesquiera. Bajo tales circunstancias, el comportamiento de los microorganismos en diferentes fermentadores permence incierto. De hecho el uso de propiedades volumétricas como criterio de escalado, demanda una garantía de uniformidad de propiedades a través del sistema, algo que puede resultar imposible, incluso en un bioreactor pequeño (Reuss y Bajpai, 1993).
Tabla 4.1 Criterios más empleados para el escalado de Bioreactores tipo tanque agitado (Tomado de Reuss, 1993).
Coeficiente volumétrico de transferencia de O2 |
kLaL |
Consumo de Potencia por unidad de volumen |
P/VL |
Velocidad en la punta del Impelente |
NDi |
Velocidad de agitación |
N |
Tiempo de mezclado terminal |
Los bioreactores se caracterizan por las interacciones complejas entre los fenómenos de transporte y la cinética microbiana y esto determina su rendimiento. Sin embargo, mientras la cinética microbiana no es dependiente de la escala, los procesos de transporte si lo son. Como resultado los problemas de escalado pueden asociarse a las actividades críticas en el dominio de los procesos de transporte y la identificación de esas actividades críticas se puede llevar a cabo comparando las diferentes constantes de tiempo, como se muestra en la Tabla 4.2. Un análisis de ese tipo lleva a la conclusión de que en diversos bioprocesos la distribución de masa y/o energía es frecuentemente la actividad crítica que afecta el ambiente extracelular en un bioreactor.
No obstante, el hecho de que la determinación de las constantes de tiempo requiere el empleo de correlaciones empíricas, como las de determinación del coeficiente kLaL, el éxito de estos análisis depende mucho de la calidad de las correlaciones utilizadas, lo cual en muchos casos es cuestionable (Reuss, 1993). Por esta causa, en la práctica, a pesar de las limitaciones antes señaladas, el empleo de una de las técnicas mostradas en la Tabla 6.1sigue siendo hasta ahora la variante más empleada en los procesos de escalado de bioreactores.
Como comparación, a continuación se presentan las constantes de tiempo de los procesos cinéticos que ocurren en un bioreactor (Tabla 4.3)
En ese caso, el proceso de escalado conlleva los siguientes requerimientos:
1. Selección de un índice de rendimiento
2. Elección de una ecuación apropiada para estimar las condiciones de operación y garantizar mantener la propiedad seleccionada en escalas diferentes
3. Estimar las consecuencias de este proceso en otras variables claves, con la ayuda de ecuaciones de translación adecuadas
Obviamente esto
no es un enfoque directo sino más bien un proceso iterativo, para el cual es
prerrequisito un investigador con un buen sentido de la naturaleza física de
los procesos involucrados y experiencia de laboratoria. De particular
importancia es realizar a intervalos, durante el proceso de escalado ascendente,
algunos experimentos de escalado
descendente que permitan chequear la influencia de los diversos efectos
interdependientes (Reuss, 1993). También es importante tener claro, como se ha
señalado anteriormente que las
correlaciones requeridas casi nunca están disponibles o no son del todo
confiables.
Tabla 4.2 Constantes
de tiempo para diferentes procesos relacionados con los fenómenos de
transporte que ocurren en un bioreactor
industrial (fermentación ácido
glucónico) Tomado de Reuss y Bajpai, 1993.
Procesos |
Ecuación |
Constante de tiempo |
Transf. masa gas-líquido |
|
5.5 - 11.2 |
Tiempo de circulación |
|
12.3 |
Tiempo residencia del gas |
|
20.6 |
Transferencia de calor |
|
330 - 650 |
Se
considerará primero lo relacionado con
el volumen de aire a introducir en el fermentador, aspecto que no
ha sido suficientemente
analizado en las investigaciones sobre el escalado de los fermentadores tipo
tanque agitado, al haberse priorizado en la mayoría de las ocasiones las
consideraciones con respecto a los agitadores. Esa menor atención ha hecho que
las recomendaciones hayan sido
con frecuencia, imprecisas o no satisfactorias.
Tabla 64.3 Constantes de tiempo de los procesos cinéticos en un bioreactor. (Tomado de Reuss y Bajpai, 1993).
Consumo de oxígeno |
|
0.7 - 16 |
Utilización de sustrato |
|
5.5E+4 |
Creciminto de biomasa |
|
1.2E+4 |
Producción de calor |
|
350 |
4.3.1 Escalado del
flujo de aire.
La recomendación de mantener constante el flujo por unidad de volumen, expresada generalmente por el término v.v.m. (Volumen de aire por volumen de fermentador por minuto), es muy citada en la literatura sobre fermentadores (Aiba et al, 1973; Russell, 1987). También es bastante utilizado el criterio de mantener constante la velocidad superficial, que es la velocidad resultante de dividir el flujo total de aire introducido al fermentador entre el área de su sección transversal.
El criterio de mantener constante las v.v.m. ha sido recomendado especialmente para el escalado ascendente (scale-up), a partir de fermentadores de banco y para saltos moderados de escala y produce como resultado, cuando se usa en el sentido ascendente, un resultado muy conservador. Esto significa que se obtiene con el mismo un valor de flujo de aire muy superior al requerido realmente, lo que trae como resultado mayor gasto energético, mayor posibilidad de formación de espuma y posibilidades de daño a los microorganismos por el esfuerzo cortante. Por otra parte, el criterio de mantener constante la velocidad superficial, es particularmente útil para el escalado descendente (scale-down) a partir de fermentadores industriales y en ese caso brinda también resultados conservadores. En ambos casos, el resultado que se obtiene cuando el escalado se hace en el sentido contrario al que se recomienda (descendente en el caso de las vvm y ascendente en el de la velocidad superficial) es un flujo de aire inferior al requerido realmente, lo cual impide obtener el resultado previsto en el escalado.
Por esa causa, como alternativa preferente se tiene el método recomendado por Aiba (1970), basado en el criterio de mantener constante el coeficiente de transferencia de masa, desarrollado inicialmente para los casos en que no existe agitación mecánica y por tanto la transferencia de masa se produce por la acción de las burbujas de aire que salen del distribuidor (sparger). Este método se ha comprobado que puede ser también utilizado como una buena aproximación para el escalado en los fermentadores del tipo tanque agitado, con resultados superiores a los que se alcanzan con los métodos de igual vvm y de igual velocidad superficial.
En este criterio de igualdad del coeficiente de transferencia de masa se aplica la siguiente ecuación:
(4.1)
En esta expresión (Q/V) significa flujo por unidad de volumen y tiene el mismo sentido práctico que el término v.v.m., pudiéndose expresar en las misma forma, o sea en volúmenes de aire por volumen útil de líquido en el fermentador, por minuto, aunque según las recomendaciones del SI debe expresarse preferentemente en m3 de aire por m 3 de líquido por segundo.
4.3.2. Escalado del régimen de funcionamiento de los agitadores.
En este caso son válidos la mayor parte de los
elementos planteados en el Epígrafe 3.1 de
este curso (Escalado de Tanques con agitación mecánica), a lo cual se le
añadirán los elementos específicos de esta industria.
-Igual potencia por unidad de volumen.
Este criterio, que es el más empleado para el escalado con tanques agitados mecánicamente, se ha empleado también muy ampliamente en las fermentaciones, sobre todo en muchos casos de producción de antibióticos. Por ejemplo Aiba (1970), muestras dos ejemplos de correlación de (P/V) versus Productividad. (Figuras 4.14 y 4.15)
Figura 4.14 Efecto de
diferentes valores de consumo de Potencia en el rendimiento de la producción de
penicilina con diferentes condiciones de fermentación (De Aiba et al, 1970)
En uno de ellos el título de la penicilina a las 108 horas se graficó contra la relación (P/V), en dos fermentadores con una relación de escala volumétrica de 1:10 y con una velocidad superficial en el equipo mayor aproximadamente igual al doble del fermentador pequeño, para diferentes condiciones de operación, y se comprobó que para potencias menores de 0.75 kW/m el rendimiento de penicilina decae bruscamente. Sin embargo, por encima de 1.4 kW/m el rendimiento se mantiene aproximadamente constante por lo cual,el escalado con (P/V) constante resultó aceptable, al menos en el rango de esa experiencia.
La otra experiencia se realizó con la producción del antibiótico noviocina y se graficó el contenido del antibiótico a las 115 horas de fermentación, para diferentes relaciones (P/V) y para impelentes de diferente diámetro. Se obtuvieron curvas aproximadamente paralelas unas a otras y, al contrario de lo que debía esperarse, el rendimiento mayor a igualdad de (P/V) se obtuvo con el impelente de menor diámetro, en lo cual deben haber influído las características específicas del medio. No obstante, en todos los casos se cumplió que los valores de (P/V) superiores a 1.1 kW/m produjeron los mejores resultados.
Figura 4.15. Efecto del consumo de po-
tencia en el
rendimiento de noviocina
en fermentadores con
impelentes de
diferente tamaño (De
Aiba et al, 1970).
La expresión que se aplica para este criterio es la siguiente:
(4.2)
en la cual N representa la velocidad del impelente y L una dimensión característica que generalmente se toma como el diámetro del tanque. El supraíndice ' representa las condiciones del equipo a mayor escala (prototipo), mientras que las dimensiones sin supraíndice son las del equipo de menor escala (modelo). También se dispone de una expresión matemática de este criterio de escalado para los casos en que el proceso de escalado se realice sin que exista semejanza geométrica plena, siempre y cuando se conozcan las relaciones entre las dimensiones principales de ambos equipos ( Rodríguez et al., 1995).
Sin embargo, experiencias recientes demuestran que en la mayoría de las fermentaciones la potencia necesaria decrece con el incremento del volumen del fermentador, aproximadamente de la forma siguiente (Chisti y Moo-Yuoung, 1991):
(4.3)
en la cual PG representa la potencia que consume el agitador, cuando se pasa un flujo de aire a través del mismo y VL el volumen efectivo de caldo en el fermentador.
Eso significa que mantener (PG/VL) constante en el escalado no debe resultar un enfoque energéticamente eficiente. Además, en esa variante de escalado, la velocidad periférica del impelente se incrementa bastante y con ella el esfuerzo cortante al que se somete al caldo, lo que puede resultar desfavorable para muchas fermentaciones
-Igual esfuerzo cortante máximo.
Existen muchas fermentaciones sensibles al esfuerzo cortante, en las cuales no hay más opción que mantener constante en el escalado la velocidad periférica del impelente o al menos cuidar que su incremento no sobrepase un cierto valor crítico, por lo cual esta variante sería la adecuada, a pesar de que el coeficiente de transferencia de masa en el prototipo se reduce considerablemente (Tabla 4.4) y eso puede traer complicaciones en el escalado.
En este caso, para mantener la misma razón de cizalladura se considera suficiente mantener constante la velocidad periférica del impelente, o lo que es igual, mantener constante el producto (NL), por lo cual, despejando se obtiene:
(4.4)
Se conoce por ejemplo que algunas fermentaciones miceliares presentan esporulación temprana, rotura de micelios y bajos rendimientos si el esfuerzo cortante es excesivo, pero se consideran permisibles velocidades periféricas de 0.25 a 0.5 ms-1.
-Igual coeficiente de transferencia de masa.
Este criterio es el más aceptado para el escalado de los fermentadores de este tipo y permite asegurar igual productividad en el modelo y en el prototipo, siempre y cuando no se modifique la fuerza impulsora, o sea el gradiente de concentración (Aiba et al., 1970; Rolz y de Cabrera, 1976; Chisti y Moo-Young, 1991). La expresión que se recomienda emplear para este método es una modificación, realizada por González en 1995, de la ecuación recomendada por Rosabal (1988), a partir del desarrollo hecho por Aiba et al. (1970),:
(4.5)
en la cual UG es la velocidad superficial del gas, a través del área de la sección tansversal del fermentador.
El otro elemento a tener en cuenta en este método de escalado es cuál expresión se debe de utilizar para calcular el valor del coeficiente de transferencia, cuando esto es necesario, por ejemplo, cuando se necesita trabajar un fermentador a un valor preestablecido del coeficiente de transferncia. Sin embargo esto no es frecuente y en la práctica lo más común es conocer a qué niveles de aireación y agaitación debe operarse un fermentador a una escala mayor (o menor), conocidos los valores de esos parámetros en la escala de referencia. En esos casos, resulta suficiente con aplicar la ecuación de escalado 4.5.
El cálculo del valor del coeficiente de trasnferencia puede ser necesario en el comienzo de la etapa de banco, por ejemplo, cuando se quiere tener un punto de referencia para el inicio del Diseño Experimental que se requiere. En ese caso resultan de utilidad las correlaciones mostradas por Aiba (1970) , en las que se compara, por ejemplo, el rendimiento de levadura panadera para difernts números de oxidación de sulfito (Figura 4.16)
y se obtiene que a partir de un valor de sulfito de 150 mm O2 /L/h el rendimiento no se afecta apreciablemente, con independencia del tipo de fermentador y sistema de aireación.
Figura 4.16 Efecto del número de oxidación del sulfito en el rendimiento de la levadura panadera (De Aita et al., 1970).
Se presenta también el rendimiento de la producción de estreptomicina (Figura 4.17) y el de penicilina (4.18) versus el valor del número de oxidación del sulfito y el comportamiento es similar, aunque para valores mucho más elevados del número de oxidación de sulfito, expresados en esos casos el número de oxidación del sulfito como Kvp, o sea el producto del coeficiente volumétrico de transferencia de masa por la presión media del aire de entrada, para poder corregir el efecto que tiene la presión hidrodtática en los grandes fermentadores utilizados normalmente para la producción de antibióticos.
Figura 4.17
Productividad de estreptomicina versus Kvp (De Karow et al, 1953).
Figura 4.18
Productividad de penicilian versus Kvp (De Karow et al., 1953)
Sin embargo el hongo Ustilago zeae,productor del ácido ustilágico, si bien se comporta cualitativamente igual, presenta la constancia del rendimiebnto a partir de valores del número de oxidación de sulfito más bajos, muy semejantes a los de la levadura panadera.
Figura 4.19 Efecto del número de sulfito en la producción de ácido ustilágico (De Aib a et al, 1970).
También se han encontrado casos cuyo comportamiento no es exactamente igual, como es el caso de la producción bacteriana de vitamina B12 en la cual se comprobó un decrecimiento del rendimiento después de alcanzado un óptimo, lo que puede deberse a la ocurrencia de daños a los micrsoorganismos en los caldos de fermentación altamente turbulentos. El valor del número de oxidación de sulfito equivalente al óptimo, fué sin embargo similar (250 mm O2/L/h ) al obtenido para las levaduras (150 mm O2/L/h ) e inferior al de la producción de antibióticos (500- 600 mm O2/L/h ).
Teniendo en cuenta esta información, se pueden comenzar las corridas experimentales de levaduras, hongos y bacterias con el valor del número de oxidación de sulfito recomendado, pero para esto se requiere contar con las correlaciones adecuadas, lo cual ofrece un grado de dificultad adicional. No obstante, para cumplir con el objetivo de hallar un valor inicial para la experimentación, puede aplicarse la correlación original propuesta por Cooper (1944) o algunas de sus modificaciones posteriors (Reuss, 1993), teniendo en cuenta sus imprecisiones.
También puede hacerse uso de correlaciones más recientes, como las que se prssentan en el trabajo de Reuuss (1993).
-Igual
tiempo de mezclado.
Se ha demostrado que la capacidad de bombeo por unidad de volumen (Q/V) es una buena indicación del tiempo de circulación de una partícula en un tanque pequeño (hasta 200 litros aproximadamente) y que es mayor que Q/V en un tanque grande (hasta unos 4 m ). A su vez el tiempo de mezclado es en general proporcional al tiempo de circulación, aunque esta relación no está totalmente clara, ya que hay ocasiones en que el fluido recorre trayectorias en un tanque sin que se produzca apenas mezcla con el resto del fluido en el recipiente (22). No obstante, normalmente se acepta la relación entre el tiempo de circulación, el tiempo de mezclado y la capacidad de bombeo por unidad de volumen (Q/V) y por ello se toma como indicador de la igualdad de tiempos de circulación y de mezclado, la igualdad de la relación (Q/V).
Además de esto se tienen algunas correlaciones para el tiempo de mezclado, como la desarrollada por Norwoof et. al, y citada por Aiba, en la cual se define un factor de tiempo de mezclado (m) y se correlaciona contra el Reynolds, para un impelente del tipo turbina normalizada de hojas planas. Se obtiene un gráfico de la siguiente forma:
Figura 4.20 Efecto de la dimensión del impelente, y
su velocidad y las propieda-
des físicas del
líquido en el tiempo de
mezcla caractrístico
para turbinas de
hojas planas (De Aiba
et al, 1970).
La nomenclatura utilizada en la figura es la siguiente:
t: = tiempo de mezcla, s
Dt =diámetro del impelente, m
g = aceleración de la gravedad, m/s2
Hl = altura del líquido, m
n = velocidad de rotación del impelente, sec-1
= densidad del líquido, kg/m3
= viscosidad del líquido, kg/m s
Existen otras correlaciones en la literatura para otros tipos de impelentes, aunque la mayoría son válidas sólo para fluidos Newtonianos. Es interesante notar de esta curva que semeja en parte a la del Número de Potencia vs. Re y para altos valores de Re se obtiene un m constante e igual a 6, de forma similar a lo que ocurre con el Np.
Aplicando esta correlación se puede obtener información de la variación del tiempo de mezcla con las dimensiones geométricas del fermentador y la agitación, obteniéndose los resultados que se muestran en la tabla 4.3.
Tabla 4.3 Valores del
tiempo de mezclado, t para diferentes
velocidades del impelente en
recipientes de 5 y 40 000 L en la región turbulenta (De Aiba et al.,
1970).
. |
Tiempo de mezclado, s |
||
N (rpm) |
3 L |
40 000 L |
|
30 |
40 |
66 |
|
60 |
35 |
41 |
|
120 |
16 |
26 |
|
300 |
9 |
14 |
|
750 |
5 |
8 |
|
No obstante se considera más práctica aplicar el criterio antes mencionado de mantener constante la relación
Con esta base, la ecuación para el criterio de igualdad del tiempo de mezclado, cuando los equipos a escalar son semejantes geométricamente se reduce a la expresión (González, 1995) :
N' = N (6.6)
-Comparación entre las distintas alternativas:
En el epígrafe 3.1 se presentó la comparación los resultados obtenidos cuando se aplican los distintos criterios de escalado al proceso de escalado ascendente desde un fermentador tipo tanque agitado de escala piloto (20 L) hasta un fermentador industrial de 2500 L. En este caso se añade la consideración del escalado del aire,. para el cual se aplica la ecuación 4.1 y la existencia de semejanza geométrica entre ambos tanques (González, 1996), aunque en el último caso se ha probado el efecto de varias la relación D/T, lo que resulta ventajoso en muchas ocasiones.
Del análisis de los resultados se corrobora el planteamiento hecho al inicio del Capítulo,que es fácil de apreciar que estos criterios son mutuamente exclusivos y, por consiguiente, no permiten una replicación exacta de la semejanza ambiental en dos escalas diferentes cualesquiera, por lo cual debe hacerse un análisis cuidadoso acerca de cuál debe ser el criterio a aplicar. En la práctica, sobre todo en las fermentaciones de levaduras y bacterias, se obtienen muy buenos resultados empleando el criterio de mantener constante el coeficiente volumétrico de transferencia de oxígeno ( kLaL), por lo cual este resulta el método recomendado para este tipo de fermentaciones. El criterio de igual potencia por unidad de volumen también ha demostrado su utilidad, sobre todo en las fermentaciones para la producción de antibióticos, por lo cual resulta un criterio a ser considerado.
El criterio de mantener constante la razón de cizalladura debe emplearse solamente en los casos en que el microorganismo resulte muy sensible a este parámetro y siempre y cuando el rango de cambio de escala propuesto pueda afectarlo apreciablemente. En esos casos debe tratarse, siempre que sea posible,de apartarse de la semejanza geométrica y utilizar en la instalación industrial un impelente más grande que en la piloto (Oldshue, 1983 ), con lo cual se puede obtener resultados muy favorables.
El criterio de igual potencia por unidad de volumen tiene como dificultad el incremento de la razón de cizalladura y del tiempo de mezclado, cuando la relación de escalado es alta. lo que se puede apreciar en la siguiente tabla.
Tabla 4.4 Variación del tiempo de mezclado
con el escalado ascendente, manteniendo P/V constante (De Aiba et al., 1970).
Factor de escala V2/V1 |
Factor de escala Dt2/Dt1 |
Relación (t2/t1) |
8 000 |
20 |
6.3 |
1 000 |
10 |
4.1 |
125 |
5 |
2.7 |
64 |
4 |
2.4 |
27 |
3 |
2.0 |
8 |
2 |
1.5 |
De la misma se aprecia que si una
fermentación puede escalarse adecuadamente desde 5 hasta 40 000 L es que la
misma no es muy sensitivo al incremento del esfuerzo cortante y del tiempo de
mezclado que este tipo de escalado conlleva.
En resumen puede considerarse como el
método preferente el de igual coeficiente de transferencia de masa, exepto para
los casos en que existan limitaciones con otros aspectos como el esfuerzo
cortante o el tiempo de mezclado mm O2/L/h
.
El proceso completo de Escalado, desde el laboratorio hasta la industria, resulta generalmente largo y costoso, por lo cual resulta conveniente optimizar dicho proceso para llevarlo a su mínima duración y costo. Para realizar esa optimización resulta muy valioso aplicar las técnicas del Diseño Estadístico de Experimentos y la Modelación Matemática.
El aplicar el Diseño de Experimentos a escala industrial resulta difícil por las afectaciones que puede hacerle a la producción. No obstante, el Diseño Estadístico de Experimentos es una de las principales herramientas de que dispone el investigador para aumentar la eficacia de la investigación, y hoy en día se aplica ampliamente a escala de laboratorio, banco y piloto. No es necesario ser un estadístico o un matemático; la experiencia ha demostrado que los químicos e ingenieros pueden fácilmente aprender los principios fundamentales de este tipo de diseños (Guerra y Sevilla, 1987).
Una simple observación experimental en un laboratorio, en una instalación a escala piloto o a nivel industrial puede costar cientos o miles de dólares, luego siendo el objetivo de la investigación obtener información, puede definirse la eficiencia de la investigación como la cantidad de información útil obtenida por unidad de costo. Por consiguiente, es extremadamente importante para una investigación utilizar métodos experimentales que le brinden la máxima cantidad de información con el menor costo y esfuerzo. El uso del Diseño Estadístico de Experimentos facilita un incremento apreciable en la productividad de los investigadores, así como en la confiabilidad de los resultados obtenidos, siendo estos métodos, por su naturaleza universal, adaptables a la mayoría de los campos actuales de investigación (González, E., 1980).
Con el Diseño Estadístico de Experimentos se pueden reducir al mínimo imprescindible las experiencias que se deben realizar a Escala de Laboratorio y planificar adecuadamente las corridas en las escalas de banco y piloto, de forma tal de obtener la mayor cantidad posible de información en el menor intervalo de tiempo. Con la Modelación Matemática se pueden reducir las corridas necesarias en las instalaciones de banco y piloto ya que se pueden realizar sólo las corridas necesarias para obtener la información que se requiere para poner a punto los modelos matemáticos del proceso y el resto de las investigaciones se pueden realizar mediante simulaciones en computadora, con la exepción de un mínimo de corridas experimentales que se realicen al final para corroborar los resultados de los modelos.
Aquí hay que señalar también que resulta evidente que el tipo de diseño a utilizar en cada caso, depende del objetivo del experimento y del tipo de modelo que se desea obtener. Sobre la base de estas consideraciones, se puede establecer una clasificación de las investigaciones experimentales según Box, (Guerra y Sevilla, 1987):
1. Experimentos de tamizado: Cuando a partir de un gran número de variables hay que identificar cuáles afectan el rendimiento.
2. Construcción de modelos empíricos : Para obtener una descripción aproximada de la relación entre X e Y, en función de parámetros B.
3. Construcción de modelos determinísticos: Para determinar la verdadera relación funcional que existe entre X e Y.
4. Ajuste del modelo determinístico: Para encontrar los mejores estimados de los parámetros desconocidos en el modelo propuesto.
Los experimentos de tamizado deben hacerse al comienzo de un estudio experimental, cuando hay numerosas variables que potencialmente pueden incluir en la respuesta. Es necesario discriminar entre ellas las verdaderamente importante. Esta es la esencia de este tipo de experimentos los que deben ser bien diseñados estadísticamente para poder determinar también las interacciones entre las variables.
La construcción de modelos empíricos se hace necesario en aquellas situaciones en que no es factible la obtención de un modelo determinístico. En esas situaciones resulta útil, un modelo aproximado que representa adecuadamente el comportamiento del proceso bajo estudio en a región de interés. Los modelos determinísticos, por otra parte, casi siempre son no lineales y la estimación de los parámetros de los mismos puede resultar difícil.
Por lo tanto, el objetivo de las investigaciones generalmente es establecer un modelo matemático del proceso y pueden haber dos casos (Köllner, 1973):
1. El modelo se puede desarrollar teóricamente y por ello en el trabajo experimental sólo se necesita comprobar el modelo y determinar los coeficientes desconocidos del mismo.
2. Con el nivel de conocimientos presentes no se puede deducir un modelo justificado en forma teórica y por ella la dependencia entre las variables tiene que determinarse experimentalmente, escogiendo previamente las variables significativas del proceso.
Generalmente no se conoce la forma del modelo a ajustar; en ese caso es recomendable comenzar con un modelo lo más simple posible. La información acerca del modelo del proceso debe ser, por supuesto, muy precisa, pero esto puede lograrse haciendo un número de corridas experimentales lo suficientemente grande. Sin embargo esta solución, por supuesto, es cara, y una forma de lograr los mismos objetivos con menos recursos es localizando los valores de las variables independientes estratégicamente para cada corrida experimental. Por tanto, si los experimentos se planifican adecuadamente, se obtiene la información deseada en una forma eficiente.
Un plan experimental bien diseñado y su posterior ejecución ayuda en la selección de un mejor modelo, dentro de un conjunto de modelos posibles y la estimación eficiente de los parámetros en el modelo seleccionado. Ambos objetivos se investigan simultáneamente y casi siempre en forma secuencial, porque el experimentador generalmente no conoce qué variables deben medirse, cuál es el rango en que las variables se deben medir ni qué series de experimentos deben hacerse hasta que el programa experimental esté al menos parcialmente ejecutado. Generalmente un plan experimental comienza con una hipótesis expresada en forma de un modelo matemático.
Para probar la hipótesis se lleva a cabo un experimento, el cual, para obtener la información, se debe diseñar adecuadamente. Los datos obtenidos del experimento tienen que analizarse para evaluar la hipótesis original. Los resultados experimentales pueden conducir a modificar la hipótesis, en cuyo caso una nueva hipótesis se formula o se confirma. En el primer caso, la nueva hipótesis debe ser probada, para lo cual debe efectuarse otro plan experimental, y así se continúa hasta obtener resultados satisfactorios. Un experimento es, por tanto, sólo una etapa que ayuda a la comprensión del proceso bajo estudio. El investigador debe analizar cuidadosamente los resultados de sus experimentos, para determinar las direcciones en que los cambios son realmente sustanciales.
Este proceso iterativo que caracteriza la investigación científica se muestra de forma esquemática en la siguiente Figura 6.1. En esa figura se muestran los dos papeles distintos que la Estadística puede desempeñar: diseño y análisis. De ellas, el más importante es el primero, el diseño: poca información útil puede sacarse de los datos obtenidos en un experimento que no se ha planificado cuidadosamente. Sin embargo, con un diseño adecuado, se puede obtener una clara visión de la situación con métodos de análisis simples.
FIGURA 5.1 . Proceso
Iterativo de la Investigación Científica (Tomado de Guerra y Sevilla, 1987)
Por lo antes expuesto y dada la importancia que tienen la Modelación Matemática y el Diseño Estadístico de Experimentos para este objetivo, este Capítulo se dedicará totalmente a repasar los conceptos fundamentales de estas técnicas, enfatizando en su realización práctica mediante la utilización de los software especializados como el BioPro Designer para la simulación de los procesos industriales biotecnológicos y el STATGRAPHIC en sus versiones para DOS y para Windows y el STATISTICA para Windows, para el Diseño de Experimentos.
Por otra parte, los experimentos que se requieren para la aplicación de las técnicas del Diseño Estadístico de Experimentos, se tomarán principalmente de ejemplos de los Procesos de la Industria Biotecnológica y en lugar de la ejecución real de los experimentos se realizarán simulaciones en computadora, con el empleo de modelos matemáticos desarrollados al efecto (González, R., 1996).
Se define sistema como un conjunto de elementos en el cual todos se encuentran tan estrechamente vinculados entre sí, que en relación con las condiciones circundantes se presentan como un todo único. Existen muchos tipos de sistemas, pero en este capítulo estudiaremos los sistemas de los Procesos Industriales. , definidos éstos como el conjunto de procesos físicos, químicos, bioquímicos y microbiológicos, relacionados con la obtención de un producto o un grupo de productos dados .
Para el estudio de los sistemas resultan fundamentales los conceptos de modelo y simulación. Por modelo se define la representación (imagen) de una realidad objetiva, a una escala igual o diferente a la original y, los mismos pueden ser de diferentes tipos: analógicos, físicos, matemáticos, siendo en este caso de especial interés los modelos matemáticos. Por simulación se entiende el estudio de un sistema mediante uno o más modelos, y si los modelos a emplear son matemáticos, se tiene entonces una simulación matemática.
Otra definición de simulación ( González, V., 1987), es la que plantea que la simulación es un procedimiento para la realización de experimentos por medio de una computadora digital y con la ayuda de modelos matemáticos, con el fin de obtener información sobre el comportamiento del sistema. En general, mediante las técnica de simulación se pueden analizar el efecto de las interrelaciones de un sistema o proceso dado, determinar las recirculaciones (de materiales, energía o información), hacer estudios de capacidad, detectar cuellos de botella, definir las condiciones límites de operación y otras aplicaciones más.
Por ello, la realización previa de los modelos que definen el comportamiento individual de cada elemento de un sistema o proceso, permite el estudio integral de dichos procesos, mediante su simulación matemática y se llega por lo tanto al concepto de Análisis de Procesos, que es la habilidad de convertir un problema de Ingeniería en una formulación matemática, para obtener la información final del problema, mediante la aplicación de las técnicas de computación.
Teniendo en cuenta estos elementos, no se puede considerar a la Modelación Matemática como un fin en si mismo, sino como un paso hacia la simulación y a su vez la simulación se debe considerar como una herramienta a utilizar en el Análisis de Procesos en general y en este caso, en los Procesos Industriales. No obstante la modelación matemática constituye una primera etapa obligada para realizar la simulación y el análisis de procesos.
Para seleccionar la herramienta de simulación a utilizar, depende de que la etapa del proceso general de escalado que se esté desarrollando. Cuando se trata de las etapas iniciales (laboratorio y banco fundamentalmente), prácticamente sólo interesa el bioreactor y por lo tanto puede utilizarse un simulador sencillo.
A
manera de ejemplo se presenta en el material complementario a este
Capitulo, un ejemplo de aplicación del programa de simulación SIMBAS (acrónimo
de Simulación en BASIC), desarrollado por Bungay, (1993). Con el programa
SIMBAS se pueden simular procesos descritos por un sistema de ecuaciones
diferenciales y con el mismo se han
desarrollado un grupo de modelos de los procesos Biotecnológicos, que
constituyen una gran parte de los materiales complementarios del presente
curso.
También es posible utilizar los paquetes de programas matemáticos como el MATEMATICA, el DERIVE o el TK SOLVER Plus (Hughson, R. V., 1993), los cuales permiten evaluar los sistemas de ecuaciones diferenciales o algebraicos que se requieren para los modelos de los bioreactores y demás componentes de los sistemas biotecnológicos, utilizándose también las facilidades de construcción de gráficos que tienen esos programas. Además existe la variante de utilizar cualquiera de los tabuladores electrónicos (spreadsheets) disponibles , como el EXCEL de Microsoft, con los cuales también se puede desarrollar adecuadamente el proceso iterativo requerido para la solución de los sistemas de ecuaciones diferenciales u ordinarias que constituyen un modelo matemático y presentar los resultados en forma de tablas y gráficos (Ravella, A., 1993).
Cuando se está en una etapa posterior, como la planta piloto o la instalación semi-industrial, hay que tener en cuenta todas las etapas del proceso, o sea las operaciones de tratamiento previo, la bioreacción y el procesamiento de los productos, por lo cual se necesita contar, con un software capaz de analizar el proceso en su conjunto.
Esa tarea se facilita enormemente cuando se emplean los software de simulación de procesos industriales, especialmente diseñados al efecto, de los cuales existen una gran cantidad disponibles en el mercado, aunque principalmente han sido desarrollados para las industrias química, minera, energética y mecánica (Winter, 1992; Boston et al, 1993).
Uno de los más empleados en la actualidad es el ASPEN PLUS, el cual incluye un módulo para Biotecnología, denominado BPS (Shioya y Suga, 1993), pero tiene el inconveniente que debe ser adquirido el paquete de programas básico, además del módulo específico, lo que lo hace una opción muy cara para los usuarios cuyo único interés es la Biotecnología (González, R. A et al, 1995). Una opción mejor es utilizar un simulador específico y para ello se cuenta desde hace poco tiempo con el BioPro Designer, desarrollado en el MIT y actualmente en explotación comercial (Aelion y Petrides, 1994).
El BioPro Designer tiene las siguientes características:
Interfase gráfica interactiva
Modelos matemáticos de aproximadamente 40 Operaciones Unitarias empleadas en la Industria Bioquímica y también en otras industrias de procesos.
Balances de materiales y energía para diagramas de flujos integrados con lazos de recirculación.
Estimado de tamaño y costo de equipos
Reportes detallados de las corrientes y de las evaluaciones económicas.
Programación de procesos discontinuos y semicontinuos.
Ayuda en línea.
El BioPro Designer es un simulador secuencial modular, mediante el cual el usuario puede construir un diagrama de flujos con balances de materiales y energía (flowsheet), seleccionando las operaciones unitarias que lo componen de la biblioteca disponible en el simulador, especificando sus datos característicos y conectándolos entre si con las corrientes correspondientes. Este simulador es totalmente comandado por menús y tiene una interfase muy interactiva con el usuario, en el ambiente Windows o Macintosh. En la figura 5.1 se muestra un ambiente de trabajo típico de este simulador.
Este software guía al usuario a través de las etapas necesarias para el desarrollo del flowsheet a través del menú Tasks (Tareas) (Figura 5.3).Además, antes de resolver los balances de materiales y energía necesarios el BioPro Designer chequea que esté correctamente inicializado el flowsheet y recomienda al usuario completar cualquier etapa que haya quedado pendiente.
Figura 5.2 Ambiente
de trabajo del BioPro Designer (De Aelion y Petrides, 1994).
Figura 5.3 Menú Tasks
para el desarrollo interactivo de los diagramas de flujos en el BioPro Designer
(De Aelio y Petrides, 1994)..
El BioPro Designer ofrece una amplia variedad de Operaciones Unitarias utilizadas en las industrias bioquímica, farmacéutica y otras industrias de proceso. En la tabla 5.1 se muestra una relación de las operaciones unitarias disponibles actualmente. Los modelos de todas esas Operaciones Unitarias son algebraicos y pueden ser especificados tanto para estado estacionario como para operaciones discontinuas o discontinuas incrementadas. Muchos de los parámetros de diseño y condiciones de operación de dichas Operaciones Unitarias tienen valores por defecto, lo que facilita una inicialización rápida y un bosquejo preliminar rápido de las distintas alternativas de operación.
Un modelo típico es el de un diafiltro (Figura 5.4). Un diafiltro es un equipo que emplea membranas de separación para mejorar la purificación de sólidos retenidos, al cual se le añade un solvente para ayudar a remover las especies permeables a la membrana. Estos equipos trabajan
Tabla 5.1 Operaciones
Unitarias en el BioPro Designer (Tomado de Aelion y Petrides,
1994).
Reacciones |
Separaciones fases |
Fermentadores Cont. y Discont. |
Extractor Centrífugo |
Fermentador airlift |
Extractor Diferencial |
Reactor Perfectamente Mezclado |
Extractor Mezclador-Sedimentador |
Reactor Flujo Pistón |
Destilación (Método corto) |
Reactor Cama Fluidizada |
Evaporación Súbita (Flash) |
Ruptura celular |
Cristalizador |
Homogeneizador a alta presión |
Tanque de Decantación |
Molino de Perlas |
Secado/Evaporación |
Separaciones Mecánicas |
Liofilización |
Microfiltros de Membrana |
Secador de Platos |
Ultrafiltro de Membrana |
Secador Cama Fluidizada |
Diafiltro |
Secador Rotatorio |
Osmosis Reversa |
Evaporación Súbita |
Filtro Dead-End |
Evaporador Rotatorio |
Filtro de Aire |
Otras Op. Unitarias |
Filtro Prensa |
Compresores |
Filtro Rotatorio al Vacío |
Ventilador/Soplador |
Centrífuga de Filtro en Cesta |
Bombas |
Centrífuga de Discos |
Calentador/Intercamb. |
Centrífuga Decantadora |
Esterilización Térmica |
Centrífuga de vaso |
Mezclador Flujo Gen. |
Ciclón/Hidrociclón |
Separador Comp. y/o Flujo |
Cromatografía |
Tanques almacenamiento |
Filtración por Gel |
Tanques de mezclado |
Intercambio Iónico |
Adsorción Carbón Activado |
Fase Reversa |
|
Afinidad |
|
comúnmente en forma discontinua, pero pueden emplearse también en forma continua. En la operación discontinua, los solutos permeables se clarifican del retenido por reducción de volumen, a lo que sigue re-dilución y re-filtración, de forma repetitiva. Cuando en cada etapa ocurre una reducción de volumen igual ocurre, la fracción final de un componente (Fi) que permanece en el retenido se estima por la siguiente ecuación:
(5.1)
Figura 5.4 Icono para
un diafiltro en el BioPro Designer (Aelion y Petrides, 1994).
donde (CF) es el factor de concentración en cada etapa, n es el número de etapas de reducción de volumen y RCi es el coeficiente de rechazo promedio del soluto (i). El volumen de agua u otro solvente, requerido para la dilución se estima mediante la ecuación siguiente:
(5.2)
donde Vo es el volumen de alimentación inicial. El valor del volumen de diluyente se utiliza para ajustar la tasa de flujo de la corriente de diluyente.
En el caso de la operación continua, esta conlleva la adición de solvente con un pH y temperatura apropiados, al tanque de alimentación a la misma tasa que el flux de permeado, de forma tal de que se mantenga constante el volumen de alimentación durante el proceso. Los solutos permeables se eliminan a la misma tasa que el flux. Este modo de diafiltración es particularmente útil cuando la concentración del soluto retenido es muy alta para permitir una efectiva operación de diafiltración discontinua. La fracción de soluto que queda en el retenido se estima por la siguiente ecuación:
(5.3)
donde (VPR) es la relación de permeación volumétrica. definida de la forma siguiente:
(5.4)
A su vez, el volumen de agua u otro solvente requerido para la dilución se estima por la siguiente ecuación:
(5.5)
donde Vo es el volumen inicial de alimentación y el valor del volumen de diluyente se utiliza para ajustar la tasa de flujo de la corriente de diluyente, de igual manera que en el caso de la diafiltración discontinua.
Todas las Operaciones Unitarias se inicializan activamente a través de una serie de ventanas de diálogo. En las figuras 5.4 a y b, se muestran las ventanas de inicialización para un diafiltro. Los números presentes en las ventanas son los valores por defecto, recomendados por BioPro Designer.
Figura 5.4 (a-b) Caja
de diálogo para un Diafiltro en el BioPro Designer (De Aelion yPetrides, 1994).
El Diseño de un Experimento consiste en planificar los experimentos de la forma más
racional posible, de manera que los datos obtenidos puedan ser procesados
adecuadamente y que mediante un análisis objetivo conduzcan a deducciones
aceptables del problema planteado, para lo cual se sobreentiende que la
persona que formula el diseño conozca los objetivos de la investigación propuesta.
Antes de comenzar el trabajo experimental se debe, por lo tanto, tener la información requerida del sistema que permita contestar a las interrogantes siguientes:
1. ¿Cuáles son las propiedades de sistema que se van a estudiar?, o sea los llamados rendimientos o variables dependientes.
2. ¿Qué factores afectan a estos rendimientos?, es decir qué parámetros o variables independientes que determinarán los rendimientos y si se podrán controlar o medir adecuadamente.
3. ¿Qué factores se estudiarán y cuáles permanecerán constantes?
4. ¿Cuántas veces se deben repetir los experimentos?
5. ¿Qué cantidad de experiencias se deben efectuar?
6. ¿Cómo se deben realizar las experiencias?
Algunas de estas preguntas sólo se pueden responder por el conocimiento científico-técnico del sistema, como por ejemplo las tres primeras, mientras que las restantes requieren del conocimiento científico-técnico, del diseño estadístico de experimentos y de la lógica para su contestación.
El proceso de investigación en general, independientemente de le escala en que se halle (laboratorio, banco o piloto), se desarrolla a través de una serie de etapas bien definidas: familiarización, tamizado de variables y optimización.
En la etapa de familiarización, el investigador se familiariza con el nuevo sistema estudiar. Por ejemplo, en la etapa de laboratorio (Murphy, 1977) esto puede ser el tratar de reproducir resultados descritos en las patentes o en experimentos de estudios anteriores, o aprender a trabajar con un equipamiento nuevo. En una planta piloto (Köllner, 1973), esta etapa se refiere a la serie de corridas preliminares que deben realizarse para poder probar todos los componentes de la planta, incluyendo los equipos de medición y control. Además es necesario determinar el tiempo de trasiente entre dos estados estacionarios del proceso, o sea el tiempo que se requiere para que se alcance el estado estacionario, después de una variación en las condiciones del proceso.
En esa etapa inicial de familiarización no resulta de utilidad el Diseño Estadístico de Experimentos, ya que la mayoría de las experiencias se realiza de una forma intuitiva. Sin embargo, en todo el proceso posterior, comenzando con el Tamizado de Variables, resulta imprescindible la utilización del Diseño Estadístico de Experimentos y por ello no se debe comenzar ningún trabajo experimental sin hacer previamente algún tipo de diseño pues puede ocurrir, si esto no se hace, que al final los datos obtenidos no sean capaces de permitir el análisis de los efectos buscados.
Desafortunadamente muchas veces se trata de llevar el enfoque de la etapa inicial de familiarización al resto de los trabajos y todavía persisten en muchos investigadores la costumbre de iniciar sus trabajos sobre un sistema nuevo y, por lo tanto poco conocido, mediante métodos de tanteo intuitivos con el pretexto de no poder aplicar las herramientas estadísticas hasta que no se tenga un conocimiento más amplio del sistema (López, R., 1988).
Este proceder erróneo provoca la realización de un gran número de experiencias preliminares antes de que se logre obtener de verdad información orientadora. En realidad es precisamente al comenzar el estudio de un sistema nuevo, cuando es más recomendable iniciar la investigación aplicando técnicas de Diseño Estadístico de Experimentos, especialmente de aquellas con las cuales se puede estudiar el efecto de algunas variables en conjunto y definir sobre una base sólida, cuáles de éstas son significativas (Tamizado de Variables).
En general se puede decir que hay tres principios básicos del Diseño Experimental:
Reproducción : Es la repetición del experimento básico para estimar el error puro o aleatorio, que permitirá determinar si las diferencias observadas son significativas o no.
Aleatorización: En la mayoría de las pruebas estadísticas se supone que las muestras son independientes unas de otras y que sólo están afectadas por los parámetros que se controlan. Para garantizar esto se requiere tomar las muestras al azar o aleatoriamente de la población investigada.
Control local: Se refiere implícitamente, en primer lugar, al tipo de diseño experimental que se haya realizado y en segundo lugar a las medidas que se tomar para controlar el proceso experimental como por ejemplo:
1- Utilizar material o bloqueo experimental homogéneo para la estratificación cuidadosa del
material disponible.
2- Dirigir el experimento cuidadosamente.
3- Considerar las posibles variantes aleatorias
4- Emplear las técnicas analíticas y los equipos de control más adecuados.
Por último se debe señalar que es conveniente discernir dos grandes campos del Diseño Estadístico Experimental, por una parte las Ciencias Biológicas y Agrícolas, en las que se utilizan principalmente los diseños completamente al azar, bloques al azar y los cuadrados latinos y por otra parte las Ciencias Técnicas, Química, Física y Farmacéuticas y algunos campos de las Ciencias Biológicas como la Microbiología y la Genética Microbiana, en las cuales existe la posibilidad de controlar un número finito de variables, en cuyo caso se emplean principalmente los Diseños Factoriales.
En este Capítulo se dará sólo una visión breve y general del Diseño Experimental en Biología y Agronomía y se estudiará con más detalles el Diseño Experimental aplicable a las Ciencias Técnicas, Física, Química y Farmacéutica y la Microbiología, haciendo énfasis en su aplicación práctica mediante la utilización de los paquetes de programas estadísticos especializados. Para un análisis más detallado del Diseño Experimental en el campo de la Biología y la Agronomía se deben consultar textos especializados como "La Experimentación en las Ciencias Biológicas y Agrícolas ", (Lerch ,1977).
Estos tipos de diseño son los más utilizados en la investigación biológica y agronómica.
Un diseño completamente al azar, es un diseño en el cual los tratamientos a las unidades experimentales se realizan aleatoriamente , o sea que no se imponen restricciones en la distribución de los experimentos a estas unidades. Por ser tan simple, es un diseño muy utilizado, sin embargo hay que tener en cuenta que sólo deben ser aplicados a unidades experimentales homogéneas..
Ejemplo de clasificación simple:
Se desea estudiar el efecto de distintos tipos de alimentación en 30 cerditos seleccionados para los cuales se asume que sean similares en su comportamiento. No obstante esto, siempre existe la posibilidad de que existan diferencias entre ellos, por lo que resulta conveniente realizar las experiencias aleatoriamente, o sea, asignarle al azar un orden de ejecución a la aplicación de los alimentos a los cerditos. Esto se puede efectuar numerando simbólicamente los cerditos del 1 al 30, colocar 30 papeles numerados en una bolsa y sacar los números al azar. El primer número que salga recibirá el tratamiento F-1, el segundo el tratamiento F-2 y así sucesivamente.
El diseño en bloques al azar es, sin lugar a dudas, el diseño más utilizado en la investigación agrícola y biológica y en el mismo las unidades experimentales se distribuyen en grupos o bloques, de manera que las unidades experimentales dentro de un bloque sean realmente homogéneas, y el número de unidades experimentales dentro de él, sea igual al número de tratamientos por investigar (López, R., 1988). En este caso se asignan al azar los tratamientos a las unidades experimentales dentro de cada bloque y la formación de bloques refleja el criterio del investigador respecto a las respuestas diferenciales potenciales de las diversas unidades experimentales, mientras que el proceso de aleatorización actúa como una justificación de la suposición de independencia.
Ejemplo:
Se desea probar el efecto de 10 tipos de alimentación en 40 cerditos, que se distribuyen en 4 bloques de acuerdo con sus pesos iniciales. Los cerditos más pesados se agrupan en el primer bloque (10 cerditos) y así sucesivamente. Los 10 tratamientos (desde A hasta J) se asignan al azar, como se muestra a continuación:
Bloque |
Tratamiento |
|
|||||||||
1 |
H |
B |
F |
A |
C |
I |
E |
J |
D |
G |
|
2 |
A |
I |
G |
H |
J |
D |
F |
E |
C |
B |
|
3 |
E |
A |
C |
I |
B |
H |
D |
G |
J |
F |
|
4 |
J |
F |
D |
B |
H |
I |
A |
C |
G |
E |
|
En el Diseño en Cuadrados Latinos, el número de réplicas debe ser igual al número de variantes o tratamientos, los cuales se distribuyen al azar. Como ejemplo de la aplicación de esta técnica se tiene el caso en que se desean probar 5 tipos de herbicidas en una siembra de caña. Se requiere dividir el terreno en 5 franjas (A, B, C, D y E) de acuerdo con su fertilidad (franjas de alto y bajo rendimiento) y dentro de cada franja se toman 5 parcelas, una para cada tratamiento, como se muestra a continuación:
Franja |
Parcela |
|
||||
1 |
C |
A |
E |
B |
D |
|
2 |
B |
E |
D |
A |
C |
|
3 |
D |
C |
B |
E |
A |
|
4 |
E |
D |
A |
C |
B |
|
5 |
A |
B |
C |
D |
E |
|
Frecuentemente se presenta en la investigación agrícola y biológica el estudio de múltiples variantes, donde se deben tener en cuenta los efectos producidos por varios factores. En estos casos resulta conveniente planificar las experiencias de acuerdo con las diversas posibilidades, por ejemplo, mediante diseños completamente aleatorizados, bloques aleatorizados, cuadrados latinos o rectángulos latinos y procesar los resultados por medio del análisis de Varianza para determinar si existe variabilidad significativa entre los tratamientos. Si se desean comparar las medias se podría usar la prueba t de Student, realizada una tras otra (cada vez con dos medias) con todas las parejas de valores posibles, pero además de perderse mucho tiempo no es del todo correcto, pues esta prueba se ha desarrollado para comparar sólo dos muestras (de distribución normal); así, en este caso se prefiere la prueba de Duncan.
Para definir el tipo de Análisis de Varianza a aplicar se parte del número de factores (variables independientes) que se han investigado en un experimento dado.
Siempre que sea posible es preferible considerar muestras de igual tamaño para simplificar los resultados y aumentar la precisión de las conclusiones. Las variaciones experimentales son el resultado del cambio de un solo factor; por ejemplo: distintas concentraciones de un nutriente en una dieta, distintas formas de realizar una experiencia, etc. En esos casos resulta muy común emplear los diseños completamente al azar y se pueden emplear entonces los Análisis de Varianza de clasificación simple, la prueba múltiple de t o la mínima diferencia significativa, aunque se prefiere en la actualidad el uso de la prueba de Duncan o de rango múltiple.
Cuando se estudia el efecto combinado de dos factores, como por ejemplo el tipo de alimentación y peso inicial de los animales de experimentación; variedad de una planta y tipo de suelos, etc., es necesario utilizar entonces el método de Análisis de Varianza de clasificación doble, complementado con la prueba de Duncan. En este tipo de experimentos el número total de variantes a estudiar es igual al producto de los niveles del primer factor por los niveles del segundo factor y se organizan ya sea por el método de los bloques al azar o por los cuadrados latinos.
En la actualidad existen otros diversos tipos de diseños en los experimentos biológicos y agronómicos que se han adecuado para situaciones particulares, como por ejemplo, los métodos de clasificación triple, etc., que pueden ser consultados en textos especializados (Lerch, 1977.).
En este campo de trabajo es usual trabajar con pocas variables, conocidas y casi siempre controlables, por lo que se planifican los experimentos con vistas a obtener modelos matemáticos, empíricos, o mecanísticos, que describan el sistema estudiado. Aquí es importante destacar que este tipo de situaciones no se observa sólo en estas ciencias, sino que se observa también en algunos campos de las ciencias biológicas, como por ejemplo en la microbiología y en la genética microbiana.
En este punto resulta conveniente definir la palabra experimento, puesto que puede resultar ambigua, al igual que otros términos utilizados en un diseño estadístico. En este tipo de problemas, una corrida experimental (o simplemente una corrida como se nombra usualmente), es simplemente un experimento único, mientras que un grupo de corridas, dirigidas hacia la obtención de algún objetivo, se denomina Diseño Experimental o simplemente diseño.
La anatomía de
una corrida se representa en la
Figura 6.2 (Murphy, 1977). El resultado de la corrida es una respuesta
obtenida o observación hecha en una unidad
experimental. El valor de la respuesta
para cualquier corrida, dependerá de
los ajustes de una o más variables experimentales o factores, los cuales están bajo el control directo del
investigador. Figura 5.6 Representación de una Corrida
experimental (Tomado de Murphy, 1977).
Desafortunadamente para los experimentadores, este cuadro de una corrida experimental incluye además
muchas variables no controladas y a veces incluso desconocidas, que también influyen en la respuesta y que tienden a provocar variaciones tanto sistemáticas como aleatorias que tienden a enmascarar los efectos verdaderos de los factores en la respuesta. Como ejemplo de dichas variables están el efecto sistemático de las condiciones ambientes y las diferencias en el equipamiento, material de arrancada y técnicas empleadas en los experimentos. Variaciones aleatorias se pueden producir también por errores en las pesadas, en la transferencia de materiales y en la lectura de instrumentos. Por todo esto, un buen Diseño Experimental debe considerar las posibilidades de impacto de ese tipo de variables, en la posibilidad de sacar conclusiones adecuadas de los experimentos y poder alcanzar los objetivos experimentales.
Los principales elementos en general, que se deben considerar en un Diseño Estadístico de Experimentos, se presentan en la Tabla 5.2. El primero resulta obvio, no obstante es sorprendente como en muchos casos no se llegan a resultados adecuados por defectos en el planteamiento inicial del problema. La relación de variables de respuesta también resulta de vital importancia y ya no resulta obvia. Las respuestas pueden ser cuantitativas (continuas), cualitativas (discontinuas) y binarias. De ellas las de más fácil manejo son las continuas y para las discontinuas una buena solución es evaluarlas en una escala numérica, por ejemplo de 5 a 10, convirtiendo así la respuesta a una variable semi-cuantitativa. En el caso de las binarias, puede tratarse también de llevar a formas discontinuas, pero muy frecuentemente se necesitan emplear técnicas especiales para su manejo.
Los factores o variables independientes experimentales, son controladas por el experimentador y el nivel de un factor es el valor fijado para el factor durante una corrida experimental. Al igual que las respuestas, los factores pueden ser clasificados de acuerdo con la escala de medición, como continuos o cuantitativos como el tiempo y la temperatura y cualitativos, discontinuos o categóricos como el tipo de catalizador o solvente empleado. También en este caso son más difíciles de manejar los discontinuos y la solución común es emplear dos niveles en el experimento, definiendo con (+1) o simplemente con el signo (+) la presencia o el carácter positivo del factor y con (-1) o con el signo (-), lo contrario.
Cuando la respuesta y los factores son continuos, se debe considerar la relación factor/respuesta en términos de una función matemática o modelo. En las primeras etapas de la investigación, cuando se conoce poco sobre la verdadera relación factor/respuesta, resulta suficiente considerar un modelo empírico sencillo tal como un polinomio de primero o segundo orden. Ya en etapas más avanzadas de la investigación puede considerarse un modelo determinístico, derivado de los principios fundamentales, ya que con ese tipo de modelos puede obtenerse la requerida precisión en la predicción en un amplio rango de condiciones.
En el caso de un factor único, el modelo empírico más simple es la función de primer orden :
(5.6)
Los parámetros del modelo, B0 y B1, se denominan intercepto y pendiente respectivamente. Ese modelo se muestra en la Figura 6.3 y resulta útil para predecir la respuesta Y en un rango limitado del factor X. También resulta útil en la etapa de
Tabla 5.2 Elementos
del Diseño Estadístico
de Experimentos (de
Murphy, 1977)
1 |
Planteamiento del problema |
2 |
Relación de variables de respuesta |
3 |
Relación de factores variables |
4 |
Modelo Matemático |
5 |
Elección de niveles para los factores |
6 |
Tamaño del diseño |
7 |
Orden de la Experimentación |
8 |
Registro de los datos |
Tamizado de Variables, cuando el interés debe centrarse en los factores que tienen un mayor efecto en la respuesta Y. En ese caso, si b1 tiene un valor cercano a cero, se dice que el factor no tiene un efecto significativo en la respuesta.
En general se tiene la tendencia a considerar que la relación factor/respuesta tiene una forma curva y en ese caso se obtiene una mejor representación con la función de segundo orden (Figura 5.6):
(5.7)
Aquí es posible determinar un óptimo grosero, localizado en un nivel del factor igual a -B1/2B11. Por su parte, al coeficiente B11 se le denomina coeficiente de curvatura. Si B11 es cercano a cero, se dice entonces que la respuesta no tiene curvatura y por ello es aproximadamente de primer orden, es decir lineal, con respecto al factor X.
Para el caso de la existencia de dos o más factores, puede existir una situación más complicada conocida como interacción, lo que significa que los factores no operan independientemente sobre la respuesta. En el caso de que exista independencia en lugar de interacción, se dice entonces que los factores son aditivos. Cuando no hay o es muy poca la curvatura con respecto a cualquiera de los factores, el modelo más simple para dos factores es:
(5.8)
en el cual B1 y B2 son las pendientes correspondientes a los factores X1 y X2, respectivamente, mientras que B12 es el parámetro de interacción y cuando el mismo se hace cero, se está en presencia de un modelo aditivo de primer orden. En ese caso cuando se grafica Y vs. X1 para dos valores constantes de X2 cualesquiera, se obtienen dos líneas rectas paralelas (Figura 6.5). Cuando el término B12 tiene un valor distinto de cero el modelo es interactivo. En ese caso un gráfico de Y vs. X1 para dos valores constantes de X2 produce dos líneas rectas no pararelas (Figura 6.6).
Cuando la relación existente entre la respuesta y un factor es de forma curva, entonces debe añadirse un término cuadrático o de curvatura. En ese caso el modelo completo de segundo orden sería:
(5.9)
Este tipo de modelos puede brindar una excelente descripción de la respuesta dentro de la región de experimentación y puede usar para propósitos de interpolación o para encontrar un óptimo interno grosero, si éste existe. En la figura 6.7 se presenta un gráfico de Y vs. X1 para valores constantes de X2. Otra forma útil de presentar esta relación es mediante un mapeo de los contornos de la superficie respuesta Y sobre el espacio factorial definido por los valores de X1 y de X2 (Figura 6.8). Este gráfico indica una respuesta máxima cerca del centro del espacio factorial. Sin embargo, es importante enfatizar que este tipo de modelos empíricos de segundo orden, son muy poco confiables para predicciones fuera del rango de experimentación en que han sido ajustados.
Figura 5.12 Grafico
de contornos de Y vs. X1 y X2.
Para el caso general de n factores, el modelo empírico general de segundo orden será:
(5.10)
el cual tiene parámetros a ser estimado. Puesto que este número de parámetros puede llegar a ser muy grande rápidamente cuando se incrementa n, generalmente se asume un modelo más sencillo (por ejemplo un modelo de primer orden) al inicio de la investigación, cuando el número de factores considerados es muy elevado y cuando el número de factores se va reduciendo, el modelo se puede ampliar a uno de segundo orden, parcial o total o incluso a un modelo teórico (determinístico).
Otro elemento importante a considerar es la selección del nivel de los factores, ya que un Diseño Experimental consiste precisamente en un conjunto de corridas experimentales, cada una de ellas definidas como una combinación de los niveles de los factores. La elección de estos niveles es influenciada considerablemente por el tipo de modelo matemático en consideración. Por consiguiente un Diseño Experimental se determina por el número y tipo de los factores en unión con el tipo de modelo a emplear.
Para el caso más simple, de un factor único y un modelo de primer orden, sólo son necesarios dos niveles del factor para estimar los parámetros B1 y B0. En esta discusión esos dos valores se pueden codificar como alto y bajo o (+1) y (-1) o simplemente (+) y (-). El cambio en la respuesta entre esos dos niveles se denomina el efecto principal del factor (Figura 6.9). Como el error aleatorio puede fácilmente oscurecer el efecto principal si los niveles se toman muy cercanos, el efecto principal puede ser estimado de manera más precisa si los factores se ajustan a niveles suficientemente separados.
Si se considera un modelo de segundo orden, se necesita un tercer nivel del factor para estimar el parámetro de curvatura B11. Ese tercer nivel normalmente se sitúa a medio camino entre los niveles extremos del factor y se denomina como punto central y se codifica como medio o (0). El efecto de curvatura se define entonces como la diferencia entre la respuesta experimental del punto central y la respuesta esperada de un modelo de primer orden que se ajuste a los puntos extremos (Figura 6.10).
En la práctica es difícil que se necesiten más de tres o cuatro niveles para un factor, excepto en los casos en que se trata de seleccionar el mejor modelo teórico a emplear y pueden ser necesarios entonces más niveles de los factores para poder seleccionar entre muchos modelos candidatos (Murphy, 1977).
Para más de un factor, cada corrida experimental se define como una combinación de niveles de factores. Por ejemplo, en el caso de dos factores, el efecto de interacción debe ser estimado de forma adicional a los dos efectos principales y para ello el mínimo número de corridas debe ser cuatro, puesto que se deben estimar las dos pendientes de la relación Y vs. X1 y comparar esas pendientes a dos valores de X2 para chequear si hay o no interacción. Si el efecto de interacción es cero, las líneas son paralelas, como ocurre en la Figura 6.5.
Las cuatro corridas mencionadas anteriormente se conocen como un Diseño Factorial 22 y es un miembro de la clase de diseños conocida como Factoriales 2n, o sea n factores por corrida, cada uno de los cuales se evalúa a dos niveles y se tienen en cuenta todas las combinaciones posibles entre dichos niveles y factores. Las combinaciones de niveles factoriales en los diseños 22 y 23 se presentan en las figuras 6.11 y 6.12, representadas
.como las esquinas de un cuadrado y un cubo respectivamente.
Figura 5. 17
Combinaciones de los niveles factoriales en los diseños 22
y 23
(De Murphy, 1977).
El efecto de curvatura se puede estimar en este tipo de diseño, añadiendo un tercer nivel de cada factor en diversas combinaciones de los factores restantes. Sin embargo, en las etapas iniciales de investigación es más económico analizar la curvatura global del sistema y eso puede ser hecho mediante la adición de una combinación de todos los factores en el punto central, localizado en el centroide del diseño y en el caso de los diseños 22 y 23 la corrida en el punto central se localiza en los centros del cuadrado y del cubo respectivamente, como se muestra en la Figura 5.18.
Figura 5.18 Ubicación de puntos de réplica en el centro del diseño (Murphy, 1977).
Si la corrida en el punto central detecta un efecto de curvatura global apreciable, se deberán realizar entonces corridas adicionales para obtener estimados separados del efecto de curvatura para cada factor. Esas corridas adicionales se conocen como puntos axiales o de estrella y cuando se combinan con los diseños 2n más el punto central, constituyen los denominados Diseños Compuestos Centrales (Figura 5.18). En esos casos los puntos de estrella o axiales están localizados a una distancia del punto central, la cual varía desde 1 hasta 2n/4, donde n es el número de factores.
Una de las mayores desventajas de los Diseños Factoriales 2n es el gran número de corridas que se necesita cuando n se incrementa. Para resolver este problema, se utilizan determinadas fracciones o subconjuntos de los Diseños Factoriales Completos. Esos Diseños Factoriales Fraccionarios, se utilizan principalmente durante la etapa de Tamizado de las Variables, y pueden ser posteriormente expandidos a fracciones mayores o incluso al diseño completo, cuando el número de variables se ha reducido convenientemente. En la figura 6.16 se presenta un ejemplo de una Fracción 1/2 del Factorial 23, conocida también como factorial 23-1, en la cual cualquiera de los dos conjuntos de 4 corridas puede dar un estimado de los efectos principales de un modelo de primer orden en tres factores.
También se emplea un variante de los Diseños Factoriales Fraccionarios conocida como Diseños Saturados, en los cuales se pueden tratar (n-1) factores con n experimentos, o una variante de los mismos conocida como Diseños Plackett-Burman, en los cuales se tratan un número algo menor, o sea (n-2) o (n-4) factores, para dejar de 2 a 4 columnas no asignadas para evaluar grupos de interacciones (Murphy, 1977; López, 1988). Este tipo de diseño es muy útil y muy empleado en la etapa del Tamizado de Variables. Algo más recientemente se han comenzado a aplicar las Técnicas de Diseño Robusto de Taguchi ( ), también para un gran número de variables, las cuales a su vez toman como punto de partida diversos tipos de Diseños Ortogonales.
La precisión de un estimado de efecto principal, interacción o curvatura depende del número de datos que se utilice en dicho estimado, en unión a la magnitud del error de la respuesta . En un diseño 2n, se emplean todos las corridas para estimar los efectos principales y la interacción y por ello el experimentador debe de fijar el número total de corridas N requeridas para alcanzar la precisión deseada.
Para hacer esto, el experimentador determina el mínimo cambio de la respuesta que resulta de interés técnico en la investigación en particular que se está llevando a cabo, el que se denota por el símbolo . El experimento debe ser capaz de brindar esa respuesta, si existe, de manera tal que la misma pueda ser declarada estadísticamente significativa con un alto grado de probabilidad. Para esto se toma como base la relación /, desarrollada por estadísticos y mostrada en la Figura 5.19.
Figura 5.19 Número de
experimentos necesarios para un error de la respuesta dado (Murphy, 1977).
Del análisis de la figura se comprueba que si se quiere detectar un efecto igual al doble del error de la respuesta (/ = 2), se requieren alrededor de 14 corridas, la que se reduce a sólo 7 si el efecto a detectar es 4 veces el error y se eleva a 50, si por ejemplo, la respuesta a detectar está en el mismo orden de magnitud del error de la respuesta.
Si N es mucho más grande que el valor en el diseño que se ha escogido, basado en el modelo matemático adoptado, se hace necesario repetir, o replicar, el diseño entero una o más veces. El primer propósito de esa replicación es suministrar suficiente precisión para los estimados, pero un propósito secundario útil es suministrar un estimado más preciso del error de la respuesta (), el cual puede emplearse para determinar el tamaño requerido para los diseños sucesivos.
Para prevenir las tendencias sistemáticas de variables no controladas o desconocidas, durante la ejecución del diseño, es prudente realizar de forma aleatoria las distintas corridas. Esto se puede hacer utilizando cualquier proceso de generación de números aleatorios o mediante el empleo de boletas numeradas en una caja, las que se van extrayendo al azar y definen el orden del experimento.
También hay que considerar que las unidades experimentales no siempre son homogéneas y que pueden diferir producto de alguna variable no controlada conocida. Esta situación requiere que las unidades experimentales sean segregadas en bloques de unidades experimentales homogéneas. Cada bloque puede ser considerado como un nivel de una variable extraña o de bloque. Ejemplos de variables de bloque son las templas de materiales, el tipo de equipamiento, la estacionalidad, etc.
El tamaño del bloque es el mínimo número de experimentos disponible en un bloque. Si el tamaño del bloque es igual o mayor que la mitad de las corridas en un Diseño Factorial, Completo o Fraccionario, el factor de bloqueo puede incluirse simplemente como otro factor en el diseño.
Un elemento importante a considerar es el proceso de codificación y descodificación del nivel de los factores. Para el desarrollo del Diseño es conveniente, con vistas a asegurar la ortogonalidad del mismo, utilizar los niveles codificados de los factores (-1, 0, +1 y , según el caso) y posteriormente se necesita transformar esos niveles en los valores reales. Para ello se emplean las siguientes ecuaciones:
(5.11)
donde Xi es el valor codificado de la variable i, Vi es el valor real de la variable. A su vez Vn es el valor promedio de la variable en el intervalo, o sea :
(5.12)
y M es el módulo o recorrido de la variable que se calcula por:
(5.13)
Para llegar a este punto es necesario tener en cuenta los elementos estadísticos del Diseño de Experimentos que se han señalado anteriormente. Además se deben tener disponibles las siguientes informaciones:
1. Relación de las respuestas a ser estudiadas, junto con el estimado de cada error de respuesta .
2. Relación de los n factores a ser estudiados, junto con los rangos (niveles alto y bajo) de cada factor cuantitativo y lista de los niveles para cada factor cualitativo.
3. Planteamiento del problema a ser investigado junto con la selección del modelo matemático adecuado.
4. Mínimo número de corridas necesario para obtener la precisión requerida en los estimados del efecto de los factores.
5. Chequeo de la homogeneidad de las unidades experimentales y selección del esquema de bloques en el caso de que fuese necesario.
Todos esos aspectos tienen que ser definidos en la etapa inicial de familiarización, con lo cual se está en condiciones de pasar a las etapas siguientes o sea al tamizado de variables y la optimización. En el caso de la optimización resulta conveniente analizar una primera etapa de optimización gruesa y una etapa final de optimización.
El método a aplicar depende del número inicial de variables a considerar y del número mínimo de experimentos requeridos para obtener la precisión requerida. Los Planes Factoriales Completos se emplean hasta un máximo de 4 variables; para 3 o más variables y hasta aproximadamente 15 se pueden emplear los Planes Factoriales Fraccionarios y desde 5 , hasta un número que puede llegar a 100, se tienen disponibles los Diseños Saturados y los diseños de Plackett - Burman. En la figura 6. 18, se presenta el rango de aplicabilidad de los tres primeros (Factoriales Completos, Factoriales Fraccionarios y Diseños Saturados).
Con ese tipo de diseños se pueden estimar los efectos principales y el efecto global de curvatura y, en ciertos casos, grupos de interacciones. Después, en dependencia de los resultados experimentales, estos diseños se pueden aumentar para expandir el rango de los factores existentes y para estimar parámetros de modelos de orden mayor al segundo, en la etapa de optimización. De esa forma, las investigaciones pueden desarrollarse en etapas, y los objetivos experimentales pueden cambiar de acuerdo con los resultados de las etapas anteriores.
Durante esta etapa de tamizado de variables, el énfasis primario se hace en la identificación de los factores más importantes y como tarea secundaria se tiene la detección grosera de los efectos de segundo orden (curvatura e interacción), así como obtener mejores estimados del error de la respuesta para su uso en las etapas posteriores de la experimentación y estos objetivos se reflejan en el tipo de modelo seleccionado, el cual es siempre de primer orden, con la adición de los efectos de interacción y curvatura, los cuales se miden de forma indirecta, ya que no son considerados en el modelo.
Resulta evidente que la determinación de la manera de combinar los factores y niveles y la selección entre ellas de la variante más adecuada para cumplir con los objetivos de una investigación, no resulta fácil de determinar cuando el número de factores es mayor de tres, pero para facilitar esa tarea, así como la posterior evaluación de los resultados obtenidos, se cuenta con paquetes de programas estadísticos como el STATGRAPHIC que determinan de forma automática un grupo de combinaciones de factores y niveles necesarios, entre las cuales puede el investigador seleccionar la que mejor se adapta a sus necesidades.
Después de escogido el diseño por este método se comienza el proceso de tamizado de las variables. La operación de selección de las variables simplemente significa realizar pruebas de significación de cada coeficiente estimado en el modelo ajustado. Si un parámetro estimado no es significativamente diferente de cero, esto significa que las variaciones asociadas al factor, en el intervalo seleccionado para el experimento en cuestión , produce un cambio despreciable en la respuesta y por tanto ese factor no necesita ser considerado en la optimización posterior y puede por lo tanto ser eliminado.
Ahora bien, en este punto hay que tener en cuenta que un valor muy bajo de un coeficiente dado puede obtenerse también por las siguientes causas:
1. El nivel escogido para cada factor está cercano a un máximo condicional de la respuesta.
2. La magnitud del cambio para ese factor ha sido escogido desproporcionalmente pequeño.
La primera de esas causas será precisamente el criterio a utilizar en la búsqueda del óptimo en los pasos de aproximación iniciales, como se verá más adelante y la segunda muestra una vez más la importancia decisiva que tiene realizar desde el inicio una adecuada selección de la magnitud del cambio a efectuar en cada factor, o sea sus niveles.
Como ejemplo de esta etapa del Diseño de los Experimentos se tiene el trabajo realizado por Benítez y colaboradores (1995) para la selección de los factores más importantes en el proceso de obtención de hecogenina a partir de la fermentación del jugo de henequén. En ese trabajo se partió de siete factores, y se decidió estudiarlos en los niveles que se muestran en la Tabla 5.3.
Se aplicó un Diseño Saturado, con dos réplicas en el centro, con la ayuda del Statgraphics Versión 6.1 y se obtuvo que las variables significativas son la temperatura y la agitación, por lo cual se pudo pasar a la etapa posterior de optimización inicial y final.
En este caso particular, no fue necesario realizar la etapa de Optimización inicial debido a que los niveles escogidos para el tamizado estaban precisamente en la zona del óptimo, por lo cual se pudo pasar directamente a un Diseño Compuesto Central, para la realización del cual se conservaron los resultados obtenidos en el Diseño Saturado utilizado en el Tamizado (Benítez et al., 1995). (Los resultados obtenidos se verán en la Clase Práctica).
Tabla 5.3 Niveles del
Diseño de Exerimentos.
Factor |
Límite inferior |
Límite superior |
Unidades |
Tipo de levadura |
natural |
panadera |
- |
Inóculo |
0.01 |
0.015 |
% Vol. |
pH |
4 |
6 |
- |
Temperatura |
28 |
40 |
C |
Aire |
0.1 |
1.58 |
v.v.m. |
Tiempo |
24 |
48 |
h |
Agitación |
5 |
930 |
rpm |
Antes de llegar a esta etapa, el número de factores debe de haberse reducido a un máximo de tres o cuatro y preferentemente no más de tres. En ésta los Diseños Experimentales se construyen alrededor de los Diseños Factoriales Completos o Fraccionarios con un punto central único, aunque en muchos casos los propios diseños empleados en el Tamizado de Variables pueden ser también empleados para la etapa de optimización gruesa y pueden ser reanalizados en términos de los factores sobrevivientes al tamizado.
En esta etapa se utiliza el método del camino del ascenso más rápido, para lograr un acercamiento hacia el óptimo, mediante un modelo de primer orden, hasta alcanzar las cercanías de dicho óptimo y pasar entonces a la etapa de Optimización Final (Cox y Cochran, 1965;López,. R., 1988).
Como ejemplo se tiene la investigación realizada a nivel de laboratorio de una hidrólisis enzimática, en la cual se parte de un tamizado inicial de variables que arroja tres factores fundamentales, con los cuales se pasa a la escala de banco para realizar la Optimización Inicial aplicando los Diseños Factoriales Completos 2n. En este caso se aplicaron tres diseños 23, hasta que el último se amplió a un Diseño Compuesto Central, por presentar curvatura. No obstante, en esa región no se encontraba tampoco el óptimo, por lo cual debían continuarse los experimentos.
(Los resultados obtenidos se verán en la clase práctica)
Esta fase requiere un modelo cuadrático completo para predecir con precisión el punto de óptima respuesta:
(5.14)
donde m = n-1 y todos los términos del modelo deben ser estimados.
El tipo de diseño empleado en esta etapa es el Diseño Compuesto Central, el cual es básicamente un Factorial 2n aumentado con los puntos centrales y los puntos estrella. Además se pueden emplear también los diseños 3n y el diseño tipo Box y Behnken (Murphy, 1977), estando estas tres opciones disponibles en el paquete de programas Statgraphics Versión 6.1.
Para el análisis final del óptimo, resulta útil obtener el gráfico de la Superficie Respuesta, así como el Gráfico de los Contornos, los cuáles se obtienen también disponibles en el STATGRAPHIC. Como ejemplo se tiene el proceso de optimización final realizado durante una investigación para optimizar el medio de cultivo de Schizophyllyum commune para la obtención de la enzima xilanasa (Haldricht et al., 1993).
En ese caso también se partió del tamizado inicial y del proceso de optimización inicial, para finalmente alcanzar la región estacionaria donde estaba el óptimo. A manera de ejemplo se muestra la forma de la superficie rspuesta obtenida, para dos de los factores principales. El resto de los resultados se apreciarán durante la Clase Práctica correspondiente.
En la versión 6.1 para DOS de este software, se cuenta con la opción Experimental Design, dentro del Menú Quality. A su vez, Experimental Design presenta tres opciones: Screening Design, Surfase Response Design y Surface Response Plotting. Con la opción Screening Design, se realizan los Diseños Estadísticos de Experimentos para las fases de Tamizado de Variables y de Optimización Gruesa, mientras que con la opción Surface Response Design, se realizan los Diseños correspondiente a la fase de Optimización final. La opción Surface Response Plotting, es simplemente una facilidad gráfica para obtener tanto las superficies respuesta como el gráfico de los contornos para las funciones correspondientes, que se puede utilizar con independencia del Diseño de Experimentos, ya que dentro de las opciones tanto de Screening Design como de Surface Response Design, se cuenta también con las facilidades para ese tipo de gráficos, sin necesidad de ir a la opción Surface Response Plotting.
El uso de este sofware se ilustrará con los ejemplos en el Laboratorio y clase práctica correspondiente, para lo cual se emplearán las aulas especializadas de computación.
1- Programa SIMULFERM para simular la realización de los experimentos, de forma tal de poder aplicar las técnicas estudiadas en casos diferentes a los ejemplos mostrados.
2- Ejemplo de aplicación del BioPro Designer.
En los procesos de la industria química se han empleado las plantas de escala pequeña con dos propósitos principales: como precursores de una planta de producción a escala completa, que no ha sido aún construída, y para estudiar el comportamiento de una planta de producción existente, de la cual la unidad pequeña es una reproducción.
En el primer caso se acostumbra denominar las plantas pequeñas como plantas piloto y en el segundo caso se les denomina plantas modelo, aunque en realidad esta distinción no tiene mucha importancia práctica. En muchas ocasiones una planta piloto se mantiene funcionando aún después que se ha construído y puesto en marcha la unidad comercial de la que fue precursora y pasa entonces esa planta pequeña a trabajar como planta modelo. A su vez, muchas plantas modelo se utilizan para desarrollar variantes del proceso que modelan y llegan por tanto a ser precursoras de una nueva planta o de la remodelación profunda de la planta industrial existente.
Además, desde el punto de vista de la Teoría de los Modelos y el escalado, no es importante si el prototipo existe antes o después que el modelo y los procesos de scale-up y scale-down no son más que partes de un único proceso de escalado (Capítulo 1). Por todo lo antes expuesto y considerando la mayor complejidad de la tarea de desarrolar (o utilizar) una planta a escala pequeña como planta piloto, este capítulo tratará en especial de ese tipo de plantas, con lo cual se cubren también los objetivos requeridos para el desarrollo y utilización de las plantas modelo.
Desde el inicio de la Ingeniería Química como profesión, fue aceptado el principio de la obligatoriedad de la realización de experimentos a una escala mayor que la del laboratorio, pero inferior a la industrial (20) y las instalaciones en las que se realizaban las experiencias se denominaron primero semi-plantas y después plantas piloto (28).
En los primeros tiempos las semi-plantas o plantas piloto constituían versiones miniaturizadas de las instalaciones industriales y los métodos de diseño con que se contaban, basados en conocimientos muy limitados de los procesos de transferencia de calor y masa, impedían realizar un salto de escala apreciable y el desarrollo se tenía que hacer en una serie de etapas sucesivas, comenzando con los experimentos de laboratorio y siguiendo con un trabajo intenso en la escala de banco y varias etapas de plantas piloto, lo que constituía un proceso lento y caro (22).
Ya en la década del 50 se comenzó a hablar de dos definiciones diferentes de plantas piloto: para algunos, un modelo a escala pequeña de una planta a escala comercial, completo hasta el enésimo grado; para otros, un conjunto de partes normalizadas de equipos que se interconectan para conformar una unidad integrada capaz de producir el efecto final deseado, simulando el rendimiento de la unidad de producción prevista (21).
La segunda de las definiciones anticipa ya el concepto moderno de planta piloto multipropósito, mientras que la primera nmantiene el concepto original de planta piloto como unidad que debe remedar la totalidad de la planta a escala complerta, de acuerdo con la concepción de miniaturización, que la práctica ha demostrado innecesaria (4, 20, 22, 28, 33).
Desde el punto de vista actual, una planta piloto es una planta de tamaño intermedio, entre el laboratorio (y el banco) y la industria, que modela el proceso de interés, construída y operada de forma que permita probar ese modelo en una forma más conveniento y menos cara, minimizando los efectos de las operaciones inesperadas. Ese tipo de planta debe ser considerada, usando la terminología actual de escalado (Capitulo 1), una versión de escala descendente (scale-down) de la planta final esperada o al menos de sus porciones críticas y no una versión escalada ascendentemente (scale-up) a partir de los equipos de laboratorio (2, 12, 20, 29).
En esta definición no es necesario precisar el factor de escala requerido, ya que esa decisión debe tomarse en la etapa de diseño, pero el requisito es que tiene que ser seleccionado de tal forma que los resultados obtenidos en la planta piloto puedan ser realmente extrapolados a la escala industrial, o sea que la planta piloto sea escalable. Incluso puede darse el caso de que en un proceso sea necesario más de un paso entre el laboratorio y la planta industrial, lo que está en dependencia del nivel de conocimientos que se tenga sobre el proceso, sus características específicas y el tamaño que debe tener la unidad industrial (22, 28, 36, 37, 39).
Las partes del proceso a escala industrial, que deben formar parte de la planta piloto, también es otro elemento a ser decidido en la etapa de diseño. Esa decisión debe variar caso a caso y puede ir, desde el enfoque más conservador de modelar el sistema completo, hasta la decisión de eliminar totalmente la escala piloto, pasando directamente a la escala industrial.
Existe también la posibilidad de complementar el trabajo de las plantas piloto con el empleo de modelos a gran escala (mockups), por lo cual es más adecuado aplicar el concepto general de etapa, nivel o escala piloto y englobar en el mismo el uso de las plantas piloto. en sus diversas variantes y los mockups (36, 37).
En su conjunto, la etapa piloto se opera con los objetivos siguientes (Capítulo 1):
1- Probar la factibilidad y confiabilidad de un proceso
2- Obtener información de diseño
3- Obtener cantidades de producto con fines de ensayo y promoción
4- Corroborar las teorías sobre los mecanismos de los procesos
5- Obtener conocimiento y dominio (know-how) del proceso
6- Ganar experiencia en la operación
7- Obtener datos sobre tatamiento de residuales y preservación demedio ambiente
8- Probar materiales de construcción
9- Probar métodos de análisis de procesos y control de calidad.
10- Entrenar el personal
11- Evaluar nuevos equipos y sistemas tecnológicos
Como regla las plantas piloto cuestan caro. Para estimar su costo se pueden utilizar factores de escalado descendente para los costos de los equipos, aunque esto no resulta normalmente un método satisfactorio, puesto que no se logran, ni se desean, equivalencias exactas de diseño entre los equipos industriales y los de escala piloto (24).
Analizando la experiencia acumulada se puede apreciar que el costo de las plantas piloto depende de la escala de operación, la cantidad de instrumentación, el tipo de planta y muchos otros factores y que si aún el costo fuese sólo un 10% de la planta completa, el mismo representa una cantidad considerable de dinero, en el rango de millones de dólares (28).
A manera de ejemplo se tienen los costos de algunas plantas piloto construídas por la firma especializada Xytel Corporation, de los Estados Unidos (40), los que oscilan desde 4 000 000 USD para una planta de desarrollo de procesos de hidrogenación agro-química de alta presión, hasta una pequeña planta piloto para evaluación de procesos de catálisis heterogénea con sistema de control por microcomputadora, a un costo de 180 000 USD.
Sin embargo estas cifras no son desproporcionadas, si se considera lo que puede ocurrir si una instalación industrial se construye a partir de la suposición de que el proceso desarrollado a nivel de laboratorio va a funcionar de acuerdo a lo esperado en la escala industrial y presenta en la práctica serios problemas durante la puesta en marcha, los que además de prolongar considerablemte ese periodo, provocan que se tenga que paralizar la misma para rediseñar la planta, cambiar equipos y realizar por ende una gran cantidad de gastos. Esa situación provoca de seguro un nivel de gastos muy superior al 10% del valor total de la planta (28).
La pérdida de producto, la irreparable pérdida de tiempo en poner un producto en el mercado y el disgusto de la alta dirección, son elementos más que suficientes para justificar los gastos que aseguren una puesta en línea de la planta, rápida y correcta y si bien el diseño y la operación correcta de una planta piloto no puede garantizar al 100 % por si sola una puesta en marcha adecuada, con ello se gana un gran trecho en el sentido de incrementar la probabilidad de que esto ocurra.
No obstante, el costo de las plantas piloto resulta en general alto y es por ello de suma importancia analizar de qué depende fundamentalmente ese costo, de manera tal que se puedan tomar las medidas correspondientes para reducirlo al mínimo imprescindible.
Para tener una idea más concreta de las causas que hacen la construcción y operación de una planta piloto tan cara, se analizarán a continuación los principales elementos que influyen en dicho costo:
Los equipos pequeños, capaces de ser escalados por métodos de ingeniería establecidos, pueden ser muy caros (14). A pesar de que tales equipos no tienen que ser una versión miniaturizada exacta, deben de ser capaces de modelar aquellos parámetros críticos para el proceso, tales como el tiempo de residencia, la relación de área de intercambio de calor con el volumen, la equivalencia en el contacto líquido-vapor, la equivalencia hidráulica, la relación del diámetro del impelente con el del recipiente, la capacidad de bombeo por unidad de volumen y otras relaciones similares, incluyendo en algunos casos equivalencias de grupos adimensionales, lo que encarece considerablemente estos equipos (28).
En los inicios del empleo de las plantas piloto sólo se necesitaba un termopar en el líquido, otro en el espacio de vapor, un manómetro en el reactor y un amperímetro en el motor del agitador. Entre otras cosas, determinaba el hecho de que no se disponía de tiempo para graficar más puntos o correlacionar más variables.
En la actualidad, sin embargo, las capacidades modernas de procesamiento de datos hacen posible recolectar, registrar y correlacionar cientos de datos en la unidad de tiempo; emplear esa información para controlar el proceso y hacer que la misma esté disponible para el diseño de la planta. Por esta causa la tendencia actual es medir prácticamente todo, de manera de estar seguros que no se olvida ningún evento crítico.
Todo eso tiende a ser caro y frecuentemente llega a ser tan caro como su contraparte a escala completa. Los sensores, indicadores, transmisores, controles, recolectores de datos y computadoras cuestan prácticamente lo mismo si se emplean en una pequeña unidad piloto o en una unidad de producción, aunque se producen algunos ahorros debido al número de unidades empleadas, la longitud de las corridas de transmisión, el empleo de instalaciones temporales, etc. (28, 41).
La selección del personal para dirigir y operar una planta piloto debe ser muy cuidadosa, en consideración a la naturaleza especial de este trabajo, que trata siempre con procesos de producción novedosos, de los cuales no hay experiencia previa. Al frente de la planta debe estar un jefe de proyecto, el cual debe ser una persona a la cual le sea familiar tanto el proceso químico como el equipamiento, capaz de supervisar la operación de la planta en su conjunto (Figura 5.1).
Al equipo de dirección de la planta debe incorporarse un químico que haya sido miembro del equipo de investigación de laboratorio que trabajó en esa etapa, de forma tal que el mismo pueda dar asistencia diaria en cualquier problema relacionado con su especialidad, sobre todo si la química del proceso es muy compleja, si hay procedimientos especiales de operación y si hay involucrados riesgos no comunes. Esta persona deberá ser un puente entre el colectivo que realizó el trabajo de laboratorio y el que se encarga del trabajo a escala piloto.
Para la supervisión directa del proceso debe haber un cuadro de ingenieros de proceso, cuyo número estará en dependencia del número de turnos que trabaje la planta en un día. Por ejemplo, si la misma trabajará solamente de 6 a 10 horas por día y si es sólo de moderada complejidad, bastará con un solo ingeniero, pero si es una planta continua y que consiste en una cadena de equipos, se necesitarán entre 6 y 9 ingenieros.
La tarea de esos ingenieros es asegurar que: se controlen adecuadamente las corrientes de alimentación; funcionen correctamente las bombas y otros equipos auxiliares; las temperaturas, presiones, niveles, amperajes y flujos estén en los valores fijados apropiados y que en general, cada cosa esté funcionando como fué diseñada. Entre sus funciones puede estar también la ejecución de operaciones manuales de los equipos y de hecho los ingenieros de proceso pueden hacer la mayor parte de la operación de la planta piloto, en dependencia de la magnitud y complejidad de la misma.
No obstante lo anterior, casi siempre es necesario contar con personal de operación, los cuales debe ser preferentemente técnicos calificados y su número estará en dependencia también del tipo de proceso y la complejidad del equipamiento. Para esta definición es de gran ayuda poder contar con una planificación previa de los experimentos, en la cual se hayan analizado con cuidado las diferentes tareas que hay que cumplir, ya que así se está en condiciones de definir cuántos operadores son necesarios para que la planta funcione correctamente y de forma segura.
En la práctica es preferible estimar en exceso el personal necesario para la puesta en marcha de la planta piloto y si después se comprueba que no todos son necesarios, pasar los excedentes a otras labores, que correr el riesgo de no contar con rapidez con el personal necesario ante cualquier contingencia.
Finalmente es aconsejable, contar con por lo menos un especialista de mantenimiento asignado a la planta e incluso más de uno si se trata de una planta compleja que funciona las 24 horas del día. El hecho de que la planta piloto es una configuración experimental de equipos en la cual, sin dudas, será necesario realizar cambios durante el desarrollo de los trabajos, sobre todo en la etapa inicial del proyecto, hace mayor la necesidad de contar con un personal de mantenimiento propio.
El resultado de esta concentración de personal altamente calificado es un elevado costo de operación, pero esto obviamente es imprescindible si se quiere garantizar a la planta la mayor posibilidad de éxito. Escatimar en la fuerza de trabajo, ya sea por su elevado costo o por una supuesta falta de disponibilidad, tendrá el mismo efecto que hacerlo con el equipamiento o la materia prima: una marcada reducción de la probabilidad de lograr los resultados esperados con el funcionamiento de la planta piloto.
De hecho, si el programa de experimentos previsto para el tiempo de funcionamiento de la planta no llegara a cumplirse por no haberse operado correctamente la misma y fuese necesario por ello realizar trabajos de pilotaje adicionales, el incremento de los costos será mucho mayor que lo que pueda significar el haber contado inicialmente con una mayor cantidad y calificación del personal de dirección y operación de la planta.
El costo de las materias primas y de la eliminación de los subproductos indeseables y de las producciones fuera de especificaciones puede llegar a ser considerable. Aún una pequeña planta piloto discontinua puede consumir materias primas a una velocidad sorprendente, si se compara con los trabajos de laboratorio y de banco y esto es mucho más intenso en el caso de las unidades mayores y de operación continua.
Además, si se necesita obtener una cantidad predeterminada de producto dentro de especificaciones para realizar posteriormente pruebas de campo, evaluación de mercado o de aceptación por el cliente, se deben considerar grandes factores de seguridad de, por ejemplo 10 veces el índice previsto, para compensar las corridas que se pierden por diferentes causas, los rendimientos menores que los esperados y las producciones fuera de especificaciones. Esto puede significar grandes cantidades de materias primas que deben ser almacenadas antes del inicio de las corridas piloto y grandes cantidades de desperdicios que deben ser eliminadas en una forma segura y de acuerdo a las disposiciones legales.
En los casos en que la operación inicial de una planta piloto se realice dentro de las instalaciones de un laboratorio o centro de
investigación, la necesidad de tener que almacenar decenas de recipientes de 200 litros donde con anterioridad era suficiente contar con algunas botellas de 500 gramos de producto de laboratorio, crea serios problemas y hace necesario una cuidadosa coordinación entre el jefe de la planta piloto y el encargado de garantizar los suministros, con el fin de lograr la minimización de la necesidad de almacenaje.
El desarrollo del trabajo puede conducir a resultados que pueden ser sorprendentes, como el hecho de que el costo de la disposición de los residuales llegue a exceder el de la materia prima y para tratar de evitar ese tipo de sorpresas, resulta conveniente realizar, antes de la puesta en marcha, un análisis exhaustivo de las corrientes residuales que se esperan y de las posibilidades existentes para su tratamiento, de forma que se pueda contar con los planes necesarios. Se deben emplear para estos análisis los grupos de especialistas en tratamiento de residuales que tenga la organización que dirige el proyecto e incluso se puede contratar a firmas especializadas en este tipo de tareas para explorar los costos del tratamiento y disposición final de los residuales, con la antelación suficiente.
Además de estos factores principales, hay otros como son las necesidades de: espacio de almacenaje adicional, facilidades auxiliares, equipos de seguridad especializados, grupos de apoyo (analistas, ingenieros, personal de oficina, procesamiento por computadoras,etc.) y contenedores para los productos y residuales, los que contribuyen a elevar considerablemente estos costos.
Sin embargo, todos estos costos en la planta piloto muy raramente llegan a ser más del 10% del costo global de la planta de producció de escala comercial y son los más seguros contribuyentes al éxito de la planta comercial (28).
Existen dos tipos fundamentales de plantas piloto, las llamadas plantas piloto multipropósito y las de tipo específica o unipropósito (28). Hay autores que señalan otro tipo más de planta, las de tipo general (29), aunque realmente las de tipo general no son más que una variante de las multipropósito, por lo cual en este texto se considerarán solamente los tipos.multipropósito y unipropósito.
Este tipo se caracteriza por una instalación o edificio, con el nombre genérico de "planta piloto", lleno de equipos de proceso pequeños (tanques, reactores, columnas, intercambiadores de calor, centrífugas, secadores, bombas, etc.) disponibles todos para unirse en la configuración deseada para en los trabajos específicos (1, 3, 10,17).
Esas facilidades para pruebas son especialmente útiles para operaciones discontinuas y programas de objetivo único. Como regla general los tamaños de los reactores están en el rango desde 20 a 2000 litros, las columnas entre 100 y 300 mm de diámetro y los materiales de construcción son principalmente, acero inoxidable y acero recubierto con vidrio. En ocasiones se instalan también unidades de destilación totalmente de vidrio y se cuentan con equipos especializados como tubos de intercambiadores de calor de tántalo, reactores recubiertos con titanio y equipos con aleaciones especiales, aunque generalmente este tipo de equipamiento han quedado de plantas pilotos anteriores.
Las plantas mayores de este tipo se hallan en Europa, para las cuales se han construído grandes edificios con todas las facilidades auxiliares disponibles en su conjunto y están provistas de filas de reactores, de diferente tamaño, normalmente de acero inoxidable o acero recubierto con vidrio, con conjuntos de distilación individuales, tanques de alimentación y recepción, bombas, instrumentación, aparatos de separación, secadores de diverso tipo y los medios necesarios para interconectar prácticamente cualquier
cosa.
Ese tipo de plantas resulta muy cara en su concepción inicial, pero después de construída, cubre prácticamente todas las necesidades posibles de los ingenieros de plantas piloto y, cuando es necesario realizar una corrida de planta piloto en específico, los gastos en equipos son prácticamente nulos, limitándose a alguna reconstrucción de tuberías.
El uso de este tipo de plantas lleva a la necesidad de que los equipos cumplan diferentes tareas en diferentes proyectos y para ello hay que tener en cuenta dos puntos importantes:
1- Hay que asegurarse que cada configuración tenga todos los dispositivos de seguridad necesarios para cada reacción específica. Por ejemplo: ¿Están los discos de ruptura o válvulas de seguridad ajustadas para que accionen a la presión requerida y son del diámetro correcto? ¿Existen restricciones en la línea de venteo o es ésta demasiado larga? ¿Puede suministrar el condensador de la columna, la carga de enfriamiento esperada? ¿Se cuenta con sistemas secundarios de seguridad tales como sistemas de drenaje total rápido o de enfriamiento súbito (quench)? ¿Puede este equipo operarse de forma segura con independencia de cómo se desarrolle la reacción química?
2- Hay que estar seguro de que la instalación esté suficientemente instrumentada para que pueda dar los datos de diseño necesarios. Normalmente las instalaciones permanentes tinen los sensores para indicar, registrar o controlar la temperatura de la chaqueta de los reactores (mediante vapor o flujo de un medio de enfriamiento y calentamiento), temperaturas internas, presión interna, caída de presión a través de la columna, temperatura en el tope de la columna y temperatura de salida del condensador y ocasionalmente se mide también la potencia del agitador. Cuando se tiene dsponible instrumentación adicional es porque quedó instalado de un trabajo anterior de la instalación.Cuando se analice lo relacionado con la instrumentación que se requiere se debe tener en cuenta los requisitos con relación a la velocidad, sensibilidad y precisión de la respuesta de los instrumentos; localización de los puntos sensores; selección entre indicación local o remota; velocidad de búsqueda y análisis de la información y las funciones de control que se requieren.
En una planta piloto específica o unipropósito, los equipos se instalan y se interconectan con tuberías para realizar el trabajo específico requerido por el proyecto, de manera muy similar a como estaría montada la planta a escala comercial.
Un ejemplo de planta piloto específica puede ser una instalación experimental para probar el proceso de obtención de un nuevo polímero y a la vez producir cantidades apreciables de dicho producto (5, 13, 32). Esta planta debe consistir en un reactor diseñado especialmente para producir el monómero, un sistema de reciclo de productos intermedios, una sección de recuperación de solventes, una cadena de purificación, la sección de polimerización, el secador, el equipo de reducción de tamaño y los dispositivos para la manipulación de los materiales y su embalaje.
En ese caso se construye una versión muy especial a pequeña escala, de la planta grande, o sea un verdadero modelo, lo cual resulta obviamente más caro que unir diferentes piezas de una planta multipropósito. Sin embargo, este modo de proceder tiene algunas ventajas reales, como son:
1- El escalado ascendente (scale-up) será más directo, debido a la semejanza del equipamiento utilizado.
2- El entrenamiento de los ingenieros de plantas y supervisores será más realista y útil.
3- La planta piloto quedará disponible para más trabajo experimental cuando la planta a escala total entre en funcionamiento, lo que permite su empleo para resolver problemas específicos del proceso, incluso empleando corrientes reales de la planta.
4- La unidad específica puede ser montada sobre esquíes y transportada hasta el lugar donde se instalará la planta definitiva para entrenamiento del personal y para la solución de problemas.
5- El personal de dirección puede ser más comprensivo con el costo y necesidad de la planta piloto si puede visualizar la relación física entre la planta piloto y la planta grande.
La seguridad de la operación es la consideración más importante en relación con el diseño de una planta piloto, mientras que la segunda condición más importante es la calidad de los datos que son generados por la planta (Xytel, 1994)-. No obstante, de forma general se pueden considerar que las principales bases para el diseño, o sea las que definen cómo y porqué se diseñan las plantas piloto del modo en que se hacen (11. 25, 28, 29), son las siguientes:
Para este objetivo es muy importante que:
1. La planta piloto se diseñe de forma tal que permita asegurar una operación sin contratiempos y que, si eso no se alcanza de inicio, sea factible realizar modificaciones a los equipos y a las tuberías para resolver los problemas de índole puramente operacional.
2. Los datos requeridos se seleccionen adecuadamente y se instrumente la planta piloto de manera que pueda generar dichos datos. Para poder tomar informaciones útiles, se debe haber decidido previamente la frecuencia de las mediciones, la precisión aceptable, los requerimientos de transmision y la reducción y correlación de los datos. Para los parámetros críticos puede ser necesario considerar una instrumentación redundante (sensores duplicados, mediciones locales además de indicadores remotos o registradores, etc.) y no deben olvidarse los datos necesarios para calcular o chequear la cinética, los mecanismos de reacción y los cálculos de rendimiento.
3. Se hagan las consideraciones necesarias para asegurar la escalabiliad de los resultados de manera de saber si, por ejemplo, el reactor puede ser escalado por su relación longitud/diámetro, por el tiempo de residencia, por la potencia de agitación o por la relación de área de transferencia de calor/volumen y si los regímenes de flujo serán iguales en ambas escalas.
Los productos obtenidos en la planta piloto se pueden usar en una gran cantidad de vías: para chequear la pureza obtenida; para suministrar muestras para clientes potenciales; para suministrar muestras de campo para pruebas a gran escala, para realizar estudios toxicológicos y ambientales, etc. Incluso en ocasiones el producto de una planta piloto se emplea como alimentación de otra planta piloto, en una operación diferente.
La importancia de que se pueda alcanzar la producción con la calidad requerida y con los redimientos esperados se comprueba con el hecho de que, en la mayoría de los casos, las proyecciones de costo se realizan a partir de los estimados de rendimiento realizados en el laboratorio y todo el proyecto puede ser abortado si en las corridas de la planta piloto no se obtienen rendimientos que igualen o superen a los previstos en el laboratorio.
Es por ello imperativo que los rendimientos de las distintas etapas y la eficiencia en la utilización de las materias primas se midan con precisión y exactitud y para ese objetivo se requiere que la planta piloto esté instrumentada adecuadamente y permita obtener datos confiables de los balances de materiales. Los requerimientos en este sentido van desde el caso más simple en el cual es suficiente contar con básculas exactas para las materias primas y los productos, hasta los casos en los cuales los balances de materiales no brindan la información adecuada a menos que se empleen flujómetros altamente sensitivos acoplados con equipos de análisis químico en línea (30).
Finalmente, lo más importante es que los valores de calidad del producto y rendimiento se obtengan de un proceso que simule realmente al proceso final, de escala industrial.
Los problemas típicos de la escala pequeña, que deben ser evitados en la etapa de diseño de la planta piloto, son los siguientes:
1. Obstrucciones de líneas que ocurren cuando se emplean tuberías y conecciones muy pequeñas.
2. Congelamiento de líneas debido a las dificultades o a la imposibilidad de aislar o proteger con trazadoras tuberías muy pequeñas.
3. Dificultades en la transportación a escala pequeña de materiales, principalmente en el caso de los sólidos. Dificultades con el escalado descendente de la instrumentación.
El secreto está en saber reconocer estas fuentes de problemas y evitar caer en ellas, aunque en ocasiones no es posible evitar que ocurran y en ese caso la solución es rediseñar y construir nuevamente la sección que confronte este tipo de problemas. Para reducir el riesgo de caer en esta situación, debe tenerse un cuidado especial con los siguiente aditamentos y equipos:
1. Las válvulas de aguja son fuente perpetua de problemas en sistemas en los que se manipulen sólidos o los mismos puedan aparecer durante la reacción. Hay que tener en cuenta que aunque las mismas garantizan un trabajo muy preciso en sistemas limpios, tienen un área de paso muy pequeña y es preferible seleccionar válvulas de bola de gran porte, a pesar de que puedan ser sobredimensionadas con respecto a la tubería a la
2. que van a estar conectadas.
3. Los accesorios de tuberías (fittings) pueden causar taponeamientos y deben ser evitados en los sistemas que manejan sólidos o se deben colocar de forma tal que sea posible limpiarlos con facilidad.
4. Algunos medidores de flujo, como los rotámetros y los del tipo turbina, son magníficos para la escala industrial pero están llenos de problemas en los sistemas pequeños y sucios. La lectura obtenida de los mismos será cuestionable si ocurre obstrucción parcial de los orificios o si las propelas o flotadores se cubren de depósitos.
5. Los tubos sumergidos empleados para toma de muestras tienen tendencia a obstruirse y aunque la colocación de pequeños coladores en su parte inferior puede resolver este problema, lo mejor es emplear siempre las tomas de muestra de tipo positivo y emplear siempre que sea posible tuberías colocadas en el fondo de los recipientes, de manera tal que la carga del líquido favorezca su salida.
6. Los dispositivos para la alimentación de sólidos en escala muy pequeña tienden a presentar problemas con la exactitud de la medición si los sólidos están húmedos, son higroscópicos o tienen tendencia a compactarse o aglomerarse. Es casi siempre mejor alimentar soluciones en lugar de sólidos o lodos, por lo cual debe tratarse de disolver la materia prima en cuestión para después alimentarla al reactor con una bomba de medición convencional.
De ser posible, con la única exepción de unos pocos indicadores locales, los instrumentos deben ser montados en un panel separado del sistema de la planta piloto y preferentemente en forma de un panel semi-gráfico. Esa decisión inicial se justifica por las diversas ventajas que tiene:
Hay menos peligro y dificultad para el operador que tiene que recolectar los datos, ya que no tiene que tener contacto con superficies calientes ni pasar trabajo para acercarse a los instrumentos de medición.
Se pueden leer todos los instrumentos por más de una persona a la vez, de forma confortable y eso asegura que los mismos sean revisados más a menudo.
Mientras una persona ajusta alguna parte de la planta piloto, otra puede observar los instrumentos para chequear si la respuesta es correcta, lo que es especialmente conveniente cuando la planta piloto está en control manual y se debe ajustar un flujo crítico o cualquier otra variable importante.
Cuando se requiere instrumentación redundante, los indicadores locales se pueden dejar en la propia instalación piloto y los remotos se colocan en el panel.
Se pueden mantener mejor los instrumentaos cuando están separados del sistema de reacción. Esto permite también realizar la reparación de algunos instrumentos sin tener que paralizar la instalación piloto.
Si el proceso a pilotear es peligroso, es especialmente importante contar con un panel de instrumentación remoto, que permita crear condiciones más seguras para los operadores. Además, en la mayoría de los casos es más barato unir todos los instrumentos en una cabina única protegida con gas inerte que mantener cada uno de ellos en el proceso, en condiciones a prueba de explosion.
Esto significa que las averías mecánicas deben ser minimizadas y para ello debe realizarse un trabajo previo considerable para identificar tantas situaciones problemáticas potenciales como sea posible. Cuanto más preparado se esté anticipadamente, en mejores condiciones se estará para resolver los problermas que se presenten, a tiempo y de una manera ordenada.
Se debe estar preparado para responder preguntas como éstas:
-¿Qué hacer si la reacción química no se desarrolla como se espera?
-¿Qué ocurre si no se puede subir (o bajar) a la temperatura requerida en el tiempo previsto?
-¿Qué pasa si no se pueden alimentar las materias primas en el período de tiempo requerido?
-¿Qué ocurre si no se puede extraer el producto?
Este tipo de preguntas relacionadas con el proceso son tan importantes como las preguntas comunes de los manuales de operación acerca de lo que se debe hacer ante una falla de energía eléctrica, agua de enfriamiento, aire de instrumentación o vapor. El estar preparados con antelación para responderlas y por lo tanto para actuar en consecuencia, es una garantía para evitar las complicaciones que provocan interrupciones en la operación.
El estudio detallado de las posibles complicaciones y la forma de prevenirlas y resolverlas con rapidez cuando ocurran, permite confeccionar un programa realista, tanto del proceso de construcción y puesta en marcha de la planta piloto, como del desarrollo de las distintas corridas experimentales previstas.
En ese programa debe contemplarse el diseño de la instalación, la compra de los equipos. el calendario de recepción de los mismos, la construcción y el montaje, confección del manual de operación, entrenamiento de los operadores, programación de las corridas experimentales, análisis de los datos, paradas para mantenimientos rutinarios e imprevistos, repetición de experimentos críticos, confección de los informes, operaciones de limpieza, etc. Ese programa no debe ser demasiado optimista y considerar los posibles problemas que se pueden presentar.
El contar con un programa adecuado, aprobado por todos, evita que se someta la operación de la planta piloto a presiones excesivas con relación al tiempo de ejecución de las tareas. Hay que tener en cuenta además que realizar una operación piloto de forma precipitada puede traer como consecuencia que se pasen por alto
detalles importantes, se pierdan datos, se afecte la calidad del producto, se pierda tiempo y se llegue a afectar la moral del colectivo, además de comprometer incluso la seguridad de la operación.
En la definición de planta piloto se excluyó la precisión del factor de escalado, por ser éste un elemento a precisar en la etapa de diseño de la misma. El factor de escalado debe satisfacer los requerimientos de datos de diseño, los requerimientos de preparación de las muestras requeridas del producto, las expectativas de la dirección y el buen sentido del ingeniero de proyecto.
Normalmente los cuatro factores se tienen en cuenta a la hora de definir el factor de escala que tendrá la planta, aunque uno o dos de ellos sean más importantes que los demás. También hay un quinto factor mucho más pragmático que puede resultar decisivo en muchos casos y es el tamaño del equipamiento disponible.
Lo fundamental el lograr que la planta piloto sea suficientemente grande para que pueda servir de indicador del costo y la calidad del trabajo requerido para la operación comercial del proceso (4, 33), para que pueda hacer visibles aquellas perturbaciones que se pueden enmascarar en la escala pequeña como son las exotermias moderadas, los cambios temporales en la viscosidad y fenómenos de cambios de fase y también para prevenir problemas de manipulación de sólidos y lodos, especialmente en lo relacionado con las tuberías de transferencia. A la vez, la planta debe ser razonablemente pequeña de manera de poder minimizar las materias primas requeridas y los residuales producidos y, en algunos casos, los inventarios en proceso.
También las limitaciones físicas pueden llegar a determinar el tamaño de una planta piloto. Por ejemplo, puede ser importante que la operación se realice en un espacio dado, como puede ser una celda de prueba a alta presión o que se necesite que la planta sea transportable para que pueda ser eventualmente trasladada al lugar de la planta comercial (12, 15).
Finalmente hay que lograr que la planta piloto sea realmente escalable. No tiene sentido construir una planta piloto tan pequeña que se puedan tener dudas acerca de la validez de los datos obtenidos para el escalado de la planta de produccion. Hay que considerar también que muchos de los datos requeridos para el diseño son obtenibles perfectamente en el banco y lo que se necesita es comprobarlos en equipos más grandes. También hay datos que se pueden obtener solamente en los modelos a gran escala (mockups), y por ello no es necesario tenerlos en cuenta en el diseño de la planta piloto.
En resumen, y sobre todo si el objetivo principal de la planta piloto es obtener datos de diseño, la planta debe construirse de los equipos escalables más pequeños posibles, de forma que se minimice tanto la inversión inicial como los costos de operación (7, 26).
Si bien en el laboratorio y en el banco se trabaja con incógnitas, en la planta piloto ocurre lo mismo, pero en una escala mucho mayor, lo que incrementa considerablemente los riesgos. Peligros potenciales que en el laboratorio y en el banco pueden ser pasados por alto u omitidos, pueden resultar desastrosos en la operación a escala piloto. En estas operaciones se prueban nuevas tecnologías, se aplican nuevos conocimientos químicos, se trabaja en áreas nuevas y por tanto se requiere de la mayor precaución para garantizar una operación segura.
Independientemente de cuan simple o sofisticada sea una instalacion piloto, siempre se deben hacer frente a peligros físicos y químicos potenciales en una escala nunca probada anteriormente, lo que puede incluir sólidos pirofóricos, líquidos corrosivos, productos químicos tóxicos, reacciones exotérmicas, mezclas explosivas, etc. (19, 25, 26). Además de esos riesgos, más apreciables y entendibles, puede haber otros riesgos asociados con la operación propiamente dicha: instrucciones de operación insuficientes, instrucciones mal interpretadas, uso de equipamiento impropio, zona de trabajo abarrotada de obstáculos diversos. mal organizada y atendida y descuidos en general.
Por todo esto resulta de vital importancia establecer una adecuada política con relación a la seguridad y desarrollar las reglas y regulaciones necesarias. También resulta decisivo que esas políticas sean desarrolladas y que cada miembro del equipo, desde el jefe del proyecto hasta el operador o técnico de turno, se adhiera a las mismas y mantenga una actitud orientada hacia la seguridad (6, 18, 27, 28).
Desgraciadamente, a pesar de la existencia de manuales de seguriad voluminosos, ocurren accidentes evitables. Cuando esos accidentes se investigan, muchas veces se encuentra que sus causas y formas de prevenirlos no estaban consideradas en dichos manuales. Muchos son debidos a errores humanos como descuidos, desantenciones, omisiones, falta de comunicación e incluso simple desconocimiento de lo que puede ocurrir (15).
Para reducir estos problemas, la seguridad debe tenerse en cuenta desde el mismo comienzo del proyecto, en la etapa de laboratorio y de banco y debe ser uno de los aportes que los ingenieros hagan en los equipos multidisciplinarios que deben organizarse desde esa temprana etapa (Capitulo l). La revisión cuidadosa de los datos obtenidos en esas etapas, principalmente la cinética química y las características térmicas diversas, tiene un peso fundamental en la previsión de los posibles riesgos de la etapa piloto.
Hay que tener en cuenta que cualquier derrame pequeño de líquido de un recipiente de vidrio, provocado por un borboteo del líquido reaccionante, puede tener consecuencias desastrosas si ocurre en un reactor enchaquetado de 20000 L. Por consiguiente se deben analizar cuidadosamente etapa por etapa, detalle por detalle, todas las corridas experimentales realizadas, para estar seguro de poder detectar cualquier situación que pueda generar un peligro en la escala piloto.
No se puede comenzar un programa de pruebas a escala piloto si no se ha realizado ese análisis exhaustivo y la mejor vía para asegurar una transferencia adecuada de la información de las etapas de laboratorio y banco a la etapa piloto, es mantener la participación activa durante todas esas etapas de investigación, de al menos uno de los ingenieros que posteriormente trabajarán en la planta piloto. Ese ingeniero deberá asegurar que se pueda obtener el tipo de información necesaria para garantizar la seguridad y que todo el trabajo de laboratorio se realice desde el punto de vista de la seguridad ingenieril.
Este procedimiento se complementa con la participación de uno de los químicos del equipo de investigación de laboratorio y banco en el grupo de trabajo de la etapa piloto, o mejor aún, con la aplicación del principio de Ingenierización (Capítulo 1), conformando un equipo multidisciplinario que participe en todas las etapas de I-D (laboratorio, banco, piloto, semi-industrial e industrial).
Como resultado de todos esos análisis previos y la experiencia acumulada se deben confeccionar un conjunto de informaciones sobre factores de toxicidad, inflamabilidad, explosividad, requerimientos especiales de manipulación, condiciones adversas de reacción (exotermias, formación de espumas, desprendimiento de vapores, etc.), así como una relación razonablemente completa de propiedades físicas y químicas, todos los cuales se deben anexar a las instrucciones de operación.
El trabajo de diseño de la planta piloto debe comenzar solamente cuando el equipo de ingenieros de proyecto se sienta seguro de que se han tenido en cuenta y acopiado todos los datos provenientes del trabajo de laboratorio y banco. Todo el trabajo relacionado con la seguridad debe ser realizado con la participación del equipo de proyecto en su conjunto, aunque es un buen procedimiento de trabajo responsabilizar especialmente a un miembro del equipo con la misión de centralizar todo lo relacionado con este tema.
Este especialista debe asegurar que se tomen todas las consideraciones de seguridad en el diseño, como son: selección adecuada de las dimensiones de las líneas de venteo y dispositivos de seguridad, reducción al mínimo de los inventarios en proceso de las materias primas o productos peligrosos, adecuada capacidad de enfriamiento y dispositivos para evacuación y/o enfriamiento rápido, para el caso de incrementos bruscos del calor generado por las reacciones, sistemas adecuados de válvulas de cierre rápido de circuitos, etc.
Debe recibir una atención especial la seguridad del personal durante la carga de las materias primas, durante la toma de muestras y en el caso de salideros. Durante la fase de diseño deben considerarse suficientes chequeos y balances que permitan probar que aún los aspectos más críticos del diseño son seguros,
que los sistemas de control funcionarán adecuadamente y que los fallos mecánicos o errores humanos no serán desastrosos.
El trabajo debe ser organizado de forma tal que cuando se ha culminado el diseño de la planta piloto, un gran número de personas de distintos departamentos se ha relacionado de una forma u otra con el mismo. Los especialistas de mercadotecnia deben de haber proyectado las características que debe tener el producto y
en que tiempo se necesita; el departamento de ventas solicitado las cantidades necesarias de muestras y desarrollado especificaciones tentativas para el producto; los abogados especializados en patentes iniciado los contactos con los miembros del equipo de investigadores y comenzado la revisión de los libros de anotaciones para obtener los elementos que les permitan hacer las solicitudes de patentes pertinentes; el departamento de producción designado un representente en el proyecto y la dirección superior revisado el diseño de la planta piloto y aprobado la continuación de los trabajos, o sea la construcción de la planta y el inicio de las corridas experimentales.
Además, antes que comience formalmente la construcción, se debe emitir un Permiso de Construcción, para lo cual deben de estar de acuerdo tanto el jefe de la Planta Piloto como el miembro del colectivo encargado de las tareas de Seguridad. Para garantizar que esto se ha cumplido adecuadamente resulta muy conveniente utilizar un cuestionario, el cual debe servir para relacionar los peligros potenciales considerados en el diseño y las posibilidades de funcionamiento incorrecto consideradas y evitadas con métodos de diseño adcuados.
También debe emplearse este cuestionario para relacionar las facilidades auxiliares requeridas, las descargas de efluentes, los materiales de construcción, etc, más una lista para chequear los equipos más importantes desde el punto de vista de la seguridad y la protección del medio ambiente.
Durante la construcción debe de asignarse por lo menos a un miembro del equipo de dirección del proyecto piloto, para que se responsabilice con chequear que la planta se construye realmente como ha sido proyectada. Esto es especialmente importante cuando el trabajo de construcción de la planta piloto se realiza por el propio personal que acomete el proyecto, en lugar de contratar a una firma especializada. Eso significa que las comunicaciones son menos formales y existe por lo tanto mayores posibilidades de interpretación inadecuada de las tareas, suposiciones incorrectas, sustituciones de equipos no autorizadas y errores de construcción ocasionados por los deseos de acortar el trabajo, por lo cual hay que tener un cuidado especial en esas situaciones.
Adicionalmente a eso, los chequeos de la seguridad futura de la instalación durante la construcción, permiten poder confirmar que los instrumentos de alivio de presión se han instalado correctamente, que se han empleado los materiales de construcción especificados y que los equipos de seguridad están accesibles, que
el espacio de trabajo no está abarrotado y obstruído y que se haya previsto las rutas de escape del personal (34).
Además, mientras se realiza la construccion de la planta piloto, se deben estar desarrollando en paralelo dos actividades: la confección de los manuales de operación y el entrenamiento del personal de operación. Las sesiones de entrenamiento del personal son magníficas oportunidades para revisar el proceso en su conjunto y las reglas de seguridad de la planta piloto. Se deben chequear especialmente:
Procedimientos de emergencia (en casos de daños, accidentes, derrames o descargas accidentales, falla de facilidades auxiliares, etc.).
La idoneidad del equipamiento de seguridad.
Los sistemas de protección contra incendios
Equipamiento de emergencia (duchas de seguridad, fuentes para lavado de los ojos, máscaras contra gases y vapores, salidas de emergencia y sistemas energéticos de emergencia)
Peligros especiales (por ejemplo cuartos calientes, sistemas de refrigeración, etc.)
Disposición de residuales de forma segura y legal
Finalmente, después que la planta se ha construído y después que los manuales de operación están escritos y los operadores están entrenados, pero antes de que se autorice el inicio de su funcionamiento, se debe realizar la inspección previa a la operación, la cual es un chequeo final para asegurar que, por ejemplo, todos los posicionadores de las válvulas están instalados correctamente, que están disponibles las cartas de calibración para cada unidad, que las juntas están colocadas realmente entre los platillos, que las conecciones a tierra y las uniones de seguridad están colocadas correctamente y en todos los lugares necesarios, que se emplean en todos los casos los materiales adecuados de construcción. Esto significa de hecho la realización de una Auditoría de Riesgos, igual a las que se realizan antes de la puesta en marcha de una unidad comercial (31).
En los casos en que se tenga presencia de vapores tóxicos en el proceso, se deben realizar pruebas de presión específicas para detectar salideros de gas, empleando un gas inocuo pero fácilmente detectable a la presión normal de operación. Teniendo en cuenta que el olfato humano es un instrumento extremadamente sensitivo, se puede considerar como excelente material trazador, una fragancia con un bajo umbral de olor como el etil mercaptano. Después que se detecta la existencia de salideros, para localizar los puntos en los cuales se producen, se puede emplear un detector de vapor electrónico o un método clásico como la aplicación de solución jabonosa.
Con relación al peligro de los vapores tóxicos, no se puede pasar por alto lo relacionado con los puntos de toma de muestras y en algunos casos se deben tomar precauciones extremas para evitar riesgos de contaminación ambiental o daños a los operadores. En esos casos se debe tener cuidado también con la seguridad del técnico de laboratorio que va a analizar la muestra y todos los métodos de manipulación y vertimiento deben ser analizados cuidadosamente.
En el caso de las plantas piloto dedicadas o unipropósito, éstas deben ser construídas, de ser posible, con los mismos materiales con que se construirá la planta final. Si en esa etapa del diseño hay todavía dudas sobre los materiales que se deben emplear en algunas áreas críticas, es necesario considerar la colocación de pruebas de corrosión de manera tal que se puedan evaluar adecuadamente los materiales más adecuados.
Cuando la planta piloto es multipropósito, no son muy amplias las posibilidades de selección de los materiales ya que los equipos son generalmente de acero inoxidable. de acero recubierto de vidrio o totalmente de vidrio y por ello, en los casos en que se empleen productos químicos muy corrosivos, se deben extremar las precauciones para evitar que se somete a los equipos a una corrosión indebida.
Cuando se conoce que las características del proceso requiere de una aleación especial se debe tratar de obtener el equipamiento piloto construído con dicho material o en su defecto deberá realizarse un compromiso y utilizar la opción más próxima. Sin embargo, aunque en muchas ocasiones es suficientemente amplia la selección de los materiales a emplear en los equipos de pequeña escala, en la práctica en la mayoría de los casos la selección se realiza entre el vidrio, el acero recubierto con vidrio, la cerámica, los recubrimientos de goma y los plásticos especiales.
Un elemento importante del diseño es dilucidar si la planta se construye en exteriores o en el interior de un edificio y ello depende generalmente de diversos factores, entre los que se encuentran las condiciones climáticas, el espacio disponible (incluyendo la altura de los locales interiores), la protección del medio ambiente y la seguridad.
Cuando la configuración del equipamiento es razonablemente pequeña y hay suficiente espacio en el interior del edificio, probablemente la mejor opción es construir la planta bajo techo. De esa forma se protegerá la operación de las inclemencias del tiempo, se prolonga la vida de los componentes más sensibles de la planta y se crean mejores condiciones para una operación continua de la misma.
Un aspecto importante a tener en cuenta para decidir si la planta se construye en interiores o no, es la disponibilidad de altura en el interior del edificio y la existencia de columnas altas o de un sistemas de tuberías altas para vacío. Cuando la altura disponible no alcanza para acomodar esas instalaciones, lo más aconsejable es
situarlas afuera, ya que si se realizan cortes en el techo es muy difícil asegurar posteriormente el sellaje del mismo y eso conlleva múltiples dificultades en la operación posterior.
En esos casos una variante aceptable puede ser construir en el interior, el reactor y las demás instalaciones que no tengan dificultades con la altura del edificio y dejar la columna en la pared exterior, colocando los condensadores en el techo. La instrumentación en todos los casos debe dejarse preferentemente en una locación interior protegida contra las inclemencias del tiempo, no sólo para proteger los instrumentos en sí, sino también para la protección del personal de operación y para asegurar que los instrumentos sean atendidos adecuadamente, aún en condiciones de mal tiempo.
La flexibilidad es normalmente un asunto relacionado con el costo. Una pequeña unidad piloto unipropósito, construída en un espacio muy reducido, conectada rígidamente por tuberías debe tener un costo relativamente bajo, pero permite muy poca flexibilidad si las condiciones del proceso llegan a cambiar significativamente.
Por otra parte, equipos instalados de forma espaciada, conectados por tuberías y accesorios fácilmente desmontables, permitirán fácilmente cambios, adición de más equipos o variaciones en la configuración de la planta, aunque debe resultar algo más caros que la variante menos flexible.
Lo mejor es considerar desde el inicio la posibilidad de que durante la realización del proyecto, ocurran cambios considerables en el proceso y analizar si esa posibilidad es suficiente para pagar los costos de una mayor flexibilidad del proceso o al menos para dejar posibilidades para esa flexibilidad. Con esta decisión se debe considerar que más tarde o más temprano los equipos piloto deberán fequerir algun tipo de ajuste, servicio o mantenimiento y por consiguiente es imprescincible diseñar considerando la serviciabilidad, aunque los costos se incrementen ligeramente y con independencia de la flexibilidad que se defina para la instalación. El ahorro que se realizará posteriormente a la hora de realizar esos trabajos, debe compensar con creces el incremento que pueda representar en la construcción de la instalación.
Para lograr la accesibilidad de uma instalación piloto, hay un grupo de reglas básicas para el diseño y la disposición de los equipos, que son muy similares a los de las plantas grandes, entre las que se destacan:
1. Mantener una distancia razonable entre los recipientes grandes y las distintas partes de los equipos de manera tal que una persona pueda moverse alrededor de los mismos con facilidad. Esto incluye las distancia a las paredes y la consideración de que los operarios de mantenimiento deben acceder con sus herramientas a las áreas con problemas y trabajar sin restricciones ni dificultades.
2. Aislar las tuberías y superficies calientes, no sólo para la conservación del calor, sino también para la protección del personal.
3. Mantener siempre que sea posible las bombas pequeñas y otras instalaciones menores que requieran frecuentemente mantenimiento, fuera del contacto directo con el piso. Con eso se impide la inundación de esos equipos cuando hay salideros o cuando se limpia el piso con mangueras.
4. Dejar partes del interior del edificio disponibles para el desmontaje y reparación de los equipos. Como ejemplo se tiene el dejar suficiente espacio encima de los reactores para poder desmontar su tapa y el espacio necesario para extraer los haces de tubos de los intercambiadores.
5. Incluir conecciones para el enjuague con agua de los equipos y para la limpieza de los conductos. Esto es importante no sólo para eliminar tupiciones en secciones de tuberías y equipos sino que resulta fundamental para poder asegurar la limpieza de las tuberías y equipos antes que el personal de mantenimiento trabaje en los mismos. En muchos casos es suficiente con instalar conecciones tipo T en las tuberías, colocar cruces en lugar de codos y crear facilidades para introducir, además de chorros de agua u otras sustancias, cabillas u otros dispositivos que permitan eliminar obstrucciones..
6. Utilizar preferentemente el tipo de aislamiento de espuma que se produce in situ, en lugar del tipo de aislamiento prefabricado en forma de tuberías, ya que es más barato eliminar el aislamiento solamente en el segmento que se va a reparar y reponerlo luego con facilidad, que tener que desmontar una porción considerable del mismo.
7. En los equipos metálicos se deben emplear tantos cristales para la observación como sea posible, ya que de esa forma se puede tener una valoración de importantes características físicas de los fluidos como el color y el contenido de sólidos, entre otros.
8. En sistemas con vacío, se deben incluir muchas válvulas de aislamiento y conecciones para manómetors, de manera que se pueda simplificar la detección de salideros, al permitir chequear una sección corta del sistema en cada prueba.
9. Incluir a la mayor cantidad posible de personal con experiencia en el mantenimiento, en el equipo que realiza el diseño de la planta piloto, para asegurar que se tengan en cuenta los "pequeños detalles" relacionados con el mantenimiento que tanta importancia tienen posteriormente en
10. el trabajo práctico.
La selección debe hacerse entre la alimentación por gravedad y la realizada mediante el empleo de equipamiento de potencia (bombas, compresores, etc.) y para ello tiene una gran importancia las características de los fluidos que se deben alimentar, las cargas disponibles y la precisión que se requiera para la medición de las corrientes de alimentacion al proceso.
Los líquidos limpios y de poca viscosidad se pueden suministrar fácilmente por gravedad y pueden ser controlados de manera precisa mediante recipientes de carga constante. Además si los recipientes se construyen de vidrio, se pueden realizar chequeos visuales de la alimentación. El control puede hacerse por válvulas de agujas, si el líquido es realmente libre de sólidos.
Sin embargo, cuando las corrientes de alimentación son sucias, es decir, contienen sólidos o tienen una alta viscosidad) o cuando se requiere un control de la proporción de múltiples corrientes de alimentación, es preferible la alimentación por bombeo. Existe disponibilidad en el mercado de muchas bombas pequeñas de desplazamiento positivo, útiles para su empleo en las plantas piloto, como son las bombas de engranaje, de diafragma, de pistón y peristálticas, en muy variados tamaños y materiales de construcción.
Si la alimentación es de sólidos, hay que pensar con mas cuidado. A pesar de que hay disponibles válvulas rotatorios de pequeño tamaño, las mismas pueden no funcionar adecuadamente por diferentes causas. También los alimentadores pequeños del tipo de tornillo sin fin tienden a tupirse fácilmente y los alimentadores
vibratorios, si bien pueden trabajar bien, causan problemas cuando la alimentación sólida debe ser introducida en un sistema cerrado o bajo presión.
Una buena solución pueden ser alimentar a través de una tolva, controlando la salida de la misma con válvulas de doble mariposa controladas por tiempo, combinando ésto con un vibrador en la tolva para mantener los sólidos en movimiento.
No obstante, si los sólidos son pegajosos, polvorientos, con tendencia a aglomerarse o higroscópicos, la mejor solución problablemente es disolverlos o suspenderlos en un líquido adecuado y alimentarlos por esa vía. Esta solución puede resultar especialmenmte adecuada en los casos en que es posible la alimentación discontinua.
En algunos casos ocurre que un sistema de alimentación debe ser piloteado junto con el sistema de reacción química y en ese caso lo mejor es consultar expertos en manipulación de materiales para determinar primero la mejor opción práctica para la planta de gran escala y posteriormente realizar el escalado descendente del
equipamiento de alimentación a emplear en la planta piloto. Ahora bien, si la metodología de alimentación de las materias primas no es importante para el proceso, se debe buscar la vía de adicionar losmateriales al proceso de la manera más conveniente que sea posible, con independenmcia de que no guarde la más remota semejanza con el sistema de alimentación industrial, ya que no se debe dedicar esfuerzos en pilotear lo que no es imprescindible, de forma tal que se pueda concentrar la atención en los aspectos verdaderamente importantes.
Mientras que, en la mayoría de los casos, los sistemas discontinuos (batch), son más fáciles de operar, los mismos requieren equipos más grandes para una misma capacidad de produccion y un mayor inventario de reactivos en proceso que su contrapartida de proceso continuo.
Los sistemas discontinuos normalmente modelan de forma muy cercana a los equipos de laboratorio y permiten el uso de reactores tipificados. Los sistemas de alimentación no tienen que ser muy sofisticados y la descarga de productos y toma de muestras es también relativamente sencilla. Por todos esos elementos, si el objetivo principal de la instalación piloto es probar una etapa o producir muestras de campo, la operación discontinua resulta la mejor opción.
Los sistemas continuos, por contraste, son más complejos para controlar y operar, pero las piezas individuales del equipamiento son más pequeñas y el inventario en proceso es menor que en los procesos discontinuos. Además, una particularidad interesante e imporante de una unidad continua, por lo menos mientras está en estado estacionario, es la uniformidad de su producción, ya sea buena o mala.
Sin embargo, generalmente se necesitan reactores diseñados especialmente por encargo, la instrumentación es más compleja y en los procesos sofisticados el sistema de control en su conjunto
llega a ser muy costoso. El muestreo de corrientes intermedias puede presentar problemas de accesibilidad y representatividad y se hace necesario la instalación de algunos equipos duplicados (de reserva), para poder evitar los riesgos de paradas por fallas en equipos.
En la práctica es con frecuencia necesario establecer un compromiso y considerar un proceso con un sistema combinado continuo-discontinuo. Por ejemplo, el reactor principal trabaja en el modo discontinuo y los productdos crudos son alimentados, a través de un almacenaje intermedio, en una cadena de purificación continua, para lo cual resulta imprescindible calcular cuidadosamente la capacidad de almacenaje intermedia.
Otra pregunta que normalmente debe hacerse es acerca de la forma en que se deben tratar las corrientes de reciclo. ¿Deben ser estas corrientes sintetizadas o debe emplearse para las mismas material proveniente realmente de esa parte del proceso? Además, en el caso de ser material proveniente del proceso, ¿debe alimentarse de forma continua o discontinua?.
Las corrientes sintetizadas son ciertamente más fáciles de manipular, pero difíilmente representan la situación real de operación a gran escala. lo que puede provocar que se lleguen a falsas conclusiones, puesto que no hay posibilidades de evaluar lo que ocurre después de varios ciclos de recirculación. Por ejemplo cómo y qué impurezas aparecen o desaparecen, cuál es la composición del estado estacionario, etc..
En el caso que sea necesario evaluar factores tales como la conversión por paso (rendimiento), la eficiencia por etapas, el efecto de las recirculaciones, los requerimientos de purgado y la composición en estado estacionario, hay que tomar especial cuidado para utilizar las corrientes de alimentación reales en las proporciones adecuadas y trabajar el proceso durante un tiempo lo suficientemente largo como para que simule las condiciones reales de operación de la planta.
Cuando se trata de una planta continua no hay muchas posibilidades de elección, lo que no ocurre en el caso de las plantas discontinuas. Por ejemplo, cuando el tiempo de reacción es corto, el número de operaciones requerido para completar un ciclo (carga, calentamiento, reacción, enfriamiento, descarga, limpieza)
puede ser acomodado sin problemas en un turno de 8 horas y entonces la decisión de operar con uno o más turnos es función solamente de elementos de programación, disposición de personal y costo.
Si un ciclo completo dura de 8 a 12 horas y la campaña piloto no es demasiado larga, se pueden establecer turnos de 10 a 12 horas, lo que si bien puede resultar caro por la necesidad de pagar sobretiempo, cuesta menos que un doble turno y obviamente requiere menos personal. Ciclos de 12 a 16 horas por templa o incluso mayores, representan una complejidad adicional, ya que si bien la mayoría de las personas no cuestiona un turno de 16 horas en una ocasión, probablemente ninguno está dispuesto a mantener de forma constante ese horario de trabajo.. Por esa razón, si la operación excede las 12 horas por día, se necesitan por lo menos dos turnos de operadores.
Finalmente hay que tener en cuenta que para pasar de 3 turnos por día durante 5 días a la semana a 3 turnos por día la semana completa, requiere normalmente la existencia de un cuartdo turno, lo que constituye un paso caro, permitido sólo por necesidades del proyecto.
Es una buena regla reservar suficiente espacio para el almacenaje interior de los materiales necesarios para una corrida de por lo menos un día. Por ello, considerando que algunas facilidades piloto no tienen capacidad para almacenar o manipular grandes cantidades de tambores o paletas cargadas con sacos, el tamaño requerido para los equipos se debe limitar de manera tal que se ajuste a dicha disponibilidad de almacenaje.
Unido a los requerimientos de almacenaje de materia prima, está el problema de la disposición de los materiales residuales. Las plantas piloto poroducen con frecuencia mayor cantidad de subproductdos y producto fuera de especificaciones y por lo tanto inutilizable. que material comercializable, por lo cual se deben
realizar los arreglos correspondientes para el empaque y laidentificación de los residuales, con vistas a la disposición segura y legal de los mismos.
Entre los métodos de eliminación interna alternativos se tienen: Incineración (en un incinerador registrado y aprobado legalmente), limpieza y recirculación o procesamiento ulterior para su conversión en un producto comercial. En el caso de las corrientes de agua limpias tales como el agua de enfriamiento que no se pone en contacto con el fluido, éstas pueden enviarse directamente a el alcantarillado municipal, después de obtener las aprobaciones pertinentes por los organismos encargados de la protección del medio ambiente.
Una instalación discontinua que opera en un sólo turno puede atenderse con un número mínimo de personas, las que pueden ser un ingeniero y un técnico. El personal de apoyo, un mecánico de mantenimiento y un químico, por ejemplo, sólo se necesitan que estén localizables para casos necesarios. Sin embargo, una planta piloto continua con múltiples turnos de trabajo puede realmente requerir bastante personal (Figura 1.1).
Las decisiones que se tomen con relación al número de turnos de trabajo, al tipo de operación (continua o discontinua) y al tamaño de la instalación piloto, resultan decisivas para la definición final de la cantidad de personal necesario para el trabajo seguro de la misma.
Con relación a este tema, el problema va más allá de la toma física de muestras de una masa reaccionante en proceso. Tiene un peso fundamental que se tome la muestra correcta y que dicha muestra nos suministre toda la información necesaria, compensando el esfuerzo y el costo.
La tendencia general es a tomar más muestras de las necesarias, a causa de los aspectos desconocidos del proceso, de forma tal que según se va avanzando en el aprendizaje de la operación, puede decrecer la necesidad de muestras o puede ser posible almacenar las muestras (si éstas son estables), para analizarlas posteriormente en caso de necesidad.
Es una buena medida organizar un cronograma de toma de muestras, en el que se relacione la cantidad de muestras que deben ser tomadas en cada momento, lo que debe ayudar a mantener el número de muestras a tomar dentro de un intervalo aceptable y a planificar adecuadamente el trabajo de los analistas.
Las técnicas de muestreo debe ser diseñadas y probadas con la anticipación requerida. Los sistemas somedidos a vacío, los sistemas de múltiples fases y los tiempos de reacción muy cortos, representan problemas especiales para el muestreo y esto hace evidente la ventaja de considerar el sistema de muestreo en su
conjunto al mismo tiempo en que realiza el diseño de la unidad piloto de manera tal que se puedan considerar las facilidades que se requieren para esos muestreos.
El sistema de muestreo en su conjunto debe ser diseñado de forma tal que garantize que las muestras sean representativas del sistema. Los tubos sumergidos deben ser purgados con gas inerte o, como alternativa, antes de tomarse la muestra, debe purgarse previamente una cantidad de muestra igual a aproximadamente dos veces el volumen del tubo sumergido. Se debe considerar también como se garantiza la "congelación" adecuadan de la muestra después de tomada, de forma tal la misma representa realmente al sistema, en el momento en se tomó la muestra.
También deben preverse la utilización de recipientes adecuados, como por ejemplo "bombas" de metal con válvulas en ambos extremos que permita su evacuación y purgado, botellas con tapas que permiten la inyección de muestras con jeringa hipodérmica o contenedores de gas especiales para no condensables. También debe preverse la existencia de un número suficiente de estos aditamentos, para poder compensar las posibles demoras en el retorno de los mismos del laboratorio.Se debe considerar también que parte de los análisis de rutina pueden ser hechos por el propio personal de la planta piloto, lo que incluso debe incluir la operación de los cromatógrafos, cuando éstos no son muy complejos. En ese caso el cromatógrafo de gas
debe ser revisado y calibrado periódicamente, por el personal calificado del laboratorio.
Finalmente, en los casos en que se van a emplear analizadores en línea, o los mismos van a ser piloteados junto con el nuevo proceso, se deben realizar arreglos que permita realizar en paralelo los análisis químicos. La redundancia que se obtiene debe ser eliminada posteriornmente cuando se haya establecido la credibilidad de los sistemas automáticos .
La recolección de datos puede ir desde un examen visual periódico de los instrumentos y equipos hasta el registro de los resultados en un sofisticado equipo automático para la recolección de datos.La adquisición manual de los datos es la variante menos cara, siempre que se pueda garantizar que todos los instrumentos y equipos sean revisados en los intevalos predeterminados, lo que es suficiente generalmente para las reacciones no críticas. Sin embargo existen problemas, como son: las variaciones cortas de las variables que se están midiendo tienen muchas probabilidades de no ser detectadas; se pueden cometer errores de transcripción; está limitado el número de instrumentos que puede ser revisado y los intervalos de tiempo entre lecturas es largo.
Muchas de esas deficiencias son eliminadas con el registro electrónico o mecánico. En dependencia de la velocidad de respuesta, los eventos críticos serán registrados (aunque puede haber aún una pérdida del tiempo en que eso ocurre, a menos que se haya instalado una alarma por contacto); los datos obtenidos son más precisos que los registrados manualmente y, con exepción de los aspectos relacionados con el costo, no hay límites para el número de registros que se pueda hacer.
Los problemas con los registradores son que los datos en las cartas pueden que no se lean apropiadamente (especialmente cuando en una sola carta se registran múltiples puntos o líneas) y los voluminosos registros de datos obtenidos es muy probable que no sean examinados en su totalidad. No obstante lo anterior, una combinación cuidadosamente seleccionada de indicadores locales y montados en la pizarra y registradores, es probablemente la instrumentación más efectiva desde el punto de vista del costo, para las plantas piloto promedio.
Sin embargo en la actualidad, la disponibilidad de microcomputadoras ha hecho descender considerablemente el costo de los recolectores de datos de alta velocidad. Todos los sensores pueden ser "interrogados" en intervalos extremadamente breves, que pueden llegar a cientos de veces por segundo si se desea.
Las ventajas de los instrumentos computarizados son:
1. Pueden realizar manipulaciones matemáticas de los datos e imprimir sólo los resultados, tales como la diferenciación de la temperatura con respecto al tiempo para obtener los datos de rapidez; pueden mantener registro de las desviaciones del punto de ajuste, o de condiciones fuera de tolerancias; las condiciones de alarmas pueden ser programadas digitalmente; pueden ser ajustados para imprimir solamente a intervalos de tiempo dados o cuando los datos hayan cambiado, o cuando ocurre una condición de alarma o desviación.
2. Los datos impresos pueden ser mantenidos en un mínimo, ya que se registran solamente los eventos y cambios. Desviaciones rápidas tan pequeñas como 1 ms pueden ser captadas y se pueden determinar cualquier número de puntos de alarmas.
3. En dependencia del equipo de impresión y registro que se utilice, se pueden imprimir en rojo las desviaciones de las condiciones normalizadas, para llamar la atención y se tiene la posibilidad de seleccionar entre las stripcharts (para las salida gráfica cuando diferentes curvas con diferentes escalas se deben imprimir en una carta única), o las impresoras de línea más caras, las cuales pueden producir tanto salidas gráficas como digitales.
4. Una ventaja adicional de los recolectores de información computarizados es su habilidad para controlar el proceso. Para ello la salida digital de la computadora se convierte en señales analógicas, las cuales a su vez pueden operar relais o equipos similares para abrir o cerrar válvulas, arrancar o parar motores y energizar serpentines de calentamiento, normalmente a través de rectificadores controlados por silicón .
5. Cuando se acoplan con un reloj en tiempo real, los sistemas de ese tipo pueden realmente dirigir la operación de una planta piloto de acuerdo con un progrma predeterminado y si algo anda mal, puede guiarse por si mismo a una parada ordenada.
Este alto nivel de automatización, si bien es posible que no sea deseado durante las fases experimentales primarias de una operación piloto, puede perfectamente ser utilizado por el personal una vez que la planta piloto se ha estabilizado y se mantiene operando con el propósito de probar el proceso o producir muestras de
producto.
La elección del tipo de instrumentación depende de la filosofía general asociada con la planta piloto. Un proceso razonablemente directo, que debe ser operado solo por unas pocas semanas para confirmar resultados de pequeña escala, probablemente no puede justificar un paquete de instrumentación caro y complejo. Pero si el proceso a estudiar es muy complejo y existe la posibilidad de la ocurrencia de exotermias súbitas, incrementos de presión o descontrol de la reacción, y si la planta piloto debe ser operada por meses, entonces puede ser justificado el empleo de los sensores de alta velocidad y los controles e incluso el uso de sistemas supresores de explosión.
Si se considera emplear en la planta comercial analizadores de proceso en línea, resulta conveniente pilotear los analizadores durante la operación piloto del proceso. En ese caso, a pesar de que los analizadores en línea, auto-muestreadores y similares son equipos comerciales, se deben tomar precauciones para su
utilización.
Las corrientes que fluyen a través de los analizadores deben ser escrupulosamente limpias, necesitándose para ello tamices filtrantes finos y gruesos delante de dichos instrumentos. El gradiente de temperatura debe de mantenerse también para prevenir la condensación no deseada de algunos componentes de las corrientes y para asegurar la reproducibilidad analítica. En algunos instrumentos es imporrtante prever la formación de burbujas de gas en la corriente líquida y a la inversa, los componentes gaseosos que entran en los cromatógrafos de gas deben estar libres de gotas de líquido y de vapores que puedan condensar a la temperatura de entrada al equipo.
Los instrumentos analíticos en línea, deben ser probados primero a nivel de banco y deben seguirse cuidadosamente las instrucciones del fabricante. Resulta una buena idea el poder realizar algún entrenamiento de dos o tres días en la empresa productora de los equipos, sobre todo cuando no se ha tenido experiencia previa con el tipo de equipo en cuestión.
Finalmente, teniendo en cuenta que la corriente de proceso fluye directamente através del analizador en línea, se deben realizar auditorías especiales de seguridad relacionadas con: asegurarse que todas ls partes humedecidas estén hechas de materiales de construcción compatibles; observar especialmente los sellos de
gomas (juntas, anillos, etc), cámaras de filamentos de alambre calientes y similares y estar seguro de especificar los propios niveles eléctricos seguros. Aquí hay que tener en cuenta que si bien muchos equipos electrónicos son intrísicamente seguros, se debe tener cuidado cuando hay presentes relais, chuchos, filamentos calientes y llamas abiertas.
En la mayoría de los casos, el objetivo de la operación de las plantas piloto es la obtención de los datos necesarios para el diseño de la planta a escala completa, de la manera más eficiente posible y para ello se requiere operar la misma en diferentes valores de las variables y correlacionar el rendimiento, eficiencia, pureza u otros indicadores convenientes, con las condiciones experimentales.
Para poder cumplir ese objetivo eficientemente, la mejor forma es la aplicación del diseño experimental estadístico, utilizando procedimientos tales como los experimentos factoriales a dos y tres niveles, los diseños compuestos centrales, con los cuales se pueden reducir al mínimo el número de corridas necesarias para la completa exploración de todas las variables.
Además, después de tener en la mano los datos experimentales obtenidos, se pueden utilizar diversos principios de correlación para hallar los valores óptimos de las variables de proceso. Entre esas técnicas están la programación lineal, la programación geométrica, la optimización de trayectorias y el análisis de las superficies de respuesta, las que permiten tanto la optimización de los parámetros constantes (e.g. tamaño del reactor, tiempo de residencia, temperatura de operación, flujos), así como de las variables independientes (tiempo, distancia).
Una planta piloto requiere un personal alerta, entrenado para realizar la totalidad de las operaciones requeridas y para ello es necesario someter a dicho personal a un entrenamiento muy similar al que se somete normalmente al personal que operará la instalación a escala completa.
Entre los elementos que fundamentan esta necesidad está el hecho que en este tipo de plantas se trata con una serie de incógnitas, a un nuevo nivel de escala. Además este personal deberá enfrentarse a la recolección y procesamiento de una gran cantidad y diversidad de datos, desde las observaciones rutinarias para la operación hasta las mediciones experimentales más cuidadosas y detalladas. Se trata así mismo de ser capaz de lograr el ajuste fino del proceso, alcanzando la optimización de cada aspecto, desde las condiciones de operación hasta el rendimiento químico y la pureza del producto.
Finalmente, el colectivo de la planta piloto debe ser capaz de combinar todos esos novedosos conocimientos en los elementos decisivos para el diseño de un nuevo proceso a escala completa, factible económicamente y práctico y resulta evidente que para ello todos los miembros del equipo deben conocer exactamente lo que deben hacer y sus responsabilidades.
Para asegurar lo antes expuesto, durante el entrenamiento deberán contemplarse materias tales como la química del proceso en estudio, la filosofía de diseño (objetivos, escala, duración, restricciones), selección de equipamiento, racionalidad operacional, programas, organización de la operación, tareas y responsabilidades individuales y evaluación de riesgos y seguridad.
El entrenamiento debe comenzar tan pronto se tenga organizado el equipo que operará la planta piloto, debe consistir en conferencias, prácticas y sesiones de trabajo en equipo y debe abarcar todas las secciones con que cuenta la instalación piloto. Si la construcción se encuentra en proceso durante ese período, redsulta muy útil interrumpir periódicamente el proceso de entrenamiento para realizar breves viajes de inspección al área de construcción.
En el caso de las plantas piloto grandes y especialmente cuando son del tipo unipropósito, la tarea de rotular las líneas y válvulas constituye una excelente herramienta de entrenamiento, ya que esto conlleva la revisión de los dibujos de tuberías, el seguimiento del trazado en el terreno y la familiarización del personal con el equipamiento y su operación.
l tiempo dedicado al entrenamiento, en cada una de las materias mencionadas, dependerá fundamentalmente de la complejidad de la planta y muy especialmente del nivel de experiencia del colectivo a ser entrenado. Es evidente que un grupo relativamente nuevo requerirá un proceso de entrenamiento mucho mayor, incluyendo los aspectos básicos de la operación de las plantas pilo, que un colectivo experimentado en estas labores.
La experiencia ha demostrado que resulta muy útil redactar los manuales de operación aún en el caso de las plantas piloto pequeñas, ya que esto representa un número de ventajas entre las que se destaca que el hecho de preparar el manual en si mismo es una excelente herramienta de entrenamiento, ya que con ello se
fuerza a los redactores del manual a pensar cuidadosamente sobre cada etapa de las operaciones, o sea del proceso de pruebas previas a la arrancada, de la puesta en marcha, de la operación y de las paradas, normales y de emergencia.
También un manual de operación permite tener toda la información conocida, convenientemente reunida, lo que incluye la química del proceso en estudio, la descripción del equipamiento, las instrucciones de operación, los procedimientos de seguridad y emergencia, los datos de seguridad para cada producto químico involucrado y los dibujos y esquemas. Esto lo hace un excelente libro de texto durante todo el proceso de puesta en marcha y la operación de la planta piloto.
Finalmente, si se logra mantener su actualización concienzuda durante todo el desarrollo del proyecto, el manual se convierte en un documento histórico muy útil, un registro permanente de lo que se ha hecho, cómo y porqué.
La operación comienza, normalmente, con la circulación de agua o de algún otro solvente, lo que sirve como un chequeo final y una indicación preliminar de que los operadores realmente conocen la forma de operar el equipamiento. De esa forma se pueden limpiar también las escorias, residuos de materiales aislantes y cualesquiera otros residuos que normalmente se acumulan en las tuberías y equipos durante el proceso de construcción y montaje.
Posteriormente se introducen los productos químicos reales y lentamente, pero de forma segura, la unidad se pone en marcha y se llega a la condición en la que se pueden comenzar a variar las condiciones de operación, de acuerdo con el programa elaborado, para comenzar a acopiar los datos de interés y estudiar el proceso, así como para comenzar a realizar las correciones que resulten pertinentes.
Durante este proceso debe mantenerse un control estricto, no solamente en lo relacionado con la obtención de las condiciones óptimas, sino también con la verificación de que los datos obtenidos sean ralmente reproducibles y útiles para el diseño. Es necesario evaluar también el rendimiento de llos equipos y la existencia de salidseros, tupiciones o falta de control en alguna variable, de forma tal que ningún aspecto de importancia sea ignorado o pasado por alto. Hay que recordar que variaciones menores de la temperatura en un reactor piloto puede convertirse, en el caso de la instalación completa, en un peligroso descontrol de la reacción.
Deben analizarse con sumo cuidado las razones de cada inconsistencia que se detecte y estudiar las posibles consecuencias. De igual forma el resultado del proceso de puesta en marcha debe ser sometido a un análisis intensivo y se deben realizar una serie de preguntas sobre alternativas y posibilidades, de igual forma a como se hizo en las auditorías de seguridad de las etapas previas al diseño y construcción de la planta piloto.
Si durante el desarrollo de las corridas previstas, se encuentra un grupo de dificultades muy superior a lo previsto y no se logra la estabilidad deseada, lo más aconsejable es realizar una parada por uno o dos días, para analizar con cuidado las dificultades encontradas y decidir los cambios que se necesitan en la forma de operar la planta, de manera tal de proceder a poner nuevamente en marcha la planta, cuando se este seguro de poder alcanzar los objetivos deseados en el plazo más breve posible, con la mayor calidad y seguridad.
Una vez terminadas las corridas previstas, no termina en realidad el trabajo de la planta piloto. Primero es necesario proceder a una parada bien ordenada y realizar posteriormente una limpieza cuidadosa de toda la instalación, hasta alcanzar niveles seguros en el interior del sistema, que permnita el acceso al mismo del
personal de mantenimiento.
Si la instalación es una planta multipropósito, la misma debe dejarse en iguales o mejores condiciones que como se recibió y en condiciones de poder comenzar de inmediato con un nuevo proyecto. Si la instalación es unipropósito, deberán realizarse de igual forma los trabajos de mantenimiento que sean necesarios para que
la misma quede de reserva, lista para ser puesta en marcha si durante la etapa de diseño final de la instalación a escala completa surgen problemas que así lo aconsejen.
También es posible que surja la necesidad de poner en marcha la planta piloto, si se presenten dificultades durante el período de puesta en marcha de la isntalación comercial. Incluso es aconsejable en ocasiones, trasladar la instalación piloto hacia el lugar donde se construye la planta a escala completa para poder realizar corridas con corrientes reales de la planta grande.
Finalmente hay que tener en cuenta la importancia de la redacción del informe técnico final, el cual debe cubrir todos los resultados del trabajo de la planta piloto y el hecho de que es muy difícil que esto se haga después que el personal se haya dispersado y enviado hacia sus funciones originales. Por ello deberá contemplarse el tiempo requerido para que los dirigentes del proyecto puedan completar dicho informe, antes de que se de por terminado el proyecto piloto.
La
aplicación de la teoría de los modelos en
las operaciones de Ingeniería Química hace necesario
la introducción de algunos términos técnicos nuevos y la
importación de otros,
los cuales pueden resultar no
familiares para los ingenieros químicos. Aunque esos términos se han ido
explicando según aparecen por primera vez
en el texto, resulta conveniente que
se relacionen en orden
alfabético y se presenten nuevamente sus significados.
Coeficiente
de temperatura de 10 C: Rapidez de
un proceso a una temperatura dada dividido por su rapidez a una
temperatura 10 C menor. En
sentido estricto las temperaturas deben ser 25 y 15 C y si los coeficientes son evaluados a temperaturas mayores deben
ser corregidos por la ecuación de Arrehnius
Componentes
correspondientes: Aquellos
componentes de sistemas que reaccionan químicamente, con respecto a los cuales
se establece la semejanza.
Constantes
dimensionales: Cualquier
constante en una
ecuación física que cambia de valor
cuando se cambian
las unidades de medidas.
Control
por acción de la masa: Control de
la rapidez de
una reacción química provocada
por la acción de las
masas como ocurre en un sistema homólogo.
Diferencias
de concentraciones correspondientes:
Diferencias de concentraciones
entre pares de puntos correspondientes.
Diferencias
de temperaturas correspondientes:
Diferencias de temperaturas
entre pares de puntos correspondientes.
Ecuación
adimensional generalizada. Una
ecuación en la cual se relacionan grupos
adimensionales mediante una
función no especificada.
Ecuaciones
de escala: Ecuaciones adimensionales
simplificadas que especifican las
condiciones de semejanza y las relaciones
de las variables
correspondientes en términos de
relaciones de escala, para un tipo dado de sistemas
homólogos.
Ecuación
potencial: Una ecuación en la cual la
rapidez se iguala a la diferencia de
potencial dividido por
una resistencia. Las ecuaciones potenciales
compuestas pueden ser de forma serie o paralelo, en dependencia
de si las diversas resistencias están en serie o en paralelo.
Efectos
de escala: Un alejamiento de
la semejanza durante
el cambio de escala debido a la existencia de un régimen mixto.
Efectos
de frontera: Alejamiento de
la semejanza debido
a la existencia de condiciones
de frontera diferentes en el modelo y en el prototipo. También se conoce como
efectos de pared.
Efectos
de pared: Ver Efectos de frontera .
Elemento: Réplica de tamaño
completo de una
o más células o componentes de
un aparato prototipo.
Elemento
modelo: El modelo a escala de un
elemento de un aparato prototipo.
Experimentos con
modelos: Un
experimento con modelos,
a diferencia de una
prueba de planta
piloto, significa un experimento que emplea un modelo de un
prototipo a gran escala ya existente.
Extrapolación: La extrapolación, en su aplicación a los experimentos con
modelos y las plantas piloto, es
la extensión de las relaciones de
semejanza a sistemas
en los cuales las
condiciones no
son estrictamente semejantes
y se basa en
suposiciones empíricas de
relaciones de potencias
entre las variables.
Fuerzas
correspondientes: Las fuerzas que
actúan sobre partículas
correspondientes en tiempos correspondientes.
Homogeneidad
dimensional: La condición de una
ecuación física en la cual todos los términos tienen la
misma dimensión.
Indice
de Reynolds: El exponente del número
de Reynolds en
la ecuación adimensional de rapidez de transferencia de calor,
masa o momentum, en condiciones de convección forzada.(los índices
de Reynolds para transferencia de calor, masa y momentum no
tienen que ser necesariamente iguales en un sistema dado).
Ley
de modelo: Ley de escalado ascendente
aplicada a un sistema dado.
Mockup: Modelo estructural a escala completa, construído
de forma precisa, con propósito de
estudios, prueba o demostración.
Modelo: Una réplica semejante geométricamente de un
aparato más grande denominado el
prototipo, en el cual, a menos que se
señale lo contrario, se asume
que la relación de escalas sea la misma
a lo largo de los tres ejes (Ver
modelo distorsionado).
Modelo
análogo: Aparato experimental
mediante el cual se predice el
comportamiento de un
sistema prototipo, a
través de la observación de variables de clase
diferente a la del
prototipo, pero que obedecen a una misma ecuación diferencial.Modelo de
agua: Un modelo en el cual se simula con agua
el flujo de aire o gas en el
prototipo.
Modelo
de rebanada (slice) Un
elemento modelo derivado
de un modelo completo, mediante
la intersección del
mismo con dos planos paralelos en la dirección del
flujo. Modelo distorsionado: Un modelo que tiene diferentes relaciones de
escala a lo largo de ejes diferentes.
Existen también elementos modelos distorsionados
Operaciones
críticas: Operaciones que forman
parte de un proceso a escala piloto para las cuales el trabajo de
la planta piloto resulta imprescindible, para poder
obtener los datos de diseño
para
la planta industrial.
Patrones
de flujo: Forma geométrtica de las
líneas de flujo de un sistema de flujo
de fluídos.
Planta
piloto: Cualquier planta a escala
pequeña, utilizada para suministrar información anticipada
acerca de una futura planta a gran escala (Ver experimento con modelo).
Prototipo:
Es el aparato a gran escala con el
cual se relaciona geométricamente un modelo o
un elemento, con independencia del hecho de que el aparato a gran escala
exista antes o después del modelo. En otras palabras, cada
modelo se considera relacionado con
un rango de prototipos, ya sean
reales o hipotéticos
y viceversa .
Régimen: La naturaleza del
proceso que determina
la variación global
de la rapidez de un sistema .
Régimen
dinámico. Condición en la cual el
proceso que determina la rapidez global es la dinámica física del sistema. En
los sistemas fluidos esta condición es
el patrón de flujo.
Régimen
mixto. Condición en la cual la razón
de cambio global es influenciada por dos procesos, que tienen
criterios de semejanza incompatibles.
Régimen químico: Condición en
la cual la
rapidez global determinante de
un proceso, es una velocidad de
reacción química
Régimen
térmico: Condición en la cual la
rapidez global de cambio con respecto
al tiempo determinante del proceso es la
rapidez de la transferencia de
calor.
Relación de
escala: Relación
de las dimensiones lineales correspondientes en el prototipo y en elmodelo. En
este texto se ha utilizado la convención de que la dimensión
correspondiente al
prototipo será
siempre el numerador
de la relación, con independencia
de si el escalado es ascendente o
descendente, por lo cual las
relaciones de escala serán siempre
mayores que la
unidad.
El símbolo para la relación o factor de escala es L.
Relación de
escala de tiempo: La relación de tiempos correspondientes en la cual el
correspondiente al prototipo está en el numerador de la relación. El
símbolo para la relación de escala de tiempo es t.
Relacion
de sección: La relación de las áreas
de las secciones transversales correspondientes en el prototipo y en el
modelo, con la misma convención que las
relaciones de escala
lineal y de tiempo y por consiguiente con valores
siempre por encima de la unidad. El símbolo utilizado para la
relación de sección es B .
Relación
de tiempos de residencia: La relación
del tiempo de residencia medio al mínimo o de la velocidad máxima a la
media, en un recipiente a través del cual hay un flujo continuo.
Semejanza: La condición de dos o más sistemas enlos cuales hay
una relación constante entre
las cantidades correspondientes. La semejanza puede ser geométrica, mecánica, térmica o
química, de acuerdo con las
propiedades con respecto a las cuales los sistemas son semejantes. Cada uno de
esos grados de semejanza incluye los anteriores. La semejanza mecánica se
se subdivide a su vez
en estática, cinemática y dinámica. Otras clases de semejanza como la
eléctrica, están fuera del alcance de este libro.
Semejanza cinemática:
Condición de sistemas semejantes geométricamente en
los cuales las
partículas correspondientes
decriben trayectorias semejantes geométricamente en intervalos de tiempos correspondientes
Semejanza dinámica: Condición de
sistemas en movimiento, semejantes geométricamente, en los cuales
son iguales las relaciones entre las fuerzas
correspondientes.
Semejanza empírica: Condición de
sistemas semejantes
geométricamente en los cuales las
condiciones en el
modelo se ajustan empíricamente para producir el
grado deseado de
de semejanza en el prototipo. En ese
caso se asume
que cualquier cambio en la
geometría del modelo producir un cambio semejante al que provoca un
cambio correspondiente en
la geometría del prototipo.
Semejanza estática (o semejanza
de fuerzas estáticas): La condición de cuerpos
o estructuras semejantes
geométricamente, cuando
sometidas a tensión
constante sufren deformaciones relativas tales que permanecen
geométricamente semejantes y por
consiguiente lass relaciones de los desplazamientos correspondientes son
iguales a la relación de escala.
Semejanza
geométrica: La condición de dos
cuerpos o espacios en los cuales
para cada punto de uno existe un punto correspondiente
en el otro
Semejanza
mecánica: Término genérico que engloba
las semejanzas estática,
cinemática y dinámica.
Semejanza química: La condición de sistemas
semejantes geométricamente, cinemáticamente y térmicamente, en los
cuales las diferencias de concentración correspondientes
mantienen una relació
constante unas con
otras, o como caso especial de
la definición general, son iguales entre si.
Semejanza térmica:
La condición de
sistemas semejantes
geométricamente enlos cuales
la relación de
diferencias de
temperaturas correspondientes es
constante y si
estn en movimiento, son
cinemáticamente semejantes. En
los sistemas semejantes
térmicamente los patrones de las isotermas, en
tiempos correspondientes, son semejantes geométricamente.
Símbolos: Hay dos convenciones generales acerca de las
cantidades correspondientes que se
deben señalar::
1-En
las relaciones de cantidades correspondientes, el símbolo con apóstrofe siempre se refiere al prototipo.
2-Las
relaciones de cantidades correpondientes se denotan con
caracteres en negrita, en los cuales se considera siempre que la cantidad referida al prototipo está en
el numerador de
la
relación. Por ejemplo, v = v'/v es
la relación de
la velocidad en
el prototipo (v') con la velocidad correspondiente en el modelo (v).
Sistemas homólogos: Sistemas en
los cuales son
semejantes geométricamente la forma de los miembros sólidos correspondientes o de los envolventes
sólidos que encierran las masas de
fluido y son idénticas la
composición química y las propiedades físicas
en puntos correspondientes, al menos en el rango en que ellos afectan el
proceso en estudio.
Superficie
de control: Control de
la rapidez de
una reacción química por la
rapidez de la tansferencia de calor o masa
através de una superficie o interfase, como ocurre en
muchas reacciones heterogéneas.
Técnica
de "polvo y pegamento" (sticky-dust technique): Método cualitativo de observar el
flujo de aire
sobre superficies modelos,
basado en cubrir las superficies con un material pegajoso e inyectar un polvo
ligero en la corriente de aire
para observar la distribución
del polvo sobre la superficie, la
cual varía de acuerdo con la distribución de la
velocidad del aire
en el conducto.
Teoría
de modelos: La teoría de la
semejanza aplicada para
el escalado ascendente o descendente.
Tiempos
correspondientes: Tiempos medidos a
partir de una fecha dada, en los
cuales partículas correspondiente de
un sistema en movimiento han trazado líneas semejantes
geométricamente, o en los cuales la temperataura ha cambiado en cantidades correspondientes
en
sistemas de transferencia de calor en estado
no estacionario. Por consiguiente también hay
intervalos de tiempos correspondientes. La
relación de los
intervalos de tiempos
correspondientes
es la relación de escala de tiempo t.
Tiempo
de residencia promedio: En un
recipiente de flujo continuo, el tiempo de residencia promedio se
toma como el
volumen del fluido en el
recipiente dividido por la rapidez voolumétrica de flujo.
Velocidades correspondientes: Las velocidades de partículas
correspondientes en tiempos correspondientes.
Velocidad
reducida: La velocidad del fluido
real, dividida por la velocidad crítica
inferior, en el mismo
sistema a la
misma temperatura y presión.
1- ACADEMIA DE CIENCIAS DE CUBA, "Análisis de las Técnicas de Escalado y su efecto en la introducción de Resultados Científicos", documento al Pleno del Consejo Científico Superior de la ACC, Editorial Academia, La Habana, 1991 .
2-
Baekeland, K.S., J. Ind. Eng.
Chem., 8:184 (1916)
3-
Campbell, K.S., Chem. Eng., Octubre 7, (1968)
4-
Cinadr, B.F., Curley, J. K., Schooley, A.T., Chem. Eng., Enero 14,
62-76, (1971)
5- Hoppe, T., Chem. Eng. Prog., 88(9), 70-75, (1992)
6- ICIDCA, "La Ingenierización de los procesos Químicos y Biológicos", documento presentado al Polo Científico del Oeste, Mayo 20, La Habana, 1992 .
7-
Johnstone, R.E., Thring, M.
W., "Pilot Plants, Models
and Scale-up Methods in Chemical
Engineering", Mc. Graw-Hill
Book Co., New York, 1957.
8-
Landau, R.N., Willians, L.R., Chem.
Eng. Prog., 87(12),
65-69, (1991)
9-
Lowenstein, J.G., Chem. Eng.,
Diciembre 23, 62-76, (1985)
10- Pavón, J.A., Flores, J., "Requerimientos en la Recolección y tratamiento de los datos en los estudios de escalado", Memorias 2do. Taller Internacional de Escalado, Escalado`93, Centro de Química Farmacéutica, La Habana, Abril de 1993 .
11- Sáenz T., Gálvez, L.O., "Características de las Tecnologías y factores a considerar para su Comercialización", Memorias 2do. Taller Internacional de Escalado, Escalado`93, La Habana, Abril de 1993.
12-
Sowa, Ch. J., Chem. Eng. Prog.,
88(11), 67-75 (1992) .
13-
The Economist, Abril 16,
82-83, (1989).
14- Trambouze, P., Chem. Eng. Prog., 86(2), 23-31 (1990) .
15- Viñas, S., Concepción E., Montero, R., "? Es la Ingenierización la solución a los problemas del Escalado en la industria Farmaéutica y la Biotecnología? Memorias 2do.Taller Internacional de Escalado, Escalado'93, C.Q.F., La Habana, Abril 1993.
16- Winter, P., Chem. Eng. Prog., 88(2), 76-78 (1992).
17- Zumalacárregui, Luisa, "La formación de Especialistas en Cuba y la Ingenierización de Procesos Químicos y Biotecnológicos", Memorias 2do. Taller Internacional de Escalado, Escalado`93, C.Q.F., La Habana, Abril de 1993.
1- Brizuelas, E., "Aspectos Fundamentales del Diseño de Plantas Industriales ", Tomo II, Capítulo 9, 708-746, Editorial ISPJAE, La Habana, 1987.
2- ICIDCA, "La Ingenierización de los Procesos Químicos y Biológicos", documento presentado al polo científico del Oeste La Habana, Mayo de 1992.
3-
Jonstone, R.E., Thring, M. E., "Pilot
Plants, Models and
Scale-up Methods in Chemical Engineering", Mc.Graw-Hill Books C.,
New York, 1957.
4- Kazatkin, A.G., "Operaciones Básicas y Aparatos en la Tecnología Química", Tomo I, Editorial "Jimia", Moscú, 1981.
5-
Luyben, W.L., "Process Modeling, Simulation and
Control for Chemical
Engineering", 160-165 ,Mc. Graw Hill Book
Kogabusha, Ltd., Tokyo, 1973.
6- Mc. Adams, W.H., "Transmisión de Calor", Capítulo 5, 133-146, Editorial Ciencia y Técnica, La Habana, 1970.
7- Mc. Cabe, W.L., Smith, I.C., "Operaciones Básicas de la Ingeniería Química, Volumen I, 16-21, Edición Revolucionaria, La Habana, 1986.
8- Perry, R.E., Green, D., "Perry's Chemical Engineer's Handbook", 6ta Edición, Volumen I, páginas 2-113 - 2-116, 421-424 y 561-563, Edición Revolucionaria, La Habana, 1989.
9- Ravinovich, E.A., "Hidráulica", Capítulo 8, 298 - 310 ,Editorial MIR, Moscú, 1987.
10- Rosabal, J., "Teoría de Los Modelos en Ingeniería de Procesos", Editorial Oriente, Santiago de Cuba, 1988.
11- Rosabal, J., Garcell, L., "Hidrodinámica y Separaciones Mecánicas", Tomo I, pagína 55, Editorial Pueblo y Educación, La Habana, 1990.
12-
Stein, F.P., AIchE Journal, 33(12), 1986-1992, (1987)
13-
Trambouze, P., "Chemical Engineering Processing", 86(2), 23-
31, (1990).
14- Viera, R., López, S., Levy, M.N., "Modelación Matematica para Ingenieros Químicos ", Editorial Pueblo y Educación, La Habana, 1988.
15- Viera, R., Soler, S., "Diseño y análisis de Reactores Químicos", Tomo I, Editorial ENPES, La Habana, 1991.
16-
Von Stockar, U., Marison, W.,
"The use of
Colorimetry in
Biotechnology", en "Advances in
Biochemical Engineering and Biotechnology ", Vol 40, Editor A.
Fletcher, Spring Verlag, Berlin, Heidelberg, 1989.
17- Walas , S.M., "Cinética de las Reacciones Químicas", Capitulo 11, 314-326, Editorial Pueblo y Educación, La Habana, 1979.
18-
Wetty, J. R., Wilson, R.E.,
Wicks, E.E., "Fundamentals of Momentum, Heat
and Mass Transfer",
Capitulo 11, 143-153, Wiley International Editions, Jonh
Wiley and Sons, Inc., New York, 1965.
1- Arlidge,
B., Chem.Eng.Prog., 79(8), 35-40, (1983)
2- Baer, J.
M., Chem.Eng.Prog., 79(7), 64-71, (1983)
3- Braun, R. L., Chem.Eng., Enero 15, 129-134, (1978)
4- Brizuelas, E., "Aspectos Fundamentales del Diseño de Plantas Industriales", Tomo II, Capitulo 9, 708-746, Editorial ISPJAE, La Habana, 1987
5- Campbel,
K. S., Chem.Eng., Octubre 7, 163-169, (1968)
6- Carr, J.
W., Che.Eng.Prog., 84(9), 52-58, (1988)
7- Cinadrf,
B. F., Curley, J.K., Schooley,
A. T., Chem.Eng., Enero 25,
62-76, (1971)
8- Chem.Eng., Octubre 4, 109-127, (1971)
9- Chem.Eng., Diciembre 18, 110-109, (1978)
10- Chem.Eng., Diciembre 17, 723-74, (1979)
11-
Davidson, R. S., Chem.Eng.Prog., 82(12), 18-25, (1986)
12- Díaz, M., "El uso de las plantas Piloto", Memorias 2do. Taller Internacional sobre Escalado, Escalado'93), Centro de Química Farmacéutica, La Habana, Abril de 1993.
13- Dickey,
D. S., Hill, R. S.,
Chem.Eng.Prog., 89(6), 22-30, (1993)
14- Drew,
J.W., Ginder, A.F., Chem.
Eng., Febrero 4,
100-110, (1970)
15- Einhel,
S., Olander D. L., Chem.Eng.Prog., 87(1), 27-30, (1991)
16- Fay, C.
R., Chem.Eng.Prog., 82(12), 44-48, (1986)
17-
Gaillot, F. P., Che.Eng.Prog., 83(10), 55-62, (1987)
18-
Gundzik, R M., Chem.Eng.Prog.., 79(8), 29-34, (1983)
19- Hoppe,
T., Chem.Eng.Prog., 88(9), 70-79, (1992)
20-
Johnstone, R. E., Thring, M. E.,"Pilot Plants, Models and Scale-up Methods in Chemical
engineering"m Mc.Graw-Hill
Books Co., New York, 1957
21-
Kapnicky, J. A., Ind.Eng.Chem., 48(8), 47A-48A , (1956)
22- Katzen,
R., Chem.Eng., Marzo 25, 95-98, (1968)
23-
Kohlbrand, H . T., Chem.Eng.Prog., 81(4), 52-55, (1985)
24- Körner,
J. P., Chem.Eng.Prog., 82(3), 62-66, (1986)
25-
Lambert, P. G., Amery,
G., Watts, D.
J., Che.Eng.Prog., 88(10), 53-60, (1992)
26- Landau,
R. N., Williams, L. R., Chem.Eng.Prog., 87(12), 39-43, (1991)
27- Lesins,
V., Moritz, J. J., Chem.Eng.Prog., 87(1), 39-43, (1991)
28-
Lowenstein, J. G., Chem. Eng., Diciembre 23, 62-76, (1985)
29-
Palluzi, R. P., Chem.Eng.Prog., 87(1), 21-27, (1991)
30-
Palluzi, R. P., Matty, L., Chem.Eng.Prog.m, 83(10), 33-42, (1983)
31-
Palluzi, R. P., .Chem.Eng. Noviembre 9 (1987)
32-
Pearson, W. K., Chem.Eng.Prog., 82(4), 25-33, (1986).
33- Peters,
M., Tinmerhaus, K. D., "Plant Design and Economics for Chemical Engineering", 4ta. Edición,
Mc. Graw Hill Book Co., New
York, 1991.
34- Sinko,
D. M., Chem.Eng.Prog., 87(1), 31-34, (1991)
35-
Strickler, G. R., Chem.Eng.Prog., 82(12), 48-55, (1986)
36- Trambouze, P., Chem.Eng., Septiembre 10, 122-130, (1979)
37-
Trambouze, P., Chem.Eng.Prog., 86(2), 48-55, (1990)
38-
Vitenham, L., Munjal, R., Chem.Eng.Prog., 87(1), 35-38, (1991)
39-
Worstell, J. H ., Ginestra, J.
M., Chem.Eng.Prog., 89(6),
31-37, (1993)
40- XYTEL
CO., Chem.Eng.Prog., 89(6), 3O, (1993)
41- Yanik, S.J.,
Graham, J. R., Chem.Eng.Prog., 82(3),
35-40, (1986)